Параллельное программирование. Лекция 13b. Динамическое создание процессов (MPI-2)
Институт математики, механики и компьютерных наук им.И.И.Воровича ЮФУ http://mmcs.sfedu.ru. Лекции по параллельному программированию читает доцент кафедры алгебры и дискретной математики М.Э.Абрамян.
В лекциях используется электронный задачник по программированию Programming Taskbook http://ptaskbook.com
Дополнительные материалы доступны по ссылке http://edu.mmcs.sfedu.ru/course/view.php?id=74
Содержание: 00:00 Динамическое создание процессов (MPI-2); причины добавления этой возможности в стандарт MPI. Функции для создания новых процессов: MPI_Comm_spawn и MPI_Comm_spawn_multiple. 05:23 Параметры функции MPI_Comm_spawn. Интеркоммуникатор как результат создания новой группы процессов. 10:47 Условия выхода из функции MPI_Comm_spawn. Особенности функции MPI_Comm_spawn_multiple. 16:47 Получение из дочерних процессов связанного с ними интеркоммуникатора: функция MPI_Comm_get_parent. Особенности ее применения. Варианты создания нескольких новых наборов процессов. 23:49 Задания, посвященные динамическому созданию процессов. Пример: MPI8Inter15. Особенности отладочного вывода для дочерних процессов. 33:13 Первый этап решения: создание нового процесса. Проверка правильности создания с помощью отладочного вывода информации о всех процессах приложения. 37:39 Второй этап решения: ввод исходных данных в родительских процессах, их пересылка и вывод в дочернем процессе. Использование коллективной операции для интеркоммуникатора. 42:35 Завершающий этап решения: пересылка данных из дочернего процесса родительским процессам и их вывод. 46:17 Функция MPI_Intercomm_merge: объединение двух групп процессов интеркоммуникатора в новый интракоммуникатор. Параметр high. 52:54 Механизм клиент-серверного взаимодействия между не связанными между собой группами процессов. Создание порта для связи и его публичного имени, прослушивание порта на стороне группы-сервера; подключение к порту группы-клиента. Функции MPI, обеспечивающие реализацию этих действий. 1:02:46 Описание последовательности действий на стороне сервера и на стороне клиента. Необходимость синхронизации действий сервера и клиента, средства ее обеспечения.
Видео Параллельное программирование. Лекция 13b. Динамическое создание процессов (MPI-2) канала Михаил Абрамян
В лекциях используется электронный задачник по программированию Programming Taskbook http://ptaskbook.com
Дополнительные материалы доступны по ссылке http://edu.mmcs.sfedu.ru/course/view.php?id=74
Содержание: 00:00 Динамическое создание процессов (MPI-2); причины добавления этой возможности в стандарт MPI. Функции для создания новых процессов: MPI_Comm_spawn и MPI_Comm_spawn_multiple. 05:23 Параметры функции MPI_Comm_spawn. Интеркоммуникатор как результат создания новой группы процессов. 10:47 Условия выхода из функции MPI_Comm_spawn. Особенности функции MPI_Comm_spawn_multiple. 16:47 Получение из дочерних процессов связанного с ними интеркоммуникатора: функция MPI_Comm_get_parent. Особенности ее применения. Варианты создания нескольких новых наборов процессов. 23:49 Задания, посвященные динамическому созданию процессов. Пример: MPI8Inter15. Особенности отладочного вывода для дочерних процессов. 33:13 Первый этап решения: создание нового процесса. Проверка правильности создания с помощью отладочного вывода информации о всех процессах приложения. 37:39 Второй этап решения: ввод исходных данных в родительских процессах, их пересылка и вывод в дочернем процессе. Использование коллективной операции для интеркоммуникатора. 42:35 Завершающий этап решения: пересылка данных из дочернего процесса родительским процессам и их вывод. 46:17 Функция MPI_Intercomm_merge: объединение двух групп процессов интеркоммуникатора в новый интракоммуникатор. Параметр high. 52:54 Механизм клиент-серверного взаимодействия между не связанными между собой группами процессов. Создание порта для связи и его публичного имени, прослушивание порта на стороне группы-сервера; подключение к порту группы-клиента. Функции MPI, обеспечивающие реализацию этих действий. 1:02:46 Описание последовательности действий на стороне сервера и на стороне клиента. Необходимость синхронизации действий сервера и клиента, средства ее обеспечения.
Видео Параллельное программирование. Лекция 13b. Динамическое создание процессов (MPI-2) канала Михаил Абрамян
Показать
Комментарии отсутствуют
Информация о видео
Другие видео канала
![Параллельное программирование. Лекция 16c. Технология Parallel LINQ (PLINQ) и класс Parallel](https://i.ytimg.com/vi/cAMs5M4kaYQ/default.jpg)
![Параллельное программирование. Лекция 16b. Эффективность параллельных программ](https://i.ytimg.com/vi/5gd7ANpj6Tg/default.jpg)
![Параллельное программирование. Лекция 16a. Выражения запросов LINQ](https://i.ytimg.com/vi/51ePeH0x4N4/default.jpg)
![Параллельное программирование. Лекция 15b. Введение в технологию LINQ](https://i.ytimg.com/vi/sUIhDuYXKf4/default.jpg)
![Параллельное программирование. Лекция 15c. Введение в технологию LINQ](https://i.ytimg.com/vi/vnbc1XLh9dY/default.jpg)
![Параллельное программирование. Лекция 15a. Введение в технологию LINQ](https://i.ytimg.com/vi/kzGKw4A9NV0/default.jpg)
![Параллельное программирование. Лекция 14c. Разработка, отладка и запуск параллельных программ (MPI)](https://i.ytimg.com/vi/sDnqX4Fl_tM/default.jpg)
![Параллельное программирование. Лекция 14b. Разработка, отладка и запуск параллельных программ (MPI)](https://i.ytimg.com/vi/GJboUXFYTdQ/default.jpg)
![Параллельное программирование. Лекция 14a. Разработка, отладка и запуск параллельных программ (MPI)](https://i.ytimg.com/vi/tCdSxDulTM8/default.jpg)
![Параллельное программирование. Лекция 12c. Параллельные методы решения задачи n тел (MPI, OpenMP)](https://i.ytimg.com/vi/KDkGkSnHvi0/default.jpg)
![Параллельное программирование. Лекция 13a. Интеркоммуникаторы (MPI-2)](https://i.ytimg.com/vi/dDf7zx9ybUw/default.jpg)
![Параллельное программирование. Лекция 12b. Параллельные методы решения задачи n тел (MPI, OpenMP)](https://i.ytimg.com/vi/iCsZW-vGsMw/default.jpg)
![Параллельное программирование. Лекция 12a. Параллельные методы решения задачи n тел (MPI, OpenMP)](https://i.ytimg.com/vi/e_rkQnb99kg/default.jpg)
![Параллельное программирование. Лекция 11b. Параллельные матричные алгоритмы (MPI)](https://i.ytimg.com/vi/4gferB2Zdsk/default.jpg)
![Параллельное программирование. Лекция 11a. Параллельные матричные алгоритмы (MPI)](https://i.ytimg.com/vi/MDG1Fof2LDk/default.jpg)
![Параллельное программирование. Лекция 10c. Синхронизация и балансировка нитей (OpenMP)](https://i.ytimg.com/vi/1EZi8TDRw6A/default.jpg)
![Параллельное программирование. Лекция 10b. Синхронизация и балансировка нитей (OpenMP)](https://i.ytimg.com/vi/joJ3DGoDnbA/default.jpg)
![Параллельное программирование. Лекция 10a. Синхронизация и балансировка нитей (OpenMP)](https://i.ytimg.com/vi/66IetoHB5zQ/default.jpg)
![Параллельное программирование. Лекция 9c. Введение в технологию OpenMP](https://i.ytimg.com/vi/FV3l7kY1_gs/default.jpg)
![Параллельное программирование. Лекция 9b. Введение в технологию OpenMP](https://i.ytimg.com/vi/mvu8aqwnAuc/default.jpg)