Справка
x
Поиск
Закладки
Озвучить книгу
Изменить режим чтения
Изменить размер шрифта
Оглавление
Для озвучивания и цитирования книги перейдите в режим постраничного просмотра.
Параллельное программирование на основе технологий OpenMP, MPI, CUDA
5. Интерфейс передачи сообщений MPI
Поставить закладку
Если Вы наш подписчик,то для того чтобы скопировать текст этой страницы в свой конспект,
используйте
просмотр в виде pdf
. Вам доступно 11 стр. из этой главы.
Для продолжения работы требуется
Registration
Предыдущая страница
Следующая страница
Table of contents
Введение
1. Архитектура параллельных вычислительных систем
2. Параллельные вычисления
+
3. Технология параллельного программирования систем с общей памятью OpenMP
+
4. CUDA - неграфические вычисления на графическом процессоре
+
5. Интерфейс передачи сообщений MPI
-
5.1. Основные сведения о стандартах MPI-1 и MPI-2
5.2. Функции инициализации, завершения, определения окружения
5.3. Обмен сообщениями типа "точка-точка"
5.4. Коллективные операции взаимодействия процессов
5.5. Производные типы и упаковка/распаковка данных
5.6. Управление группами ветвей и коммуникаторами
5.7. Управление виртуальными топологиями
5.8. Динамическое порождение ветвей
5.9. Удаленный доступ к памяти (односторонние взаимодействия)
5.10. Параллельный ввод/вывод
5.11. Использование библиотеки MPE для анализа процессов взаимодействия ветвей программы
Контрольные вопросы
Библиографический список
Данный блок поддерживает скрол*