Russian Language English Language

2.Организация вычислительных систем

2.1 РАЗРАБОТКА МИНИАТЮРНОГО СПЕЦИАЛИЗИРОВАННОГО ТЕХНОЛОГИЧЕСКОГО КОМПЛЕКСА С АВТОНОМНОЙ СИСТЕМОЙ УПРАВЛЕНИЯ

2.2 ИСПОЛЬЗОВАНИЕ ТЕХНОЛОГИЙ РАСПАРАЛЛЕЛИВАНИЯ СРЕДСТВАМИ CPU НА ГИБРИДНОМ ВЫЧИСЛИТЕЛЬНОМ КЛАСТЕРЕ


Экспресс информация

Редколлегия журнала

Подписка на новости

Гостевая книга

Предоставление материалов

Письмо в редакцию

На начало


2019, Номер 1 ( 34)



Place for sale

BC/NW 2019 № 1 (34):2.2

ИСПОЛЬЗОВАНИЕ ТЕХНОЛОГИЙ РАСПАРАЛЛЕЛИВАНИЯ СРЕДСТВАМИ CPU НА ГИБРИДНОМ ВЫЧИСЛИТЕЛЬНОМ КЛАСТЕРЕ

Войцицкая А.С., Федулов А.С.

Параллельные вычисления с использованием процессоров широко распространены в настоящее время, так как необходимость получать результат за меньшее время для большого объема обрабатываемой информации с ростом задач становится все более насущной. На данный момент популярным и относительно недорогим способом создания высокопроизводительной параллельной вычислительной системы является архитектура гибридного вычислительного кластера (ГВК) [1], реализующего парадигмы параллельного программирования с использованием как центральных процессорных устройств (CPU), так и графических ускорителей (GPU).

Для разработки параллельных программ, предназначенных для реализации на CPU, в настоящий момент времени часто используются две технологии:OpenMP(для систем с общей памятью) и MPI (для систем с распределенной памятью).

ГВК содержит несколько вычислительных узлов. Память каждого узла доступна для всех узловых CPU, но не доступна для ядер других узлов.

В работе исследовано совместное использование на ГВК двух технологий распараллеливания: MPI и OpenMP. При этом взаимодействие между узлами осуществлялось с использованием технологии MPI, а с помощью технологии OpenMP распараллеливались вычисления внутри одного узла.

В процессе исследований по показателям производительности сравнивались три подхода: совместное использование MPI и OpenMP, использование только MPI и только OpenMP.В качестве тестовых примеров использовались ресурсоемкие задачи, обладающие хорошими показателями распараллеливания (вычисление определенного интеграла, матричные вычисления).

По результатам ряда экспериментов было подтверждено, что технология OpenMP по сравнению с MPI работает эффективнее и быстрее на одном узле, в архитектуре с общей памятью.

В случае вычислений на нескольких узлах совместное использование технологий OpenMP и MPI дает выигрыш в производительности по сравнению с применением только MPI.

Литература

1.  Борисов В. В., Зернов М. М., Федулов А. С., Якушевский К. А. Исследование характеристик гибридного вычислительного кластера // Системы управления, связи и безопасности. 2016. № 4. С. 129–146.