Скачать презентацию Заседание диссертационного совета К 002 058 01 при Скачать презентацию Заседание диссертационного совета К 002 058 01 при

7686c57c989b717461ca2efb3e060096.ppt

  • Количество слайдов: 26

Заседание диссертационного совета К 002. 058. 01 при ИММ РАН 17 февраля 2005 Российская Заседание диссертационного совета К 002. 058. 01 при ИММ РАН 17 февраля 2005 Российская Академия Наук УРАЛЬСКОЕ ОТДЕЛЕНИЕ Рычков В. Н. Институт Прикладной Механики Ижевск Параллельная распределенная объектно-ориентированная вычислительная среда для конечно-элементного анализа диссертационная работа на соискание ученой степени кандидата физико-математических наук Специальность 05. 13. 18 – Математическое моделирование, численные методы и комплексы программ

Ур. О РАН Институт Прикладной Механики Введение Требования к прикладному программному обеспечению: – возможность Ур. О РАН Институт Прикладной Механики Введение Требования к прикладному программному обеспечению: – возможность быстрой и надежной реализации сложных математических моделей (гибкость) – максимальное использование вычислительных ресурсов (производительность) – обеспечение взаимодействия между существующими и новыми элементами аппаратных и программных средств (платформонезависимость) Комплекс программ для конечно-элементного анализа – возможные решения: – применение объектно-ориентированного и компонентного программирования (структурирование большого объема кода, программирование в терминах предметной области, повторное использование кода) – параллельная распределенная реализация метода декомпозиции области, основанного на конечно-элементной аппроксимации (отображение проблем вычислительной математики на многопроцессорные системы) – использование промежуточного программного обеспечения (переносимость прикладных программ на различные аппаратно-программные платформы, в том числе гетерогенные) Промежуточное программное обеспечение параллельных распределенных вычислений: – MPI (Message Passing Interface) – интерфейс обмена сообщениями • запуск параллельных процессов на узлах вычислительной системы • организация обмена сообщениями между ними – CORBA (Common Object Request Broker Architecture) – архитектура брокера объектных запросов • запуск объектно-ориентированных приложений на узлах вычислительной системы • организация взаимодействий между ними 2

Ур. О РАН Институт Прикладной Механики Введение Методы разработки комплексов программ для математического моделирования Ур. О РАН Институт Прикладной Механики Введение Методы разработки комплексов программ для математического моделирования – О. Б. Арушанян (НИВЦ МГУ), Н. Г. Буньков (ЦАГИ), В. А. Семенов (ИСП РАН) и др. Прикладные программные системы для вычислительной физики и математики с применением многопроцессорных ЭВМ – ИАП РАН (О. М. Белоцерковский и др. ), ИММ РАН (Б. Н. Четверушкин и др. ), ИПМ им. Келдыша (А. В. Забродин и др. ), НГУ (В. Э. Малышкин и др. ), ИТПМ СО РАН (Г. А. Тарнавский и др. ), ИММ Ур. О РАН, ВЦ РАН и др. Специализированные высокопроизводительные расчетные пакеты программ – PMPL (ВНИИЭФ и Mississippi State University), PETSc (Argonne National Laboratory), LAPACK (Oak Ridge National Laboratory) и др. Математические основы параллельного программирования, отображение проблем вычислительной математики на архитектуру вычислительных систем – ИВМ РАН (В. В. Воеводин и др. ) Языки, технологии и промежуточное программное обеспечение для параллельных распределенных вычислений – НИВЦ МГУ (Вл. В. Воеводин и др. ), ИСП РАН (В. П. Иванников, С. С. Гайсарян, А. Л. Ластовецкий, А. И. Аветисян и др. ), ИПМ им. Келдыша (Н. А. Коновалов, В. А. Крюков и др. ) MPI (Message Passing Interface – интерфейс обмена сообщениями) – Mississippi State University (A. Skjellum и др. ), Argonne National Laboratory (W. Gropp, E. Lusk и др. ), University of Tennessee (J. J. Dongarra и др. ), University of Illinois (L. V. Kale и др. ) – Программные системы: LAM, MPICH-G и др. CORBA (Common Object Request Broker Architecture – общая архитектура брокера объектных запросов) – – Международный консорциум OMG Повышение производительности CORBA: Washington University (D. C. Schmidt и др. ) Совместное использование технологий CORBA и MPI: IRISA/INRIA (C. Pérez, T. Priol и др. ) Программные системы: Orbix, Visi. Broker, omni. ORB, MICO, TAO и др. 3

Ур. О РАН Институт Прикладной Механики Цель и задачи работы 4 Цель работы. Разработка Ур. О РАН Институт Прикладной Механики Цель и задачи работы 4 Цель работы. Разработка комплекса программ для численного моделирования методом конечных элементов, обеспечивающего – гибкие средства разработки, – высокую производительность вычислений, – независимость от аппаратно-программных платформ. Задачи работы. – Разработка обобщенной объектно-ориентированной модели метода конечных элементов и метода декомпозиции области, обеспечение возможностей модификации и расширения. – Анализ технологий параллельных распределенных вычислений MPI и CORBA. Сравнение производительности различных видов промежуточного программного обеспечения MPI и CORBA, определение уровня независимости от аппаратно-программных платформ. Исследование методов разработки параллельных распределенных объектно-ориентированных программ на промежуточном программном обеспечении MPI и CORBA. – Создание технологии построения параллельных распределенных объектно-ориентированных моделей на основе обычных объектно-ориентированных моделей и промежуточного программного обеспечения CORBA. Разработка параллельной распределенной объектноориентированной вычислительной среды для конечно-элементного анализа. – Исследование возможностей совместного использования промежуточного программного обеспечения CORBA и MPI. Интеграция MPI пакетов линейной алгебры в вычислительную среду для конечно-элементного анализа. – Проведение численных исследований напряженно-деформированного состояния трехмерных тел методом подструктур на многопроцессорных вычислительных системах.

Ур. О РАН Институт Прикладной Механики Метод конечных элементов Основные шаги метода конечных элементов Ур. О РАН Институт Прикладной Механики Метод конечных элементов Основные шаги метода конечных элементов 1. Построение конечно-элементной сетки с заданными физическими параметрами и граничными условиями 2. Установка соответствия между узловыми степенями свободы и номерами уравнений системы 3. Формирование системы уравнений с учетом вкладов от элементов и узлов в соответствии со схемой сборки системы 4. Введение граничных условий в систему уравнений 5. Решение системы уравнений 6. Обновление узловых степеней свободы в соответствии с полученным решением 7. Определение расчетных параметров в элементах Объектно-ориентированная модель метода конечных элементов 1. Расчетная модель 2. Численная модель 3. Модель решения 5

Ур. О РАН Институт Прикладной Механики Объектно-ориентированная модель метода конечных элементов Расчетная модель Модель Ур. О РАН Институт Прикладной Механики Объектно-ориентированная модель метода конечных элементов Расчетная модель Модель решения Численная модель 6

Ур. О РАН Институт Прикладной Механики Метод декомпозиции области, основанный на конечно-элементной аппроксимации 7 Ур. О РАН Институт Прикладной Механики Метод декомпозиции области, основанный на конечно-элементной аппроксимации 7 Основные типы методов декомпозиции области • Методы подструктур – на непересекающихся подобластях • Методы Шварца – на пересекающихся и непересекающихся областях Основные шаги метода декомпозиции области 1. Построение и разделение конечно-элементной сетки с заданными физическими параметрами и граничными условиями 2. Установка соответствия между узловыми степенями свободы и номерами уравнений в локальных и в глобальной системах уравнений 3. Формирование локальных (и глобальной) систем уравнений с учетом вкладов от элементов и узлов в соответствии со схемой сборки системы 4. Введение граничных условий 5. Решение системы уравнений, независимое выполнение матрично-векторных операций на подобластях 6. Обновление узловых характеристик в соответствии с полученным решением 7. Определение расчетных параметров в элементах

Ур. О РАН Институт Прикладной Механики Метод подструктур 8 Ур. О РАН Институт Прикладной Механики Метод подструктур 8

Ур. О РАН Институт Прикладной Механики Объектно-ориентированная модель метода подструктур Область Подобласть Расчетная модель Ур. О РАН Институт Прикладной Механики Объектно-ориентированная модель метода подструктур Область Подобласть Расчетная модель Модель решения Численная модель 9

Ур. О РАН Институт Прикладной Механики Эффективность программной декомпозиции метода подструктур Увеличение числа подобластей Ур. О РАН Институт Прикладной Механики Эффективность программной декомпозиции метода подструктур Увеличение числа подобластей n Память увеличение дополнения Шура уменьшение матриц подобластей Время замедление решения общей системы ускорение вычислений в подобластях n=16 n=24 n=32 n=48 10

Ур. О РАН Институт Прикладной Механики Исследование производительности MPI и CORBA omni. ORB и Ур. О РАН Институт Прикладной Механики Исследование производительности MPI и CORBA omni. ORB и MPICH на Myrinet и SCI – IRISA/INRIA, Франция TAO и MPICH на Gigabit и Ethernet – кластер Paraclete, ИПМ Ур. О РАН 11

Ур. О РАН Институт Прикладной Механики Построение параллельной распределенной объектно-ориентированной модели 12 Параллельная распределенная Ур. О РАН Институт Прикладной Механики Построение параллельной распределенной объектно-ориентированной модели 12 Параллельная распределенная объектно-ориентированная модель должна: – максимально использовать код исходной объектно-ориентированной модели, – обладать гибкостью, не меньшей, чем исходная. Основные этапы построения: 1. Описание объектов на CORBA IDL 2. Соединение объектов исходной модели с объектами инфраструктуры CORBA для построения распределенной объектно-ориентированной модели 3. Построение параллельной объектно-ориентированной модели на основе распределенной модели и асинхронного вызова методов AMI (программное обеспечение TAO) 4. Интеграция c MPI (программное обеспечение MPICH)

Ур. О РАН Институт Прикладной Механики 13 IDL описание распределенной модели Объектноориентированная модель Распределенная Ур. О РАН Институт Прикладной Механики 13 IDL описание распределенной модели Объектноориентированная модель Распределенная объектноориентированная модель Параллельная распределенная объектно-ориентированная модель Объект по адресу Удаленный доступ Асинхронный вызов методов Объект по значению Перемещение - Удаленные объекты Перемещаемые объекты Конструкция IDL Описания interface struct valuetype удаленные методы и атрибуты локальные методы и атрибуты Поддержка механизмов объектноориентированного программирования Метод декомпозиции области + Node Subdomain - Node Element SPConstraint Vector + Matrix Band. SMatrix USMatrix

Ур. О РАН Институт Прикладной Механики Реализация параллельной распределенной модели Структура классов, обеспечивающих синхронный/асинхронный Ур. О РАН Институт Прикладной Механики Реализация параллельной распределенной модели Структура классов, обеспечивающих синхронный/асинхронный удаленный вызов методов Параллельная распределенная модель подобласти 14

Ур. О РАН Институт Прикладной Механики Процессор 0 Удаленный вызов метода подобласти Процессор 1 Ур. О РАН Институт Прикладной Механики Процессор 0 Удаленный вызов метода подобласти Процессор 1 Цикл Удаленный вызов Процессор 2 15

Ур. О РАН Институт Прикладной Механики Асинхронный вызов метода подобласти Цикл – вызов Процессор Ур. О РАН Институт Прикладной Механики Асинхронный вызов метода подобласти Цикл – вызов Процессор 0 Процессор 1 16 Процессор 2 Асинхронный вызов Цикл – ожидание Параллельное выполнение Ожидание обратного вызова

Ур. О РАН Институт Прикладной Механики Параллельная распределенная модель метода подструктур Область Подобласть Расчетная Ур. О РАН Институт Прикладной Механики Параллельная распределенная модель метода подструктур Область Подобласть Расчетная модель Модель решения Численная модель 17

Ур. О РАН Институт Прикладной Механики 1. – – 2. – – 3. – Ур. О РАН Институт Прикладной Механики 1. – – 2. – – 3. – – Интеграция MPI приложений Инициализация промежуточного ПО инициализация MPI в рамках CORBA инициализация CORBA в рамках MPI Работа с объектами CORBA набор клиентов набор серверов Обмен сообщениями посредством MPI обычный MPI код для набора клиентов MPI код внутри методов объектов CORBA + асинхронный вызов этих методов 18

Ур. О РАН Институт Прикладной Механики 19 Интеграция MPI пакета PETSc Процессор 0 Объектные Ур. О РАН Институт Прикладной Механики 19 Интеграция MPI пакета PETSc Процессор 0 Объектные ссылки CORBA Обработчики обратного вызова Коммуникации CORBA Процессор N Процессор 1 2 Объекты CORBA с кодом MPI Коммуникации MPI

Ур. О РАН Институт Прикладной Механики Вычислительная схема параллельного метода подструктур 20 Ур. О РАН Институт Прикладной Механики Вычислительная схема параллельного метода подструктур 20

Ур. О РАН Институт Прикладной Механики Эффективность параллельных вычислений 21 Масштабируемость программного обеспечения метода Ур. О РАН Институт Прикладной Механики Эффективность параллельных вычислений 21 Масштабируемость программного обеспечения метода подструктур

Ур. О РАН Институт Прикладной Механики Эффективность параллельных вычислений прямым и итерационным методами подструктур Ур. О РАН Институт Прикладной Механики Эффективность параллельных вычислений прямым и итерационным методами подструктур Метод решения системы с дополнением Шура TC++ TCORBA TAMI+MPI E (%) разложение Холесского 15164 узлов 75177 элементов 14 подобластей 0: 17: 00 0: 18: 28 0: 02: 24 50, 60 параллельный метод сопряженных градиентов 15164 узлов 75177 элементов 14 подобластей 0: 17: 10 0: 18: 40 0: 01: 53 65, 11 – 0: 14: 00 0: 01: 12 83, 33* TC++ TCORBA TAMI+MPI E (%) Общее время 17: 10, 0 18: 40, 0 01: 53, 0 65, 11 - Разделение 00: 11, 1 00: 42, 2 00: 13, 2 06, 02 | 22, 87 • Распределение объектов сетки 00: 02, 1 00: 31, 0 00: 04, 8 03, 10 | 45, 77 • Восстановление расчетных моделей подобластей 00: 01, 3 00: 01, 6 00: 00, 1 73, 70 16: 56, 4 17: 55, 0 01: 37, 6 74, 37 • Формирование дополнения Шура 15: 32, 8 16: 58, 2 01: 29, 6 74, 39 • Формирование правой части 00: 03, 8 00: 04, 2 00: 00, 4 71, 62 • Решение системы с дополнением Шура 00: 12, 6 00: 14, 4 00: 01, 1 81, 82 • Определение перемещений внутренних узлов 00: 04, 3 00: 05, 1 00: 00, 7 45, 37 параллельный метод сопряженных градиентов 40447 узлов 209108 элементов 70 подобластей параллельный метод сопряженных градиентов 15164 узлов 75177 элементов 14 подобластей - Решение 22

Ур. О РАН Институт Прикладной Механики Распределение вычислительной нагрузки между процессорами в методе подструктур Ур. О РАН Институт Прикладной Механики Распределение вычислительной нагрузки между процессорами в методе подструктур 15164 узлов, 75177 элементов, 14 подобластей 23

Ур. О РАН Институт Прикладной Механики 24 Вычислительные затраты метода подструктур для больших неструктурированных Ур. О РАН Институт Прикладной Механики 24 Вычислительные затраты метода подструктур для больших неструктурированных сеток 1 управляющий узел, 23 вычислительных узла Задача 1: 249555 узлов, 836432 элементов Задача 2: 421505 узлов, 1415824 элементов → Область Подобласть СЛАУ блок (KB) Сетка (KB) СЛАУ (KB) Время решения 748665 115 23 31038 1349 81592 5 37260 6792 8336 133688 08: 34, 6 748665 230 23 41628 1809 120560 10 34410 396 3045 4376 17032 06: 26, 3 748665 345 23 48756 2119 153904 15 34470 342 1956 3052 6100 06: 16, 9 1264515 230 23 58575 2546 210280 10 62310 675 5556 7308 69868 18: 50, 2* 1264515 345 23 68187 2964 271724 15 59220 420 3528 5040 19976 11: 31, 8* 1264515 460 23 75882 3299 329156 20 60600 297 2733 3848 16760 10: 46, 1*

Ур. О РАН Институт Прикладной Механики 25 Основные результаты работы 1. Предложена новая методика Ур. О РАН Институт Прикладной Механики 25 Основные результаты работы 1. Предложена новая методика построения комплекса программ для численного моделирования методом конечных элементов, основанная на объектно-ориентированном анализе и промежуточном программном обеспечении CORBA, MPI. 2. Разработана трехуровневая объектноориентированная модель метода конечных элементов и модель метода декомпозиции области. 3. Проведен анализ технологий параллельных распределенных вычислений MPI и CORBA. Создана технология параллельных распределенных компонентов, которая обеспечивает возможность распределения и распараллеливания объектноориентированных моделей с использованием промежуточного программного обеспечения CORBA, MPI. ограниченность в применении Физическая модель Математическая модель Дифференциальное уравнение в частных производных Метод конечных элементов Система линейных алгебраических уравнений Модель вычислений Алгоритм Параллельные распределенные вычисления Архитектура вычислительной системы гибкость и эффективность

Ур. О РАН Институт Прикладной Механики 26 Основные результаты работы 4. Разработана параллельная распределенная Ур. О РАН Институт Прикладной Механики 26 Основные результаты работы 4. Разработана параллельная распределенная объектно-ориентированная модель метода декомпозиции области. Реализованы исполняемые модули, описывающие процессы вычислений в подобластях и в области. Создана вычислительная среда для конечноэлементного анализа, которая обеспечивает механизмы разработки, реализации и запуска прикладных расчетных программ. 5. С помощью вычислительной среды разработана параллельная распределенная модель метода подструктур, включающая прямые и итерационные схемы решения системы с дополнением Шура. Проведены численные исследования для реальных и модельных задач, которые показали высокую эффективность распараллеливания и масштабируемость программного обеспечения. ограниченность в применении Физическая модель Математическая модель Дифференциальное уравнение в частных производных Метод конечных элементов Система линейных алгебраических уравнений Модель вычислений Алгоритм Параллельные распределенные вычисления Архитектура вычислительной системы гибкость и эффективность