Без антрактов. Развитие суперкомпьютерных технологий не терпит остановок.

Ливневые дожди и шторма, обрушившиеся на Черноморское побережье нынешней осенью, не стали помехой для участников XV Международной суперкомпьютерной конференции “Научный сервис в сети Интернет”: даже когда грохот стихии фактически перекрывал голоса докладчиков, все только ближе придвигались к выступающим и с еще большим вниманием старались слушать то, что те рассказывали о своих работах и перспективах развития высокопроизводительных вычислений. “Суперкомпьютеры сами по себе — это всегда экстрим, а тут и погода тоже решила проверить нас на прочность, — заметил, открывая одну из главных ежегодных встреч российских профессионалов в области суперкомпьютерных технологий, заместитель директора НИВЦ МГУ им. М.В.Ломоносова, член-корреспондент РАН Владимир Воеводин. — Что же, нам не привыкать, попробуем справиться и с этим испытанием”… 

Сказано — сделано: с девяти утра и до позднего вечера все площадки конференции были задействованы для проведения пленарных, секционных и стендовых докладов, мастер-классов и мероприятий ИТ-вендоров, чье представительство в этот раз было, как всегда, впечатляющим. По традиции проведение конференции, основными организаторами которой выступают РАН и Суперкомпьютерный консорциум университетов России, было поддержано РФФИ.
Главной темой для обсуждения в этом году стали параллельные технологии, пришедшие в компьютерный мир всерьез и надолго. Сегодня даже современные мобильные устройства строятся на базе многоядерных процессоров. А в суперкомпьютерах граней параллелизма гораздо больше: множество одновременно работающих процессоров и ускорителей, параллельные алгоритмы, технологии параллельного программирования, параллельный ввод-вывод… Параллелизму во всем его многообразии, лежащему в основе как существующих, так и перспективных суперкомпьютерных технологий, и было уделено особое внимание участников конференции.
Обсуждение актуальных вопросов высокопроизводительных вычислений по традиции начали с объявления результатов очередной редакции списка Top50 (http://top50.supercomputers.ru) самых мощных компьютеров СНГ. Представленные данные особого повода для радости не дали: 19-я редакция списка продемонстрировала весьма незначительный рост производительности супермощностей СНГ. За полгода суммарная пиковая производительность составила 5877,8 TFlop/s (против 5707,4 TFlop/s в предыдущей редакции Тор50). Всего же за прошедшие шесть месяцев в рейтинге появились лишь три новые системы и еще одна (отнюдь не из первой пятерки) — обновилась. Лидером по-прежнему остается суперкомпьютер МГУ “Ломоносов” (1700,21 TFlop/s). На второй и третьей позициях — тоже без перемен: МВС-10П (установленный в МСЦ РАН с пиковой производительностью 523,83 TFlop/s) и суперкомпьютер производства Hewlett-Packard (пиковая производительность 317,40 TFlop/s).
Абсолютный минимум достижений в нынешней редакции Тор50 за время существования рейтинга с 2004 года — закономерный результат той невнятной политики, которую ведет Минобрнауки в отношении развития технологий высокопроизводительных вычислений, и печально известных событий с РАН. Все это в целом, мягко говоря, не очень-то способствует становлению отечественной суперкомпьютерной отрасли. А ведь когда-то за полгода Тор50 обновлялся практически на 20-25 систем!.. В это же время США не перестают печься о повышении конкурентоспособности страны именно за счет развития высокопроизводительных технологий. Свидетельство тому — их успехи в рейтинге Тор500. Несмотря на то что, как и в России, в Америке многие представители власти пока “знают стоимость, но не знают истинной ценности суперкомпьютеров”, там делается все, чтобы в итоге победить в мировой суперкомпьютерной гонке мощностей.
— В сумме все системы Тор50 выходят на 6 РFlop/s — таков показатель уровня суперкомпьютерного “железа” в нашей стране, — с сожалением отметил Владимир Воеводин. — Именно “железа”, потому как в ряде других областей у нас делается многое, чем можно гордиться. Так, например, набирающее сегодня все большую популярность в суперкомпьютерном мире, наряду с темой экзафлопса, понятие “Сo-Design”. Русскоязычного аналога этому термину пока не существует. Но идея проста. Еще в конце 1970-х годов Гурий Иванович Марчук занялся постановкой такой задачи, как отображение структуры программ и алгоритмов на архитектуру вычислительных систем, говоря о том, что все этапы работ, свойства алгоритмов, программ, систем программирования, особенности архитектуры и прочее должны быть увязаны в единое целое… Эта цепочка будет действовать хорошо только в том случае, когда все друг с другом согласовано.
Понятие “Co-Design”, которое сейчас США подняли на флаг, и есть не что иное, как это согласование. При весьма солидной господдержке в рамках программы “Co-Design Centers”, направленной на создание центров соразработки аппаратных платформ и программного обеспечения для таких прикладных областей, как перспективные ядерные реакторы, процессы горения и новые материалы, уже действуют три центра, занятых решением конкретных задач по реализации концепции “Co-Design”. Инициатива в области развития “Co-Design” подхвачена и другими странами.
Стоит ли говорить, что такие проекты связаны с технологиями создания экзамасштабных систем. О путях, ведущих к экзафлопсному суперкомпьютеру, появление которого ожидается в 2018-2020 годах, и препятствиях на этой дороге речь шла практически во всех выступлениях представителей ведущих высокопроизводительных компаний и корпораций — давних партнеров конференции “Научный сервис в сети Интернет”: Intel, “Т-Платформы”, групп компаний “РСК” и “Сторус”, Hewlett-Packard, NVIDIA, Adaptive Computing, AMD, IBM.
Как совладать со стремительно растущей степенью параллельности? Как эффективно использовать все (вдруг ставшие доступными) миллионы ядер, например, лидера летнего Тор500 — китайского суперкомпьютера Tianhe 2 (“Млечный путь 2”)? Как совершенствовать энергопотребление современных систем, когда тот же Tianhe 2 требует для работы 17 МВт — объем электроэнергии, достаточный для жизни небольшого города, а при подключении охлаждения и остальной инфраструктуры — уже 24 МВт?! Однако, как было справедливо замечено одним из выступавших, это наше будущее, и к нему надо привыкать.
А чтобы привыкание шло успешно, все компании позаботились об организации в дни конференции самых разных дополнительных мероприятий для активного приобщения желающих к миру суперкомпьютерных технологий. С аншлагом прошли традиционные “Научно-популярные вечера с Intel”, на которых обсудили философскую (“В ожидании Intel MIC”), практическую (“Intel Xeon Phi: краткий курс молодого бойца”), познавательную (лицензирование и образовательные программы), инструментальную (особенности использования MPI для Intel Xeon Phi) и даже игровую (экзаскейльный квест) грани параллелизма. Компания NVIDIA провела AbraCUDAbra — серию семинаров-консультаций по оптимизации кода для GPU с помощью простых подходов — директив и библиотек, представив введение в технологию программирования CUDA. О новой орбите параллелизма — первой коммерческой системе HP Moonshot — узнали участники встречи с представителями компании НР. Новинка позволяет радикально сократить расходы на инфраструктуру ЦОД: она потребляет на 89% меньше электроэнергии, занимает на 80% меньше места и стоит на 77% дешевле обычных серверов. Темой вечеров с IBM стала “Массивно-параллельная реальность: популярное представление сверхмасштабируемых систем IBM”. На встрече эксперты компании представили архитектуру системы IBM Blue Gene/Q и на примерах продемонстрировали, как создавать параллельный код на С/С++, оптимально использующий данную архитектуру.
Вопросы суперкомпьютерного инжиниринга, сертификации учебных курсов и программ “Суперкомпьютеры и параллельные вычисления”, формирования системы отечественного суперкомпьютерного образования, опыт интернационализации образования в сфере суперкомпьютерных технологий, а также примеры использования численного моделирования гидродинамических процессов в погружных нефтяных насосах с использованием суперкомпьютерной техники, трехмерные вычисления с применением программ трехмерного теплогидравлического расчета и суперЭВМ в атомной энергетике, моделирование динамики астрофизических объектов на гибридных системах, построение “модели атмосферы, океана морского льда и почвы высокого разрешения” и многое другое успели обсудить участники конференции.
Кроме того, в ее рамках состоялось заседание членов Суперкомпьютерного консорциума университетов России, где представители каждого из НОЦ, созданных в ходе реализации президентского проекта “Суперкомпьютерное образование” (www.hpc-education.ru), доложили о своих успехах (и проблемах), наметили план дальнейшей работы по созданию такого важного документа, как “Свод знаний и умений в области СКТ”, определили круг первостепенных задач, в частности, продолжение выпуска книг серии “Суперкомпьютерное образование” и альманахов о практическом применении суперкомпьютеров в различных областях экономики.
Завершающим аккордом стал традиционный круглый стол, несколько изменивший на этот раз свой формат: эксперты — признанные профессионалы в суперкомпьютерной области — постарались ответить на вопросы, посвященные одной теме — “Суперкомпьютер 2020: о чем надо задуматься уже сейчас?”. Например, не стоит ли оставить на время занятия технологиями и направить все силы на развитие программного обеспечения? Может, стоит подождать лет пять, чтобы все могло прийти в равновесие? Вердикт экспертов был строг: никаких антрактов! Останавливаться на достигнутом не следует. Иначе многие наработки будут утрачены. Жизненный цикл информационной технологии 3-5 лет, а вычислительной модели — 10-20 лет. Технологии и модели тесно связаны между собой, но при этом первые развиваются быстрее, чем вторые. Что будет, если мы остановимся? После 5 лет остановки нам потребуется 10 лет, чтобы наверстать упущенное, поэтому давайте уж не останавливаться. Как известно: “Путь мудрого — вверх, чтобы избежать преисподней внизу”.
На вопрос: “Как бы вы потратили 250 млн рублей, окажись они у вас в руках?”, эксперты ответили по-разному: кто-то потратил бы деньги на повышение зарплаты молодым, кто-то — на развитие цифровой медицины или такого актуального направления, как “живые системы”, кто-то — на совершенствование системы школьного образования, а кто-то — на создание лаборатории по проблемам предсказательного моделирования в науках об обществе…Среди перспективных тем новых конференций в Абрау — в 2014 и 2020 годах — выбор пал на параллельные и когнитивные технологии, проблемы моделирования истории, облачные вычисления, подготовку кадров в области суперкомпьютерных технологий, построение реальных моделей реального мира, создание технических устройств, сравнимых с человеческим мозгом…Осталось подождать совсем немного, чтобы узнать, какие из предложенных тем организаторы выберут для проведения встречи в следующем году.

ПОЛНОСТЬЮ МАТЕРИАЛ СПЕЦВЫПУСКА ДОСТУПЕН В ФОРМАТЕ PDF
Нина ШАТАЛОВА
Фото Дмитрия Никитенко

Нет комментариев