В нашем блоге мы пишем о развитии облачного проекта 1cloud, а также рассказываем о развитии технологий и иногда публикуем мнения различных экспертов на этот счет. К примеру, вот адаптация интервью профессора из Беркли о развитии искусственного интеллека и больших данных. Сегодня мы представляем вашему вниманию рассказ бывшего участника IEEE Rebooting Computing initiative и International Technology Roadmap for Semiconductors Эрика ДеБенедиктиса о трендах развития отрасли суперкомпьютеров и проблемах, с которыми она сталкивается.



Существующие технологии уже позволяют создать суперкомпьютер с производительностью в экзафлопс, или 10^18 «операций с плавающей запятой в секунду». Прыжок до 10 экзафлопс и выше потребует радикальных изменений, как самих технологий, так и архитектуры вычислительных машин.

Разработкой стратегии, которая бы стала ответом на новые вызовы, занимается инженер департамента по продвижению технологических решений Сандийской национальной лаборатории (Sandia National Laboratories) в Альбукерке, Нью-Мексико, Эрик ДеБенедиктис (Erik DeBenedictis). В свое время он сотрудничал с IEEE Rebooting Computing initiative и International Technology Roadmap for Semiconductors по вопросам планирования будущего компьютеров и суперкомпьютеров.

По его мнению, на сегодняшний день в моделировании более мощных суперкомпьютеров есть три возможных пути усовершенствования: работа с переключателем диапазонов, 3-D интеграция и создание специализированной архитектуры. Обо всех трех вариантах он рассказал на специальной сессии «Под бременем закона Мура» на очередной конференции SC15 (International Conference for High Performance Computing, Networking, Storage and Analysis), прошедшей 15-20 ноября в Остине, Техас.

Ниже представлен рассказ инженера о будущем отрасли создания суперкомпьютеров и его мысли, появившиеся после общения с коллегами по вопросам их развития.

Будущее суперкомпьютеров: Еще не время конкретных решений



На недавней конференции обсуждались три основные области применения технологий для создания суперкомпьюеторов с мощностью, превышающей один экзафлопс. Мы все понимаем, что речь идет, скорее, о возможностях, чем о готовых решениях. Мы не знаем, как, к примеру, в итоге сработает переключатель диапазонов. В итоге мало кого интересует, как конкретно будут работать те или иные решения, большинство озабочено общими прогнозами о том, что будет с суперкомпьютерами в ближайшей перспективе.

Еще одна интересная тема, которую обсуждают эксперты — квантовые и нейроморфные компьютеры. И здесь уже речь как правило идет о том, что в обычных компьютерах можно использовать уже сегодня. В то время как для моделирования суперкомпьютеров многие вещи из квантовых и нейроморфных вычислений бесполезны.

Кому интересны суперкомпьютеры


Внимание к тематике суперкомпьютеров растет еще и потому, что мы здесь занимаемся новыми логическими структурами. Например, операционными структурами с плавающей запятой. Может пройти совсем немного времени, когда эти структуры преодолеют физические ограничения.

Интерес правительственных организаций в данном случае сосредоточен на анализе больших массивов данных и обучающих технологиях, завязанных на нейроморфных вычислениях. И выгода в данных направлениях может быть даже более ощутимая, чем считалось раньше: новые технологии возможно производить при меньшем количестве затрат. Этими вопросами, в частности, занимается IEEE Rebooting Computing initiative. Специалисты индустрии суперкомпьютеров также не будут обделены вниманием. Но здесь все лежащие на поверхности призы уже разобрали, приходится копать глубже.

Проблемы отрасли суперкомпьютеров


Ответ на этот вопрос: и да и нет. Миллиарды новых чипов уйдут на смартфоны. Сложно сказать, как это может сработать в плюс индустрии суперкомпьютеров. Но, разумеется, часть новых технологий появляются как побочные продукты магистральных решений. Вопрос – сколько это будет стоить.

Компьютерная индустрия в целом не производит технологии под архитектуру суперкомпьютеров. Поэтому проблема приспособления их под этот формат остается.

Кроме того, здесь скоре вопрос более детального и долгосрочного планирования. Продолжительность жизни софта сегодня в разы меньше, чем у «железа». Когда мы запускаем новое «железо» у себя в лаборатории в Сандиа, мы рассчитываем, что машина прослужит в таком виде 3-4 года. Еще 3-4 года мы закладываем на усовершенствование ее работы. В итоге получается 6-8-летний цикл. Необходимо, чтобы и программное обеспечение писалось под близкий к этому интервал.

Пройдет еще пара поколений, и мы уже не сможем просто усовершенствовать текущие параметры суперкомпьютеров. Произойдет качественный скачок. Если мы сегодня можем представить, какими нынешние суперкомпьютеры доживут свой век, почему бы не писать под них софт, рассчитанный на все время эксплуатации машины?

Пример: Когда в 2003 году неожиданно появился мультиядерный процессор, это стало серьезной проблемой для рынка. Потому что с этого момента возникла необходимость в согласованных действиях, чего раньше не было. Программистов никто не ставил в известность, пока не было уже слишком поздно. Их код не был приспособлен для работы двухядерного процессора.

Нечто подобное происходит на наших глазах. На подходе Intel Knight’s Landing (Xeon Phi processor), акселераторы GPU и прочие подобные вещи с дополнительными потоками. Никто всерьез не задумывается, каким должен быть код для этих новых процессоров. Кто-нибудь сегодня размышляет, как мы поменяем кодировку, когда совершим прорыв от одного экзафлопса до 10? Пока таким вопросам уделяется недостаточно внимания.

Комментарии (0)