Tianhe-1A

Китайский государственный центр суперкомпьютеров Тяньцзине планирует разработать суперкомпьютер нового поколения с производительностью более экзафлопса, сообщает агентство Синьхуа.

Новый суперкомпьютер будет примерно в 1000 раз производительнее, чем широко используемый в стране Tianhe-1A (4,7 петафлопса), который занимал первое место в мировом рейтинге суперкомпьютеров в 2010 году, но потом уступил лидерство Tianhe-2.

Прототип нового суперкомпьютера планируется выпустить в 2017 или 2018 году.

В настоящее время Tianhe-1A широко используется в китайской науке и промышленности, в том числе для обработки данных разведки месторождений нефти, производства анимационных фильмов, биомедицинских исследований и т.д. В свою очередь, нынешний рекордсмен Tianhe-2 (33,9 ПФлопс) разработан для нужд Народно-освободительной армии Китая, его сфера использования довольно ограничена. Как сообщается, многие приложения довольно сложно запускать на оптимальной производительности на самом быстром суперкомпьютере, так что Tianhe-1A подходит лучше.

Tianhe-1A ежедневно выполняет более 1400 вычислительных задач и обслуживает около 1000 пользователей в день.

Конфигурация Tianhe-1A включает 14 336 процессоров Xeon X5670 и 7168 графических процессоров Nvidia Tesla M2050 для общих вычислений, плюс 2048 китайских процессоров FeiTeng 1000 на SPARC-архитектуре.

Комментарии (5)


  1. devlind
    25.01.2016 15:56

    Сейчас компьютер за 1000$ будет гораздо мощнее, чем суперкомпьютеры середины девяностых. Вдумайтесь только, сколько производительной мощности мы тратим с вами каждый день на котеек, смишнявки и прон. Было время, когда на таких девайсах работали лучшие специалисты мира, проводили вычисления, связанные с обороной, с ядерными испытаниями и космическими системами. Эхх, прогресс…


    1. EvilGenius18
      25.01.2016 16:25
      +1

      Это не обязательно должно быть негативным, если бы потребительский сегмент не требовал все более мощные системы для, тех же, игр, то никто бы и не разрабатывал каждый год все более и более мощные чипы. Потребительские нужды, с вызываемой этим явлением, конкуренцией — это основная причина, которая движет прогресс в высокопроизводительных вычислениях. Кажется, что игры и тд это бесполезно, но посмотрев глубже, видно, что это одна из причин, по которым происходит прогресс в вычислениях


      1. devlind
        25.01.2016 17:51

        А разве я сказал, что это негативная сторона? Я просто обратил внимание на этот нюанс и всё.
        Просто сам факт того, что, скажем лет через 20-30 пользователь сможет позволить себе компьютер с вычислительной мощностью равной или превышающую топовые суперкомпьютеры сегодня, достойно восхищения. А представьте, что лет, эдак через 100, а может быть и раньше, станут доступны такие компьютеры, которые позволят симулировать интеллект людей в виртуальной реальности. Будут стратегии, с использованием тысяч ИИ, можно будет просимулировать эволюцию и так далее. Возможно встанет вопрос, можно ли будет убивать ИИ в симуляции? Ведь по сути это такое-же существо просто живущее, внутри твоей коробочки, с такими же чувствами, эмоциями. Короче, к чему это я веду? Ах, да — в интересное время живём!


        1. a5b
          25.01.2016 19:03

          > Просто сам факт того, что, скажем лет через 20-30 пользователь сможет позволить себе компьютер с вычислительной мощностью равной или превышающую топовые суперкомпьютеры

          Это станет фактом лишь при выполнении некоторых условий на протяжении этих 20-30 лет (продолжение увеличения плотности элементов на чипе при сохранении приемлемой стоимости; Dennard, Koomey — для чего требуется не слишком дорогая новая литография -«If lithography costs rise fast, Moore’s Law as we know it will come to a quick halt»). К сожалению, с одной стороны уже просматриваются физические пределы вычислений (любой flops сам по себе требует определенных пикоджоулей энергии, и намного больше энергии требует различная память, особенно объемная; при приближении к пределам начнет ухудшаться надежность и скорость), а с другой — рост производительности суперкомпьютеров идет быстрее, чем увеличение плотности элементов в микроэлектронике (за счет увеличения размеров, мощности, использования большего числа кристаллов). Как обычно, масштабирование памяти и интерконнектов (задержки, энергия) отстает, программирование постепенно усложняется…
          См например www.exascale.org/mediawiki/images/6/6e/Sc09-exa-panel-kogge.pdf (2009)
          «You Can’t Hide the Energy...». Очень много энергии требуется для доступа в память… Про цели к 2020-у году «30MW for 1 Exaflop => 33pJ/Flop… Moving to 2015 technology reduces per op to ~10pJ – Leaving 16pJ for memory»
          Современные оценки от Intel — www.socforhpc.org/wp-content/uploads/2015/06/SBorkar-SoC-WS-DAC-June-7-2015-v1.pptx — сегодня терафлопс оценивается в 1 кВт, а цель — уместить его в 20 Вт (20 пДж на операцию). При «5 нм» техпроцессе для целей программ exascale в чипе с <100 Вт потребуется > 16 ТФлопс (двойных или одинарных??)

          > пользователь сможет позволить себе компьютер
          Скорее доступ к компьютеру (в облако)

          PS: Оригинальная ссылка к новости = news.xinhuanet.com/english/2016-01/22/c_135036591.htm 2016-01-22

          PPS: Intel строит крупные суперкомпьютеры, чтобы разобраться как дальше масштабировать транзисторы — www.hpcwire.com/2016/01/11/moores-law-not-dead-and-intels-use-of-hpc-to-keep-it-that-way и для подготовки своих проектов к выпуску (tape-out support) media15.connectedsocialmedia.com/intel/12/14135/Hyperscale_High_Performance_Computing_Silicon_Design.pdf «About 120,000 of the servers in Intel's worldwide environment are dedicated to silicon design ...HPC-5»


    1. Alexey2005
      25.01.2016 22:19
      +1

      Просто сейчас разработчики полностью забили на оптимизацию. Время разработчика ценится дороже времени пользователя. Уровни абстракции нагромождаются друг на друга уродливыми башнями, и если облажались где-то возле фундамента, оно будет тормозить на любом железе.
      Пользователи матерятся, покупают новое железо (на котором, впрочем, тормозит примерно так же) и постят добрые шутки:

      Изначально Tianhe пытались запустить под управлением ОС Android, но были вынуждены отказаться от этой идеи, т.к. пользовательский интерфейс ощутимо подлагивал.
      — Когда же программы на Java догонят по скорости программы на ObjC?
      — Как только изобретут девайс с бесконечным количеством оперативки.
      Unity — по-настоящему кроссплатформенная среда: на любом железе лагает, тормозит и падает совершенно одинаково.
      Узнав о языке Prolog, современные разрабочики создали его ремейк под названием ПроЛАГ. Умеет всё то же самое, зато тормозит и лагает на любом мыслимом железе.
      — Зачем разработчики придумывают всё новые языки программирования?
      — Потому что старые недостаточно тормознуты и не могут надёжно подвесить современное железо.