Говорим о двух правилах, которые также начинают терять актуальность.
/ фото Laura Ockel Unsplash
Закон Мура был сформулирован более пятидесяти лет назад. На протяжении всего этого времени он по большей части оставался справедливым. Даже сегодня при переходе от одного техпроцесса к другому плотность транзисторов на кристалле увеличивается примерно в два раза. Но есть проблема — скорость разработки новых техпроцессов замедляется.
Например, в Intel долгое время откладывали массовое производство своих 10-нанометровых процессоров Ice Lake. Хотя ИТ-гигант начнет поставлять устройства в следующем месяце, анонс архитектуры состоялся около двух с половиной лет назад. Также в августе прошлого года производитель интегральных схем GlobalFoundries, который работал с AMD, прекратил разработку 7-нм техпроцессов (подробнее о причинах этого решения мы рассказывали в нашем блоге на Хабре).
Журналисты и руководители крупных ИТ-компаний уже не первый год пророчат смерть закону Мура. Даже сам Гордон как-то заявлял, что сформулированное им правило перестанет действовать. Однако закон Мура — не единственная закономерность, которая теряет актуальность и на которую равняются производители процессоров.
Закон масштабирования Деннарда
Его сформулировал в 1974 году инженер и разработчик динамической памяти DRAM Роберт Деннард (Robert Dennard) вместе с коллегами из IBM. Правило звучит следующим образом:
«Уменьшая размеры транзистора и повышая тактовую частоту процессора, мы можем легко повышать его производительность».
Правило Деннарда закрепило уменьшение ширины проводника (техпроцесса) в качестве главного показателя прогресса в индустрии микропроцессорной техники. Но закон масштабирования Деннарда перестал действовать примерно в 2006 году. Количество транзисторов в чипах продолжает увеличиваться, но этот факт не дает значительного прироста к производительности устройств.
Например, представители TSMC (производитель полупроводников) говорят, что переход с 7-нм техпроцесса на 5-нм увеличит тактовую частоту процессора всего на 15%.
Причиной замедления роста частоты, являются утечки токов, которые Деннард не учитывал в конце 70-х. При уменьшении размеров транзистора и повышении частоты ток начинает сильнее нагревать микросхему, что может вывести ее из строя. Поэтому производителям приходится балансировать выделяемую процессором мощность. В результате с 2006 года частота массовых чипов установилась на отметке в 4–5 ГГц.
/ фото Jason Leung Unsplash
Сегодня инженеры работают над новыми технологиями, которые позволят решить проблему и увеличить производительность микросхем. Например, специалисты из Австралии разрабатывают металл-воздушный транзистор, который имеет частоту в несколько сотен гигагерц. Транзистор состоит из двух металлических электродов, выполняющих роли стока и истока и расположенных на расстоянии в 35 нм. Они обмениваются электронами друг с другом благодаря явлению автоэлектронной эмиссии.
По словам разработчиков, их устройство позволит перестать «гоняться» за уменьшением техпроцессов и сконцентрироваться на построении высокопроизводительных 3D-структур с большим числом транзисторов на кристалле.
Правило Куми
Его сформулировал в 2011 году профессор Стэнфорда Джонатан Куми (Jonathan Koomey). Совместно с коллегами из Microsoft, Intel и университета Карнеги-Меллона он проанализировал информацию об энергопотреблении вычислительных систем начиная с ЭВМ ENIAC, построенной в 1946 году. В итоге Куми сделал следующее заключение:
«Объем вычислений на киловатт энергии при статической нагрузке удваивается каждые полтора года».
При этом он отметил, что энергопотребление компьютеров за прошедшие годы также выросло.
В 2015 году Куми вернулся к своей работе и дополнил исследование новыми данными. Он установил, что описанная им тенденция замедлилась. Средняя производительность чипа на киловатт энергии начала удваиваться примерно каждые три года. Тренд сменился из-за трудностей, связанных с охлаждением чипов (стр. 4), так как с уменьшением размеров транзисторов становится сложнее отводить тепло.
/ фото Derek Thomas CC BY-ND
Сейчас разрабатываются новые технологии охлаждения чипов, но об их массовом внедрении пока говорить не приходится. Например, разработчики из университета в Нью-Йорке предложили использовать лазерную 3D-печать для нанесения тонкого теплопроводящего слоя из титана, олова и серебра на кристалл. Теплопроводность такого материала в 7 раз лучше, чем у других термоинтерфейсов (термопасты и полимеров).
Несмотря на все факторы, по словам Куми, до теоретического энергетического предела еще далеко. Он ссылается на исследование физика Ричарда Фейнмана (Richard Feynman), который еще в 1985 году отметил, что показатель энергоэффективности процессоров вырастет в 100 млрд раз. На момент 2011 года этот показатель увеличился всего лишь в 40 тыс. раз.
ИТ-индустрия привыкла к высоким темпам роста вычислительных мощностей, поэтому инженеры ищут способы продлить действие закона Мура и преодолеть трудности, продиктованные правилами Куми и Деннарда. В частности, компании и исследовательские институты ищут замену традиционным транзисторным технологиям и кремнию. О некоторых из возможных альтернатив мы расскажем в следующий раз.
О чем мы пишем в корпоративном блоге:
- Процессоры для серверов: обсуждаем новинки
- Развитие дата-центров: технологические тренды
- Как облако IaaS помогает в организации бизнеса компании: кейс Avito.ru
- Как повысить энергоэффективность дата-центра
- Как IaaS помогает развивать бизнес: три задачи, которые решит облако
- Как разместить 100% инфраструктуры в облаке IaaS-провайдера и не пожалеть об этом
- Что скрывается за термином vCloud Director — взгляд изнутри
Наши отчеты с VMware EMPOWER 2019 на Хабре:
Комментарии (6)
Adgex
04.06.2019 15:40-1Можно понять желание инженеров сформулировать свои «законы» развития технологии через общепринятые технические параметры (количество транзисторов, затворов, размер минимальных элементов, быстродействие, энергопотребление и т.п.), но это чисто экономический закон.
При отсутствии ограничения для роста рынка и запредельном финансировании, в условиях капиталистической («рыночной») экономики развитие технологии происходит по экспоненте, и лидеры могут владеть более 70-80% рынка, и соответственно иметь основной профит. Остальное большинство участников будет довольствоваться 20-30 % рынка с гораздо меньшей доходностью.
Тенденции замедления обусловлены так называемой «зрелостью» технологии и достижения насыщения рынка продуктами этой технологии. Не будем пока обсуждать достижение «физических ограничений», налагаемых самой физикой процессов.
Богатый исторический опыт нашей цивилизации показывает, что именно в это время появляется другая, более прогрессивная технология, способная преодолеть все или почти все ограничения и выдать рыночный продукт более высокого качества с большей маржинальностью.
Применительно данного случая, автор справедливо упоминает вакуумную микроэлектронику.
x67
Не уверен в применимости этих законов на практике. Наверняка проанализировать тренд на основании последних лет и скорректировать прогноз, используя имеющиеся открытые данные по развитию в области, будет надежнее
Точно можно заметить, что люди, живущие внутри ит и телекома более требовательны к прогрессу, чем другие. Высокая скорость изменений кажется нормой и не ожидаешь, что где то сейчас уже 5 лет строят "новый" корабль и это даже "быстро" благодаря тому же ит
agat000
Эти "законы" — скорее эмпирические выводы. Думаю, сами авторы не жидали длительного их действия, особенно Мур. Просто наблюдения и экстраполяция на ближайшее будущее.
Вспоминается тонкое наблюдения Станислава Лема про рост стоимости военных самолётов. "Только могущественные сверхдержавы смогут позволить себе иметь десяток таких супер-самолетов." Пока не выполнилось.
ksr123
А разве так много государств разрабатывает суперсовременные самолеты? Или я не уловил суть.
agat000
Там имелось в виду именно их наличие, в малых количествах.
Но в плане производства да, это уже выполняется.
ksr123
Дык и в наличии они тоже у небольшого количества стран.