В конце августа производитель полупроводниковых интегральных микросхем GlobalFoundries (работает с AMD) прекратил разработку 7-нанометровых техпроцессов. За несколько месяцев до этого компания Intel объявила, что вновь откладывает выпуск своего 10-нанометрового чипа.

О причинах этих решений и ситуации в индустрии, рассказываем дальше.


/ фото Intel Free Press CC

Пара слов о технологических процессах


Отдельные транзисторы на чипе формируются методом литографии — элементы вытравливаются на кристалле с помощью света. Компании уменьшают техпроцессы, чтобы увеличить количество продукции из одной заготовки и снизить энергопотребление финального чипа. Производитель получает возможность увеличить быстродействие микросхемы, оставив её размеры на прежнем уровне.

Долгое время эта тенденция (на уменьшение техпроцессов) оставалась справедливой. Но сейчас ИТ-компании начали откладывать или вообще прекращать разработку новых техпроцессов. Отчасти это связано с удорожанием оборудования и высоким уровнем брака.

Подробнее в ситуации разбираемся далее.

Почему GlobalFoundries отменили 7-нм


GlobalFoundries производят кремниевые пластины на восьми заводах по всему миру. Компания должна была выпустить на рынок 7-нм микросхемы во втором квартале 2018 года. Однако за пару недель до предполагаемого релиза, GlobalFoundries решили всё отменить.

Вместо этого, организация сосредоточит свои усилия на разработке специализированных норм производства 14LPP (Low-Power Plus) и 12LP (Leading-Performance) и создании различных встроенных запоминающих устройств.

Платформа 14LPP — это усовершенствованная версия 14-нм процесса на базе 3D FinFET-транзистора. Она повышает производительность устройств на 55% и уменьшает их энергопотребление на 60% (по сравнению с 28-нм). А 12LP — это техпроцесс изготовления полупроводников, заточенный под нужды систем ИИ, смартфонов и автомобильной электроники.

По словам CTO GlobalFoundries Гэри Пэттона (Gary Patton), причиной стратегического поворота стали не технические проблемы, а финансовые вопросы. Компания вложила миллиарды долларов в разработку 7-нанометровых микросхем. Первое поколение, в котором используют иммерсионную литографию, было почти завершено. Но на второе и третье (они требовали более глубокие УФ-диапазоны для увеличения плотности транзисторов) средств уже не хватало.

Вместе с отменой 7-нм, GlobalFoundries остановили разработку 5-нанометровых и 3-нанометровых техпроцессов. Из-за смены курса GlobalFoundries сократит пять процентов сотрудников и пересмотрит соглашения с AMD и IBM. В частности, с IBM компания поработает до конца года, а дальше прекратит исследования новых техпроцессов.

Кто еще отложил разработку


Еще одной организацией, которая отложила выход чипов по новому технологическому процессу, стала Intel. ИТ-гигант передвигает масштабный релиз 10-нм схем уже два года. В этот раз старт продаж первых 10-нм продуктов передвинули на конец 2019.

По словам представителей компании, причина задержки — низкий выход годных процессоров. Есть мнение, что проблема связана с технологией multi-patterning и применением кобальта.

Производственные объемы растут медленнее, чем планировалось. Технически Intel уже поставляет 10-нм микросхемы малыми партиями. Например, первые Core i3-8121U — 10-нм процессоры семейства Cannon Lake — уже работают в ноутбуках Lenovo. Однако о массовом производстве чипов говорить не приходится.


/ фото Intel Free Press CC

Другие игроки рынка тоже не торопятся ставить разработку новых техпроцессов на поток. В UMC пока остановились на 14-нм техпроцессе, а в Samsung обещают 7-нм, но тоже не раньше 2019.

Основные причины


Как мы уже говорили, дороговизна перехода — одна из причин, почему GlobalFoundries свернули свои проекты. И по мнению Gartner, она является основной. По оценкам аналитиков стоимость разработки 7-нм технологии составляет примерно 270 млн долларов.

Оборудование для EUV-литографии, нанолисты, экзотические материалы вроде рутения — все эти вещи стоят недешево, но без некоторых из них уже сложно обойтись. Чтобы окупить инвестиции в производство, нужно выпускать по 150 млн чипов в год. Поэтому реализация 7-, 5-, 3- и 2-нм процессов может оказаться коммерчески невыгодной.

При этом даже если микросхему и создают, то «выхлоп» по производительности не всегда оказывается значительным. Например, в Qualcomm считают, что 5-нм процесс не сильно превзойдет 7-нм по характеристикам, а вложить в его разработку придется несколько миллиардов долларов.

Вторая причина — велика вероятность ошибки и ее цена. К примеру, задержки в поставках 10-нм техпроцесса Intel «влетели в копеечку» одному из ИТ-гигантов с капитализацией в 20 млрд долларов.

Резиденты HN выделяют и другие причины замедления прогресса в индустрии полупроводников. Например, один из пользователей полагает, что уменьшение размеров кристалла плохо сказывается на его охлаждении. Поэтому компании стараются вложить средства в разработку более энергоэффективных технологий, а не уменьшение размеров кристаллов (именно по этому пути пошли в GlobalFoundries).

Почему обновления все-таки нужны


Представители индустрии считают, что уменьшать техпроцессы все равно придется. Это позволит обеспечить эффективную работу систем ИИ, МО, 5G-сетей и IoT. По предварительным расчетам разработчиков из TSMC, 7-нм техпроцесс улучшит производительность на 30% и вполовину уменьшит энергопотребление процессора (по сравнению с 10-нм).

Однако Дэвид Хемкер (David Hemker), старший VP в компании Lam Research, производящей полупроводники, подчеркивает, что отрасли понадобятся новые решения, чтобы справиться с растущими сложностями производственных процессов.


/ фото Fritzchens Fritz PD

Пока что EUV-литография генерирует слишком много дефектов при производстве чипов. Но если продолжить совершенствовать технологию, она должна сократить время и расходы на разработку новых техпроцессов.

Несмотря на все сложности производства, некоторые представители индустрии уже делают прогнозы на процессы менее 5-нм и говорят о сроках выпуска таких чипов. Так, например, в TSMC — тоже занимающейся производством полупроводников — уже строят планы по разработке 3- и 2-нм техпроцессов. А исследовательский центр Imec вместе с компанией Cadence Design Systems даже разработали тестовые образцы микропроцессоров по технологии 3-нм.

Поэтому в будущем мы определённо увидим применение этим технологиям, только этот момент может наступить немного позднее, чем предполагалось изначально.



P.S. Дополнительные материалы из Первого блога о корпоративном IaaS:


P.P.S. Статьи по теме из нашего блога на Хабре:




Чем мы занимаемся в ИТ-ГРАД: • IaaSPCI DSS хостингОблако ФЗ-152


Комментарии (98)


  1. Hardcoin
    06.09.2018 17:11

    Первое поколение, в котором используют иммерсионную литографию, было почти завершено.

    Не верится. Это можно было бы продать или пустить в работу. Думаю, это "почти" настолько большое "почти", что денег давать никто не захотел.


    1. amartology
      07.09.2018 09:09

      Там ещё проблема в том, что пока они это делали, крупнейший клиент (AMD) успел уйти к конкурентам, а продолжать вваливать сотни миллионов в разработку, которая никому не нужна — это действительно неправильно.


      1. Hardcoin
        07.09.2018 11:07

        А к каким конкурентам? К Самсунгу? Если у них 7нм в более готовой стадии — тогда логично. А если нет — то 7нм это круче всего, что есть на рынке (коммерчески доступного), как это может быть никому не нужным? Или я чего не догоняю просто?


        1. splav_asv
          07.09.2018 11:11
          +1

          К TSMC.


          1. Mad__Max
            07.09.2018 23:14

            А что к TSMC ушло? Графические чипы (GPU) они и так с древних времен у них всегда заказывали. Еще когда GPU были ATI, не AMD.
            А процессоры (CPU, APU) вроде никуда от GF не уходили.
            Разве что SoC в частности кастомные чипы для игровых приставок уплыли.


            1. splav_asv
              07.09.2018 23:30
              +1

              1. Mad__Max
                07.09.2018 23:37

                А, ну т.е. это только речь о планах на следующие поколения чипов.

                Тогда тут совершенно не ясно где курица, а где яйцо: толи GF сворачивают работу из-за ухода крупнейшего клиента(заказчика), толи это AMD уходит к TSMC из-за того, что GF все никак не может 7 нм родить.
                Они то с учетом тесных связей между компаниями(когда бывшей вообще одним целым) о проблемах/внутренних планах знали наверняка за долго до того, как это было публично озвучено.


                1. splav_asv
                  08.09.2018 09:05

                  Всё так. Окончательные образцы в кремнии Zen 2 уже есть. И, видимо, они с TSMC.

                  Могу лишь предположить, что GF сроки завалила и AMD приняла решение переметнуться целиком. И GF пришлось сворачиваться из-за потери заказов.


    1. martin_wanderer
      07.09.2018 10:59
      +1

      Вспоминается одна психологически-экономическая задачка: проектируем самолет стоимостью, условно, 100 млн долларов. Уже потрачено 90, когда выясняется, что конкуренты нас опеределили: их продукт заведомо лучше и как минимум не дороже, и, главное, уже готов. Имеет ли смысл завершать разработку?

      Нормальному человеку жалко потраченных средств и сил, но единственно выгодное решение — срочно закрыть проект, а оставшиеся деньги пусть на что-то, что принесет прибыл, в отличие от…


      1. Alexsandr_SE
        07.09.2018 11:30
        +2

        Не верно. Текущие разработки пойдут в следующие разработки. Если конечно нет идеи все продать и уйти на пенсию. TSMC как мне кажется не справится с выпуском нужного кол-ва кристаллов для видеокарт и ЦП и кучи других заказов.


        1. splav_asv
          07.09.2018 11:32

          Значит сможет лицензировать техпроцесс.


        1. sumanai
          07.09.2018 19:34

          Текущие разработки пойдут в следующие разработки.

          Это не отменяет закрытия текущего проекта.


          1. Alexsandr_SE
            08.09.2018 22:56

            Но это не переводит все деньги в убытки. Иначе эти 90 млн. просто выкинули на ветер. Нужно использовать все, что можно из новых наработок. Вплоть до выкладывания таки оставшихся 10 млн. Нужно все считать, нет единого решения на все случаи.


      1. grekmipt
        07.09.2018 14:11
        +3

        Нормальному человеку жалко потраченных средств и сил, но единственно выгодное решение — срочно закрыть проект, а оставшиеся деньги пусть на что-то, что принесет прибыл, в отличие от…


        В общем случае данное утверждение неверное, и как раз таки основанное на ошибочном психологическом восприятии. В подобной ситуации надо осознать что 90 млн УЖЕ выкинуто. Их нет и они не будут компенсированы.
        Но при этом так же надо осознавать, что начиная с этой точки, стоимость разработки вашего продукта равна 100-90=10 млн, т.е. меньше в 10 раз. Либо вы инвестируете 10 млн и получаете продукт, либо не инвестируете и не получаете. Уже профуканные 90 млн — это просто некий исторический факт не имеющий отношения к дальнейшим инвестициям. И вопрос на который надо ответить — в том, будет ли отдача от этих вложенных 10 млн выше инвестиций (т.е. выше этих 10 млн, а не исторических 100). Если выше — то разумеется надо эти 10 млн тратить, ибо это будет прибыльно (или, что то же самое, это сократит потери ваших 90 млн на величину прибыли от этих вложенных 10 млн). А разработать продукт за 10 млн или за 100 млн — это очень большая разница, сильно влияющая на дальнейшую ценовую политику по этому продукту, и соответственно на объемы продаж и маржу. Если проинвестировав 10 млн (и таки доделав продукт) вы с них потом заработаете скажем 30 млн, то тем самым полные потери проекта будут сокращены с 90 до 70 млн, что очень даже хорошо.


        1. martin_wanderer
          07.09.2018 14:28

          Согласен, любые инвестиции оцениваются в сравнении с другими вариантами. Тут предполагалось, что отдачи совсем не будет, ибо конкуренты займут рынок


          1. unxed
            07.09.2018 17:39

            И надо учитывать, что заявления конкурентов о готовности продукта и его характеристиках тоже могут оказать ложными, как раз чтобы вынудить вас свернуть проект.


            1. mapron
              08.09.2018 14:33
              +2

              Немного не в тему, вспоминается история разработки Starcraft-а, когда близы на демо у конкурентов увидели изометрию в стратегии, и решили сделать так же у себя срочно. Как оказалось, у конкурента ничего рабочего не было по итогу, но Starcraft уже переписали (и не зря)


      1. DrPass
        08.09.2018 06:02
        +2

        Имеет ли смысл завершать разработку?

        Правильный ответ: в условии задачи недостаточно данных для принятия решения. Следующий вопрос — сможет ли конкурент удовлетворить весь спрос и полностью охватить рынок, пока не выйдет наш продукт? Чаще всего на этот вопрос отвечают «нет». Далее, можно ли внести в разработку изменения, несколько увеличить срок и удорожить её, но на выходе получить иной продукт, который будет несколько выше классом, чем у конкурентов, и который можно будет продать с «люксовой» наценкой? И так далее. Стратегий масса, и «похоронить проект и зафиксировать убытки» — это самая крайняя из них.


  1. Crysdd
    06.09.2018 17:32
    +4

    По оценкам аналитиков стоимость разработки 7-нм технологии составляет примерно 270 млн долларов

    Примерно как один голливудский фильм.


    1. alexanster
      06.09.2018 22:35
      +9

      На самом деле стоимость разработки 7-нм технологии на порядки больше, а в оригинале говорится, что 271 млн долларов — это разработка какого-нибудь чипа, который будет выпускаться по данной технологии. Такой перевод.


    1. amartology
      07.09.2018 09:10
      +2

      Дада, это плохой перевод. Разработка технологии стоит десятки миллиардов долларов.


      1. Am0ralist
        07.09.2018 14:38

        То есть как полсотни голивудских фильмов?


        1. amartology
          07.09.2018 15:15

          Вы так говорите, как будто голливудские фильмы чем-то хуже айфонов и криптомайнеров, в которые идут 7 нм технологии.


          1. Am0ralist
            07.09.2018 16:54

            Да нет, просто очень удобный способ ведения сравнительных подсчетов)

            Например, у Наса проблемы с плутонием из-за того, что сумма на восстановление производства равна примерно бюджету дилогии УС2…


            1. agarus
              08.09.2018 14:03

              Что за УС2?


              1. Am0ralist
                08.09.2018 21:10

                Утомленный солнцем 2.
                PS. Вообще это просто для меланхоличного сравнения, сколько реально стоит прогресс (и из-за нехватки каких сумм он тормозиться), а сколько — развлечения в человеческом обществе


  1. yarric
    06.09.2018 18:51

    Придётся забросить Java и .NET с их виртуальными машинами под виртуальными машинами и снова вспоминать FORTRAN, COBOL, BLISS, С и ассемблер :)


    1. vics001
      07.09.2018 13:44

      Java и .NET давно не являются виртуальными машинами, они выполняют процесс компиляции (JIT). Android вообще компилирует AOT.
      Точно так же как обычный разработчик С++ напишет на ассемблере то, что работает так же по скорости как и C++, без премудростей ускорения.


      1. Carburn
        07.09.2018 15:47

        Виртуальная машина использует JIT.


      1. yarric
        07.09.2018 21:11

        В теории звучит красиво, на деле — тормоза.


        1. vics001
          08.09.2018 01:35

          На деле писал алгоритмы просчета маршрутов получил на Intel Java 7 сравнимую скорость с С++, а без достаточных оптимизаций С++ компилятора и кода вообще хуже. Начал разбираться как так, тут native, а тут Java. Оказалось вычисления были сравнимы по операциям, а вот память выделять было лучше большими кусками, что и делает Java. На ARM разница было до 10 раз, а на x86 openjdk разницы почти не было.

          История не о том, что на С++ нельзя написать супербыстрый код, а о том, что при сравнительных трудозатратах получается абсолютно сравнимый и приемлимый вариант. А учитывая кол-во выстрелов в ногу в С++ и управления памятью, трудозатраты на С++ всегда больше.


          1. yarric
            08.09.2018 09:47

            В любом случае на практике native работает быстрее, что видно на примере тех же мобильных платформ.


            Кстати я C++ не упоминал:)


          1. Vitalley
            09.09.2018 04:33

            Не правильно считаются трудозатраты, кодеров то подсчитали, а теперь давайте подсчитаем затраты пользователей этого продукта.


  1. Arxitektor
    06.09.2018 21:02

    Примерно как один голливудский фильм.

    Это да даже как-то маловато по деньгам.
    Тогда у Apple легко хватит денег на 7 и на 5 нм.
    Если брать WiKi то шаг кристаллической решетки кремния а = 0,54307 нм.
    Как думаете какой ТП станет коммерчески не выгодным 5 нм?
    Судя по новостям 7 нм уже на самой грани.
    придётся забросить Java и .NET с их виртуальными машинами под виртуальными машинами и снова

    И еще пару раз под виртуальными машинами ) плюсам контенеры всякие )
    Хотя будут как АДМ клепать мелкие кристаллы по 7 нм. И лепить их в нужном количестве.
    Вроде АМД говорили что будем кристалл из двух 6 ядерных блоков.
    12 ядер. ) *4 = 48 на проце.


    1. Mad__Max
      07.09.2018 03:17
      +1

      Выше уже отметили — в оригинале это стоимость разработки одной модели конкретного чипа для производства по 7нм технологии.

      In total, the average IC design cost for a 16nm/14nm chip is about $80 million, compared to $30 million for a 28nm planar device, according to Gartner. In comparison, it will cost $271 million to design a 7nm chip, according to the firm.


      Стоимость смены самой технологии производства (разработка соответствующих процессов и необходимого для их проведения оборудования) еще несколько поколений назад была на порядок больше (~ несколько миллиардов долларов), и примерно на 2 порядка больше проектирования конкретного чипа по тем технологиям.
      Данных по 5-7 нм. тех процессам не видел, но судя по тренду роста затрат речь идет о вложениях от 10 миллиардов долларов и выше.


  1. GeMir
    06.09.2018 21:40
    +2

    уменьшать разрешающую способность все равно придется
    Повышать? Чем ниже разрешение, тем «толще» линия.


  1. BD9
    07.09.2018 03:26
    +10

    Не «методом литографии», а «методом фотолитографии».

    Не «элементы вытравливаются на кристалле с помощью света», а «электронная схема создаётся на кристалле с помощью света и светочувствительных химических веществ». Травление — кислотой (или щёлочью).

    «Долгое время эта тенденция (на уменьшение техпроцессов) оставалась справедливой» — это закон (эмпирическое правило) оставался справедливым.

    Иммерсионная фотолитография: от англ. immerse — погружать в жидкость. Вместо линз и воздуха используются линзы и жидкость.

    Не «более глубокие УФ-диапазоны», а глубокий ультрафиолет, переходящий в мягкий рентген.

    Не «уменьшение размеров кристалла плохо сказывается на его охлаждении», а рост плотности теплового потока плохо сказывается на возможность его охладить (переносимая энергия в единицу времени на единицу площади).

    Не «EUV-литография генерирует слишком много дефектов при производстве чипов», а «при использовании фотолитографии в глубоком УФ процент выхода годных изделий остаётся низким».

    Не «менее 5-нм», а «менее 5 нм» — без тире.

    «в TSMC — тоже занимающейся производством полупроводников» — ага, один из основных мировых производителей полупроводниковой продукции оказывается тоже ими занимается.

    «Как мы уже говорили, дороговизна перехода — одна из причин, почему GlobalFoundries свернули свои проекты. И по мнению Gartner, она является основной» — нет, не это. Основная причина — сворачивание научных разработок по физике в бывших лидерах — СССР и США. Китай ещё не полностью замених их в этом вопросе. В США политики предпочитают покупать голоса избирателей льготами, а производством руководят «эффективные менеджеры», которые порезали расходы на НИОКР ради собственной годовой премии.

    Пока что в ближайшем будущем переходят на 7 нм только TSMC и Samsung.

    Фотолитография в глубоком ультрафиолете
    Электронная литография
    Ионно-лучевая литография
    Рентгеновская литография

    Желающие могут перевести такие статьи, как приведённые ниже — пользы будет больше, чем от имеющейся:
    Extreme ultraviolet lithography
    Multiple patterning


    1. purpure
      07.09.2018 11:02

      Не «элементы вытравливаются на кристалле с помощью света», а «электронная схема создаётся на кристалле с помощью света и светочувствительных химических веществ». Травление — кислотой (или щёлочью).

      ИМХО, правильнее будет «рисунок топологии электронной схемы будущего чипа формируется на поверхности кристалла с помощью света и светочувствительных химических веществ».
      Про травление уже говорил ниже. В остальном всё по делу.


    1. beeruser
      07.09.2018 14:06
      +3

      Основная причина — сворачивание научных разработок по физике в бывших лидерах — СССР и США.

      С чего бы? GF прямо сказали что им арабы отказались оплачивать банкет.
      К тому же уже сделаны тест чипы на 3нм у IMEC. Видимо научные разработки СССР им были совсем не нужны.


  1. totally_nameless
    07.09.2018 04:37

    Травление — кислотой (или щёлочью).

    Справедливости ради, не всегда — Dry_etching

    Не «EUV-литография генерирует слишком много дефектов при производстве чипов», а «при использовании фотолитографии в глубоком УФ процент выхода годных изделий остаётся низким».

    Проблема комплексная. В низком проценте выхода годных кристаллов может быть виноват и сканер, который делает маску, и оборудование, которое осуществляет etching/deposition.
    Когда говорят, это виновата EUV литография, обычно имеют ввиду, что сканер не mass-production ready. Другими словами он делает нормально, но медленно. Первый EUV сканер ASML поставила в Intel аж в апреле 2017. Большой шаг, кстати. С тех пор Intel и ASML тестируют и допиливают.

    Главная надежда на EUV еще и потому, что старые ухищрения вроде OPC и Multiple_patterning для повышения точности печати маски постепенно перестают работать ниже 10nm. Для EUV они (почти) не нужны из-за того, используется лазер с длиной волны 13.5nm вместо 193nm, как в предыдущих. Именно поэтому, должна уменьшиться стоимость разработки нового чипа.

    Одна из основных проблем с EUV — низкая энергия лазера долетающая до фотомаски, приходится держать «долгую выдержку», а попытки повышения мощности вызывают такой каскад инжереных проблем, что несколько книг можно написать.

    TSMC — тоже занимающейся производством полупроводников

    Тоже повеселило… Это как сказать, что GM тоже производит автомобили.


    1. purpure
      07.09.2018 10:20

      Справедливости ради, не всегда — Dry_etching

      Справедливости ради, классическое проявление как раз и производится щелочными растворами разными. Dry etching — это процессы травления слоёв структур будущих чипов по маске, сформированной процессами фотолитографии. У вас же по ссылке именно это и описано:

      Dry etching is used in conjunction with photolithographic techniques


  1. gshamshurin
    07.09.2018 07:01
    +2

    Я под выход 10-нм десктопных чипов (пониженное тепловыделение при повышенной производительности) уже и самый топовый пассивный кулер для нового процессора купил, и самый топовый пассивный кулер для видеокарты и даже блок питания с пассивным режимом работы. А выход всё откладывается, откладывается, откладывается.

    Мне кажется, по закону Мерфи, 10-нм чипы выйдут ровно через месяц после того как я устану ждать и соберу новую систему на будущем 14-нм i9-9900 :(


  1. 8street
    07.09.2018 09:25
    +1

    Перейти с 14 на 7нм это примерно тоже самое, как перейти со 100 до 50нм. Разница в 2 раза. В прошлом на это потребовалось около 10 лет. А еще я помню, лет 10 назад утверждалось, что кристаллы с менее 10нм техпроцессом производить не удастся. И тогда начали искать замену кремнию. Помню графену пророчили высокое будущее. Жаль, что все заглохло.


    1. San_tit
      07.09.2018 09:35

      Не заглохло, но исследования пока на уровне производства отдельных транзисторов и простых микросхем даже в РФ (из того, что я слышал лично), как дела вообще обстоят: не знаю, но что-то ещё делается. Интерес упал скорее из-за того, что преодолели очередной непреодолимый рубеж техпроцесса.


    1. amartology
      07.09.2018 10:20
      +2

      А еще я помню, лет 10 назад утверждалось, что кристаллы с менее 10нм техпроцессом производить не удастся.
      Так и не удается) Если строго подойти к старому определению проектных норм, а не к маркетинговому буллшиту про 10-7-5 нм, то проектные нормы 7 нм TSMC на самом деле где-то в районе 40 нм находятся.


      1. Varim
        07.09.2018 10:54

        проектные нормы 7 нм TSMC на самом деле где-то в районе 40 нм находятся.
        А вы не знаете случайно, в двух словах, что они сейчас называют 7 нм? Я предположу что раньше это было отношение длины на кол-во транзисторов, а сейчас, возможно, поперечный размер проводника между транзисторами.
        Хотя 2 нм, наверное даже для проводника слишком тонко. Неужели маркетологи сейчас вообще ни на что физическое не опираются?


        1. amartology
          07.09.2018 11:28
          +2

          А вы не знаете случайно, в двух словах, что они сейчас называют 7 нм?
          Случайно знаю. Раньше «проектнми нормами» называли минимально возможный топологический размер, который обычно совпадал с минимальной длиной канала транзистора. Потом уменьшать длину канала стано невозможно по физическим причинам (электроны начали пролетать из истока в сток насквозь, без взаимодействия с каналом), а красивые цифры инвесторам показывать все равно приходилось. Плюс в какой-то момент начали появляться FinFET, в которых длина канала не прямо зависит от литографии.
          В итоге никакого физического смысла в цифре названия техпроцесса нет уже несколько лет как, это просто условная система нумерации поколений. По факту например, у Самсунга в 7 нм и 5 нм сами транзисторы будут одинаковые, а все изменения коснутся других частей технологии.


        1. purpure
          07.09.2018 11:29

          Число, которое указывается в проектной норме техпроцесса — это минимальная длина канала транзистора для данного техпроцесса. Например, для проектных норм, допустим, 40 нм, минимальная длина канала транзистора составит те же 40 нм. Однако, по этому же техпроцессу 40 нм в топологии схемы могут использовать транзисторы и «пожирнее» — 65 нм и т.д. Самые маленькие транзисторы используют, в основном, в блоках логики микросхем (чтобы работали быстрее), остальные элементы могут быть выполнены по более толстым нормам (в пределах разумного, конечно же).

          По поводу того, какие уловки используют для преодоления барьера при уменьшении проектных норм, немного написано в статье amartology. Но я бы также с удовольствием послушал его более развёрнутый комментарий на эту тему :)

          P.S.: Эх, опередили меня.


          1. amartology
            07.09.2018 11:35
            +9

            Я и опередил. Не знаю, насколько комментарий выше может считаться развернутым, но если действительно интересно, я могу даже наверное написать статью о том, какого на самом деле размера эти 7-10 нм.


            1. purpure
              07.09.2018 11:38
              +1

              Да, Вы :)
              Напишите, пожалуйста. Очень интересно послушать.


            1. Die_Gelassenheit
              07.09.2018 13:39

              Действительно интересно.


            1. AusTiN
              07.09.2018 13:51
              +2

              Пишите, конечно! Тема интересная.


            1. Vizavi
              07.09.2018 18:21

              Да, интересно было бы прочесть!


            1. MTyrz
              08.09.2018 21:16

              Присоединяю свой голос к желающим.


        1. splav_asv
          07.09.2018 11:29

          Вроде бы размер норм близок к длине затвора транзистора. Ширина проводника примерно в 4 раза больше.


        1. geher
          07.09.2018 11:31

          Сейчас это вроде размер затвора транзистора, если не путаю.
          Учитывая успехи в посттоении экспериментальных мономолекулярных элементов (вроде про работающий диод что-то было), при такой оценке можно говорить в теории и о 2 нм техпроцессе, особенно если рассматривать не ширину, а толщину затвора.


          1. amartology
            07.09.2018 11:51
            +1

            если рассматривать не ширину, а толщину затвора.

            Делать затвор тоньше перестали еще на 45 нм, когда туннельный эффект через SiO2 начал приводить к тому, что транзисторы из MOSFET стали превращаться в JFET. Тогда в ход в затворах вместо SiO2 пошли соединения гафния (high-K диэлектрики), из которых затвор можно сделать толще, предотвратив туннелирование.
            Но вообще с точки зрения маркетинга идея богатая, можно 180 нм переименовать в 10 нм)


      1. expromt
        07.09.2018 12:50

        Забыл обновить комментарии…


    1. Mad__Max
      07.09.2018 23:32

      Не требовалось.
      В реальности 100 нм ==> 50 нм перехода правда не было, но например очень близкие реальные 130 нм ==> 90нм ==> 65 нм гораздо быстрее проскочили, чем за 10 лет:
      130нм освоили в 2001м году, а в 2004м уже были первые чипы на 65нм. Или если по выходу серийной массовой продукции — то 2002 и 2006 годы соответственно. Т.е. всего 4 года.

      Ну или 90 нм ==> 45 нм, примерно те же 4-5 лет на переход, а не 10+.

      И это были те же самые уменьшения ровно в 2 раза (или в 4 раза если по площади элемента). Причем в отличии от текущих маркетинговых попугаев это было реальное уменьшение размеров практически всех элементов в 2(4) раза!


      1. 8street
        08.09.2018 08:36

        Точно не помню про переход с 100 до 50, это я так сказал, для ровного счета. А вообще, у меня в 98м году был P2 на 180нм, а в 2008 стояла карта 8800gtx с 90нм чипом. Ну не 10 лет, а 7-8.


        1. DrPass
          08.09.2018 11:17
          +1

          а в 2008 стояла карта 8800gtx с 90нм чипом

          Ну то просто карта такая. Процессоры-то в 2008-м Интел уже по 45 нм выпускала.


        1. Mad__Max
          09.09.2018 03:28

          P2 скорее всего на 250 нм был (ядро Deschutes). 180 нм только самые поздние мобильные версии P2 выпускались и они попозже появились, а в обычных компах только с P3. Которые изначально тоже на 250 нм технологии производились — ядро Katmai и только потом были на 180нм переведены уже в 2000м году — ядро Coppermine.

          Ну а карта просто по несколько устаревшему (на тот момент) процессу. У того же Intel еще аж 2006 году уже вышли серия процессоров Core 2 изначально производившихся по на 65нм технологии.
          Т.е. в рамках одной компании(Intel) и одной продукции (CPU)
          1997 — выход P2 на 250нм
          2006 — выход Core 2 на 65 нм
          Тут почти 4 кратное уменьшение норм меньше чем за 10 лет.


  1. Varim
    07.09.2018 09:51

    работу систем ИИ, МО, 5G-сетей и IoT
    Что такое МО?


    1. lamer84
      07.09.2018 10:00
      +1

      Машинное обучение?


  1. im_stD
    07.09.2018 09:54

    Разрешите «вопрос на понимание»: в начале статьи написано — «Производитель получает возможность увеличить быстродействие микросхемы, оставив её размеры на прежнем уровне.» Быстродействие увеличивается за счёт того, что уменьшается длина проводника между слоями? То есть электрический сигнал быстрее проходит?


    1. Temtaime
      07.09.2018 10:14

      Полагаю, потому что можно засунуть больше исполнительных блоков в тот же физический размер.
      Если бы сигнал ходил быстрее — повышали бы частоту, а с этим есть проблемы.


    1. amartology
      07.09.2018 10:24

      Быстродействие микросхемы в целом увеличивается за счет роста количества транзисторов,
      а быстродействие отдельных элементов может стать даже хуже из-за того, что растет влияние паразитных емкостей, сопротивлений и индуктивностей соединений. Если раньше транзистор для переключения заряжал затвор следующего транзистора и немного паразитных емкостей, то сейчас он заряжает длинную линию связи со следующим элементом и, на сдачу, сам следующий элемент.


      1. im_stD
        07.09.2018 10:32

        Спасибо.


      1. crea7or
        08.09.2018 22:42

        А с частотами какая проблема? Больше 10-ти лет назад были 3ГГц+ процессоры — так они там и болтаются.


        1. amartology
          08.09.2018 23:03

          С частотами проблема такая, что зарядка паразитных емкостей межсоединений занимает много времени и тратит много энергии. Для того, чтоб разгонять те процессоры до 3 ГГц, делали конвейер на 20+ ступеней, чтобы за один такт делались очень маленькие и поэтому очень быстрые вычисления. Но эта концепция дошла до логического предела, поэтому потом произошло резкое падение частоты за счет упрощения конструкции ядра с одновременным размещением на кристалле нескольких ядер.


  1. purpure
    07.09.2018 10:42
    +1

    В принципе, практически в каждом комментарии ругают перевод (и небезосновательно), но я не мог не зацепиться:

    Однако Дэвид Хемкер (David Hemker), старший VP в компании Lam Research, производящей полупроводники

    Lam Research — компания, которая занимается изготовлением оборудования для производства полупроводников.

    Тема микроэлектроники сама по себе сложна для восприятия обычному обывателю, а с таким подходом к публикации статей и подавно. Не надо так.


  1. Alex023
    07.09.2018 11:04

    Поэтому в будущем мы определённо увидим применение этим технологиям, только этот момент может наступить немного позднее, чем предполагалось изначально.

    Вынесет всё — и широкую, ясную
    Грудью дорогу проложит себе.
    Жаль только — жить в эту пору прекрасную
    Уж не придется — ни мне, ни тебе.

    Н.А. Некрасов


  1. dubakov
    07.09.2018 13:16

    Когда я был молодым, а компьютеры были 486-ми, в каком то умном журнале я читал, что технологический предел составляет примерно 35 нанометров. Меньше сделать невозможно. Что изменилось?


    1. amartology
      07.09.2018 15:24

      Многое. Появились новые материалы (в частности, High-K диэлектрики), а транзисторы стали непланарными. Последние лет пятнадцать ученые только и занимаются тем, что ищут способы обойти этот технологический приедел)


      1. timdorohin
        07.09.2018 16:27

        Давно интересует вопрос, можно ли с современной литографией (или не очень современной, но с энергоэффективным техпроцессом) уйти в настоящее 3д (объемные схемы расположения транзисторов, что должно также сократить среднюю длину проводника — в конце концов мы уже не на плоскости) и получить эдакий кубик сантиметр на сантиметр, работающий на 50-100-200МГц в котором миллион вычислительных ядер связанных сетью (так называемая Сеть-на-кристалле, NoC)?


        1. amartology
          07.09.2018 16:43

          Технологически это очень сложно. Точнее, в принципе реализуемо (флэш-память тому пример), но неразумно дорого. Но по этому пути уже частично идут — при помощи 3D-интеграции и TSV. Вот тут я немного писал об этом. Связывать вообще все и везде не надо, можно делать сверху вниз только какие-то магистральные шины, а локальные. Собственно, большинство современных высокопроизводительных схем так и сделаны сейчас, только немного не в тех масштабах, о которых вы говорите.
          Кроме того, от кубика в кубический сантиметр (или кубический дециметр) довольно тяжело отводить килоВатт тепла)


          1. timdorohin
            07.09.2018 16:57

            Кроме того, от кубика в кубический сантиметр (или кубический дециметр) довольно тяжело отводить килоВатт тепла)
            А я потому и упомянул частоты 50-100-200МГц, с ULP техпроцессом скорее всего получится <15Вт на кубик. ЕМНИП техпроцессы с минимальной утечкой до сих пор 130-65 нм… хотя они и в работе не особо жрут тоже.


          1. equand
            08.09.2018 16:56

            Это не кубик будет скорее всего, а что-то с медной сердцевиной.


        1. tnenergy
          07.09.2018 16:54

          А охлаждать как?


          1. timdorohin
            07.09.2018 16:59

            Это вопрос тепловыделения, на низких (до пары сотен мегагерц) частотах и низком напряжении чипы могут быть очень холодными.


            1. amartology
              07.09.2018 17:56

              Тогда расскажите, какой смысл делать много чипов на низкую частоту, когда можно сделать один на высокую? Физику не обмануть же, у вас есть энергия на логическое переключение, и если для решения вычислительной задачи вам нужно сделать Х переключений, то нет разницы, на скольких чипах и с какой частотой вы их сделаете.


              1. timdorohin
                07.09.2018 20:19
                +1

                если для решения вычислительной задачи вам нужно сделать Х переключений, то нет разницы, на скольких чипах и с какой частотой вы их сделаете.
                Маленький прикол — эффективность процессоров падает с ростом частоты (так как ради повышенной частоты повышают напряжение, а от него потери зависят квадратично)
                Если бы сейчас могли упихать миллион-другой ядер в кристалл — пихали бы, особенно в специальные устройства. Видеокарты тоже уперлись в кристалл, поэтому если раньше он топтались в догигагерцовом диапазоне, то сейчас начали из него выходить — не могут наращивать ядра, так приходится наращивать частоты.


              1. Mad__Max
                07.09.2018 23:54

                Есть и огромная разница — низкочастотные чипы намного эффективнее в плане кол-ва операций / Вт мощности или Дж потраченной энергии.

                Именно поэтому мощные процессоры для серверов или суперкомпьютеров делают много-многоядерными, но относительно низкочастотными. И одна из причин превосходства GPU над CPU по эффективности вычислений. А любители практикуют downclock+undervolt вместо разгона чипов для долгоиграющих задач, когда вычисления идут 24х7.

                Естественно все на классах задач который эффективно могут разбиваться на нужное кол-во выч. потоков. Если задачу невозможно разложить подобным образом, то особых альтернатив высокой частоте и разным «хакам» типа сильно спекулятивного исполнения нет.

                В научных исследованиях вообще экспериментируют с совсем низкими частотами и рабочими напряжениями или даже несинхронными чипами не имеющими какой-то конкретной частоты и достигают выигрышей в энергоэффективности вычислений на несколько порядков.


                1. amartology
                  08.09.2018 11:01

                  В научных исследованиях вообще экспериментируют с совсем низкими частотами и рабочими напряжениями или даже несинхронными чипами не имеющими какой-то конкретной частоты и достигают выигрышей в энергоэффективности вычислений на несколько порядков.
                  И иногда при некоторых условиях достигают)
                  Практически все, что реально можно использовать в прикладных задачах, уже реализовано, инженеры гигантов рынка не просто так свой хлеб едят. В том числе переход с длинных конвейеров и больших частот в Pentium 4 на разумно низкие частоты и многоядерность в Core.


                  1. yarric
                    08.09.2018 12:39
                    +1

                    Скорее гиганты рынка наоборот склонны допиливать однажды удавшуюся технологию, а вот реальных инноваций они не любят из-за высокого технологического риска.


                  1. Mad__Max
                    09.09.2018 03:53

                    Ну и как раз там где энергию считают — уже сейчас используют меньшие частоты и большее кол-во ядер именно для прикладных задач: типовые для мощных серверов и суперкомьютеров в 1.5-3.5 ГГц, против 3.5-5 ГГц для «потребительских» процессоров.

                    Например недавний лидер (1 место в мире в 2016-2018 годов) среди самых мощных суперкопьютеров использовал процессоры работающие на частоте всего 1.45 ГГц: www.nextplatform.com/2016/06/20/look-inside-chinas-chart-topping-new-supercomputer

                    В общем так уже сейчас разменивают меньшее потребление энергии на ед. выполненных расчетов в обмен на удорожание и усложнение чипа. Или в эконом. терминах — снижают эксплуатационные расходы(на энергию и охлаждение в основном) за счет увеличения капитальных.
                    При длительных высоких нагрузках это окупается.

                    В научной части это тоже не голая теория, если планы не порушатся, то некоторые из следующих рекордных суперкомпьютеров будут работать на основе процессоров с рабочими частотами даже ниже 1 ГГц, но при этом обладать рекордным количествами выч. ядер и демонстрировать новые рекорды по энергоэффективности.

                    Возвращаясь к исходному вопросу — про «настоящие 3D процессоры» — такие были бы востребованы даже при работе на очень низких частотах и напряжениях (и как следствие с небольшим удельном тепловыделении, позволяющим снять большую часть проблем с охлаждением в объеме).

                    Не в потребительском ширпотребе конечно, но для серьезных задач.


        1. DGN
          08.09.2018 00:18
          -1

          Можно, но надо учиться прокачивать через кристалл жидкий гелий. Иначе не снять тепло.


        1. Alex_Q
          08.09.2018 16:51

          Тогда можно было бы сразу уйти в резонансное туннелирование и всякие гетеростуктуры


  1. svcoder
    07.09.2018 14:05
    +1

    Если сравнить процессоры 3930K и 7800X, разница в техпроцессе чуть больше чем в 2 раза 32нм против 14нм, а энергопотребление одинаковое (130W против 140W), учитывая что частота у последнего на 10% выше


  1. Ultratech
    07.09.2018 15:18

    В ASIC-майнерах для биткоина DragonMint от Halong Mining используется 10-нм техпроцесс.В асиках B2 от GMO Internet 7-нм техпроцесс, прием предварительных заказов на B2 стартовал 6 июня, первые устройства, как ожидается, поступят покупателям в октябре.
    С точки зрения ценовой политики японское устройство оказывается более дорогим: $1999 за B2 против $837 Antminer S9 с 16-нм чипами. При энергопотреблении 1950 Вт производительность B2 составляет 24TH/s, в то время как у Antminer S9 этот же показатель составляет 14TH/s, при его энергопотреблении 1200 Вт.
    По сравнению с B2 на 7 нм, устройство с 16-нм техпроцессом стоит в 2,39 раз дешевле, уступает в производительности в 1,71 раз, при этом кушает в 1,6 раза меньше электроэнергии. 7 нанометровая овчинка выходит слишком дорогой и выделки при текущих рыночных ценах на биткоин не стоит.
    Хотя как некий технологический прорыв безусловно интересно


    1. DGN
      08.09.2018 00:23

      Цены на ASIC это маркетинг чистой воды. Никак не связаны с себестоимостью, а лишь с предпологаемым профитом.

      Кстати говоря, S9 в специальной жидкости разгоняется до 19ТH при росте потребления 2100 Вт.


  1. abrwalk
    07.09.2018 15:51
    -3

    Какими будут процессоры Intel Core следующего поколения впринципе понятно уже сейчас.
    Возьмут нынешнее 8-е поколение Coffee Lake — сменят жвачку на припой — и вуаля. -20 по цельсию при тех же частотах и напряжении — новое поколение!

    (гугли скальпирование процессоров если не понял что я такое несу)

    Ну и, разумеется, для проформы добавят какую-нибудь marketing-инструкцию по типу MMX-2020, чтобы не сильно бугуртили.


    1. sumanai
      07.09.2018 19:46

      сменят жвачку на припой

      Не сменят, все технологические линии с припоем отправлены на слом уже пару лет назад как.


      1. beeruser
        07.09.2018 21:43
        +3

        Значит пошли на помойку и забрали обратно, т.к. Core i9-9900K уже показали с припоем


        1. Mad__Max
          08.09.2018 00:02

          Скорее топовые потребительские чипы просто перевели на окончательную сборку на одной из линий использовавшихся для серверных процессоров.
          Из которых припой никуда и не уходил.


          1. rogoz
            08.09.2018 02:06

            По результатам гугления Skylake-X(LGA2066) и Skylake-SP(LGA3647 Xeon) без припоя.
            Так что на помойку сходить пришлось.


  1. Ogura
    08.09.2018 18:37

    Есть очень простой способ решить проблему низкого выхода.
    А именно-матрица.
    Матрица это тип мультипараллельных вычислительных систем где данные передаются от процессора к процессору так же как внутри процессора между более простыми компонентами программы нежели процессы причем у каждого своя шина памяти, минуя память все буферизации кроме аппаратного планировщика. Фактически только язык Occam умел с ними работать. При таком подходе и хорошо составленном программном обеспечении, увеличение количества процессоров ведет к пропорциональному увеличению быстродействия.
    Хотя разработка ПО отпугнула многих.
    Но зато получается что если сделать процессор с минимальной производительностью и минимальной ценой, то поставив больше процессоров можно получить большею производительность.
    Но интересно было то что попытавшись разработать самый простой и процессор с налучшим показателем цена/производительность он почему-то получился в несколько раз быстрее тогдашнего i386 при меньшей цене.
    (Увы фирма InMOS разработчик таких процссоров разорилась несмотря на 200 миллиардов фунтов правительственных денег по ценам второй половины 1980-х годов.)
    Но попытки воссоздать матрицу производились и позже, причем попытались не устанавливать многоядерные процессоры с предсказанием ветвлений и крайне сложными суперскалярными схемами. А простыми схемами, просто много работающих параллельно.
    При попадании производственного дефекта на один из процессоров, его можно просто игнорировать не загружая в них ПО. А если на кристалле микросхемы несколько сотен процессов, то даже десяток негодных и схема может быть вполне пригодной для эксплуатации.
    Мало того простота электрической схемы и логической модели процессоров позволяет их довольно легко отлаживать к тому же разгонять на очень большую частоту, особенно при низких температурах.
    Такой подход применяла некоторая организация с начальством которой я недавно рассорился.


  1. atom_guglovich
    08.09.2018 18:37

    опять кобальт во всем виноват!