ARM-архитектура год от года становится всё популярнее. Сейчас уже не только Apple, но и другие крупные компании используют её для разработки современных чипов для ноутбуков и ПК. На днях стало известно о том, что AMD и Nvidia независимо друг от друга занялись разработкой именно таких процессоров. Подробности — под катом.

Выпускай ARM или проиграешь?

Поскольку ARM-архитектура обладает рядом достоинств, то чипы на её базе получаются весьма производительные плюс энергии потребляют меньше, чем x86-решения. Хотя, конечно, ARM панацеей назвать нельзя, но достоинства архитектуры очевидны, особенно для серверной отрасли:

  • решения на базе ARM-чипов могут быть самыми разными, их можно «затачивать» для решения различных задач — от стандартных до весьма специфичных

  • серверное оборудование с ARM-чипами, как правило, по размеру меньше, чем системы на базе x86

  • оборудование с ARM-чипами получается более экономичным в плане потребления энергии, о чём уже говорилось выше

В пользовательских устройствах ARM-процессоры тоже показывают себя отлично, чем не преминула воспользоваться корпорация Apple, устанавливающая такие чипы в свои девайсы вот уже длительное время. Корпорация ещё в 2020 году заявила, что будет использовать лишь процессоры собственной разработки, а вот от процессоров Intel было решено отказаться. И это при том, что продукцию Intel корпорация использует с 2006 года.

Насколько можно судить, те топ-менеджеры, кто принимал в Apple решение относительно перехода на новую архитектуру, были правы. Макбуки показывают себя очень хорошо — автономное время их работы составляет много часов, с весьма неплохой производительностью. И с тепловыделением тоже всё неплохо, ведь даже в очень мощных системах от Apple нет массивных систем охлаждения.

Оценив достоинства ARM-архитектуры, AMD и Nvidia решили присоединиться к тем производителям процессоров, которые уже работают с ARM. При этом опыта работы с этой архитектурой у обеих компаний очень мало. Правда, в случае Nvidia мы говорим именно о процессорах, а не графических чипах — с этим-то у компании как раз всё отлично.

По словам представителей обеих компаний, первые модели новых процессоров планируется представить в 2025 году. Но сами проекты настолько масштабные, что более точную дату назвать пока нельзя — всё это находится лишь на начальном этапе развития.

Кроме того, обе компании заявили о том, что планируют занять определённую долю рынка пользовательских, а не корпоративных устройств. Для того чтобы не доставлять своим пользователям неудобств, ARM-чипы как AMD, так и Nvidia будут поддерживать работу с ОС Windows, чтобы покупатели компьютеров и ноутбуков не испытывали никаких трудностей.

При этом в самой Windows начиная с 2015 года есть поддержка ARM-процессоров. Речь, конечно, о Windows 10. В Windows 11 поддержка ARM значительно расширена.

Могут быть и сложности

Если говорить о двух новых игроках, то их проблема в том, что придётся конкурировать с уже присутствующими на рынке ARM-чипов игроками. Конкуренция будет достаточно высокой. С другой стороны, что у Nvidia, что у AMD ресурсов и возможностей для входа на новый рынок вполне достаточно, тем более что обе компании почти всегда показывали себя неплохо в плане реализации новых идей и целей.

Для Nvidia рынок потребительских устройств — это весьма привлекательная цель, ведь именно в сегменте процессоров для ноутбуков и десктопов компании нет. Графические чипы — да, конечно, но процессоры — практически нет.

AMD, в свою очередь, сможет очень сильно укрепить собственные позиции на рынке потребительских чипов. Компания и так держит планку продолжительное время, а здесь ещё и новые сегменты рынка сможет получить.

Вложиться в новую для себя отрасль компаниям придётся как в плане финансов, так и в плане всех прочих ресурсов, включая специалистов. А они всегда в дефиците.

Ещё одна сложность — проблемы с совместимостью, поскольку код для x86 не заработает просто так на ARM. Нужны эмуляторы, порты и т. п. Но здесь опыт уже есть — речь об Apple с её успешно реализованным переходом на другие архитектуры. Сначала это был переход с PowerPC на Intel, а потом с Intel на ARM. Оба раза компания разрабатывала эмулятор, который работал отлично.

Так что нерешаемых проблем ни у AMD, ни у Nvidia вроде бы нет. Главное, чтобы у обеих компаний была чёткая стратегия развития нового для себя направления. Ну и конечно, отсутствие негативных внешних факторов вроде пандемий и т. п.

А что там с RISC-V?

Здесь тоже пока нет ничего нерешаемого, но вот компания SiFive, один из основных участников рынка RISC-V-процессоров, внезапно решила уволить около 20% сотрудников. Компания заявила о том, что оптимизирует расходы и вообще занимается рационализацией бизнеса. Но среди ушедших из компании сотрудников немало опытных инженеров, которые работали над продукцией SiFive много лет.

За прошедшие несколько лет компания немало вложила в RISC-V-экосистему, помогая технологии развиваться. Стоит отметить, что SiFive работает вот уже 8 лет, и за это время компании удалось достичь заметных результатов.

В частности, специалисты компании разрабатывают коммерческие решения на базе открытой архитектуры RISC-V, включая вычислительные ядра, процессорные сборки, комплекты разработчика и т. п. Так, например, компания первой стала производить 64-битные чипы на RISC-V с четырьмя ядрами и полноценной поддержкой Linux-дистрибутивов.

Насколько можно судить, с финансовой точки зрения компания чувствует себя неплохо. Но потеря ценных специалистов может сыграть важную, притом вовсе не позитивную, роль для самой SiFive и всей отрасли в целом.

Комментарии (18)


  1. LbICbIY
    26.10.2023 20:15
    +4

    Почему у Nvidia мало опыта в arm? А что с процессорами Tegra не так?


    1. MinimumLaw
      26.10.2023 20:15
      +3

      Отмаза: все ниже - исключительно мое мнение и оно точно не мейнстримное.

      C Tegra все так. Просто это очень нишевый продукт. Да, ниша это модная и популярная, но...

      Tegra, как и Atom от Intel, никак не прижились в мобильниках. Робкие попытки отдельных производителей выпустить телефон с ними заканчивались фиаско. Примерно тем же результатом всегда заканчивалась и эпопея с нетбуками, смартбуками, и прочими планшетами. Да, многие с трепетом вспоминают Toshiba AC-100 через пять лет после выпуска, когда наконец-то на нем получилось что-то сделать - но это один из лучших примеров. Остальные примерно никакие и всегда ограничивались громким пресс-релизом и тихим пшиком на выходе. За подробностями просто погуглите отзывы на продукты или вспомните свой опыт (если таковой был).

      По ряду причин решения от NVidia не подходят и для промышленной эксплуатации. Для этих целей они традиционно местами сильно избыточны, а в других сильно недостаточны. Да и не интересен был промышленный мир NVidia. Их интересовала коммерческая электроника с серьезными оборотами и изрядной долей маркетинга.

      Считать ли это все богатым опытом в работе с Arm'ами? Даже не знаю. Опыт ошибочных решений безусловно есть. Как есть и нишевый опыт удачных. Значит ли он что-то в сравнении с конкурентами? Ну это, наверное, знают только в самой NVidia.


      1. iiiytn1k
        26.10.2023 20:15
        +6

        Nintendo Switch: ну да, ну да, пошла я на...


        1. DGG
          26.10.2023 20:15
          +3

          Справедливости ради, это немного не тот опыт.

          Приставка, это очень закрытый мирок с очень ограниченным набором аппаратного обеспечения и системного софта с которым взаимодействовал чип Нвидии и их драйверы.

          Для успеха на рынке ноутбуков и прочих ПК нужно обеспечить взаимодействие с огромным количеством разнообразного харда и операционных систем. Более того, драйвера нужно выпускать многие годы после выхода продукта и продолжать поддерживать после ухода продукта с конвеера.

          В стиле телефонного мира - выпустить процессор с закрытыми драйверами прибитыми гвоздями к единственной версии криво патченого ядра линукс - тут не прокатит.


          1. DGG
            26.10.2023 20:15

            Это я к тому, что вхождение производителя процессоров в мир ПК ограничено сегодня не столько умением сделать железо, а его умением сделать поддержку этого железа софтом, причём долговременную.

            Пока у пользователей опыт с "альтернативным" железом скорее отрицательный. Всякие ARM планшеты под Windows RT были и поддерживались печально недолго. Попытку Intel внедрить "телефонный" GPU от PowerVR и его печальные драйверы тоже все помнят.

            Так что, по крайней мере по началу, отношение будет весьма скептическим. Никто не хочет устройство превращающееся в тыкву через пару лет.

            Конечно у AMD и Nvidia есть большой опыт в плане железа для ПК и драйверов, что вызывает надежду, но ничего не гарантирует. Глядя например, на то с каким трудом Интел (со всем его опытом) рожает дискретные видеокарты (имея основные проблемы именно с софтом НЯП).


            1. MinimumLaw
              26.10.2023 20:15
              +2

              Ну давайте я еще немного допишу. А поставил плюс комментарию про Switch.

              Действительно, вспомнить Toshiba AC-100, но при этом забыть Nintendo Switch - было несколько неправильно. Но, справедливости ради - у Nvidia была (и есть?) своя собственная консоль - Nvidia Shield с куда как более скромными результатами. А вот была бы Nintendo Switch более успешной с другим чипом - это вопрос. История не знает сослагательного наклонения, потому я оставлю его висящим в воздухе.

              Что до состояния дел "вообще", то тут ситуация примерно следующая. Производитель процессора, помимо самого процессора, всегда делает референсную плату и референсный софт. Все это, как правило на условиях формальной NDA, раздается производителям конечных изделий. Базируясь на этом референсе производитель запускают свои линейки с разными датчиками, дисплеями, камерами - всем тем, что можно поправит на уровне платформы, ACPI, DTB, в крайнем случае добавить драйвер. И, естественно, гарантируем поддержку некоторое время. В зависимости от степени "коммерции" от трех до двадцати пяти лет. И сама NVidia так делает применительно к видеочипам. А вот со своими ARM'амим она поступает несколько по другому, сильно фильтруя тех, кому эта информация будет предоставлена. И NDA у них далеко не так формальна. Складывается ощущение, что она высматривала заказчиков не на широком рынке (больше произведут - больше продадим), а в конкретных областях. И, на самом деле, главные опасения от покупки NVidia ARM'ов были именно в том, что данный подход будет применен вообще ко всем производителям, лицензирующим ядра.

              Я не знаю чем думают менеджеры NVidia. Мне их колокольня недоступна. Но то, что по количеству продаваемых "на сторону" процессоров NVidia точно не догоняет Qualcom (и скорее всего Mediatek) - это наверняка. Да и "монстры промышленности", такие как Marvell, Freescale/NXP, ST Microelectronics и прочие Amlogic'и и Allwinner'ы вместе с Rockhip'ами именно в этой части обходят NVidia - конечно не факт. Но мне, почему-то, кажется что дело обстоит именно так.


      1. yatanai
        26.10.2023 20:15
        +1

        Как вспоминаю, их серия тегра казалась избыточной, рядовому пользователю. (Я на тот момент)

        Представь в 2014 году, когда даже не было нормальных приложений для андроида, выпускать монстра который раз в 15 производительные конкурентов. И стоили эти решения прилично. А вот за что ты собственно деньги платил - не понятно. Ибо все эти звонилки/планшеты были ни рыба ни мясо. (Их планшет прикольно выглядел, и была реклама что там халф лайф2 портировали, на этом всё)

        Как итог они свалили с рынка и начал заниматься "интегрированными решениями" вида - мы вам платформу 5Вт/1Тфлопс а вы сами думайте чо с этим делать, но желательно массово иначе не продадим.


  1. Rezzet
    26.10.2023 20:15
    +6

    "то чипы на её базе получаются весьма производительные плюс энергии потребляют меньше, чем x86-решения."

    Вот как выглядят "весьма производительные" чипы в тестах. По потреблению энергию м2 конечно же далеко впереди, но по перфу пока проигрывает. И, возможно, если это самое "пока" попробуют исправить то и энергопотребление может подрасти. Тест синебенч это конечно специфичная задача, но других прямых сравнений сходу не нашел, мне интересно было бы сравнить время компиляции, но сравнить его достаточно сложно, если взять visual studio и xcode получится сравнение компиляторов, а это не то что хотелось бы.


    1. eri
      26.10.2023 20:15

      gcc или clang можете попробовать


    1. alexander_fokin
      26.10.2023 20:15
      +4

      А нормально сравнивать топовый десктопный чип с чипом для ноутбуков? Очевидно, что M2 обходит по производительности большинство x86-процессоров. Да, на бумаге и в каких-то специфичных задачах, отдельные x86-чипы мощнее, но тенденция на лицо.

      Из своей практики могу привести такой пример:

      У меня Ryzen 9 5950X + ssd samsung 970pro. Винда 11. Проект в Android Studio компилируется 1м 54сек.

      У коллеги Macbook на M2. МакОС, Android Studio. Этот же проект компилируется 1м 40сек.

      Это не синтетический тест, а просто тупо ежедневный рабочий процесс.

      У меня огромный черный ящик под столом, который нехило подогревает ноги. У него мелкий кусок алюминия с экраном. Бесит такой расклад...


      1. kasiopei
        26.10.2023 20:15
        -1

        А где узкое горлышко? Полностью процессор загружается? Сможет ли комп на Ryzen параллельно 3 проекта с той же скоростью скомпилировать?


      1. Redduck119
        26.10.2023 20:15

        Не понял.
        Нет, понял многое до момента - Бесит такой расклад

        Не можешь отжать у коллеги Macbook на M2?
        Тогда купи, чего бесится из-за ничего.


      1. ZirakZigil
        26.10.2023 20:15

        Нормально, не очевидно. Сколько этот м2 потребляет чтобы показать результат, допустим, как на скрине выше по треду? Для того чтобы сопоставимое число набрать десктопным цпу вполне можно уместиться в ноутбучный теплопакет


      1. Rezzet
        26.10.2023 20:15

        Попробуйте такой же тест провернуть установив на свой компьютер линукс, где-то читал что у виндовса медленно происходит оперировать объектами ядра ос, открывать мьютексы, файловые дескрипторы. Я же говорю чисто в лоб сравнивать процессоры сложно, получается или сравнение ос или сравнение компиляторов. Что бы сравнить прям чисто процессор нужно брать синтетику, синебенч это чистая синтетика, но потом получается как у вас. У меня то же такой пример, проект на с++, на виндовс сборка 5 минут, на маке 1:30, но это больше говорит о том что кланг работает быстрее чем компилятор микрософт.

        Еще важен момент, что м2 опережает ваш процессор на поколение, м1 корректно сравнивать с 5950х, а м2 корректно сравнивать с 7950х, у м2 и 7950х более менее одинаковое время релиза и одинаковый техпроцесс.

        У меня есть стойкое чувство что определяющим фактором является не архитектура, а техпроцесс и тепловой пакет, все остальное будет давать проценты разницы. х86 процессоры можно упрекнуть что они делают двойную работу, им нужно большие команды разбивать на маленькие, за арм процессор это делает компилятор. Битва команд процессоров была важна в 70х-80х, когда действительно писали на ассемблере и большие команды(скорее подходящее слово комплексные) были банальным удобством программиста, кому захочется писать 5 команд когда можно написать одну. Тогда х86 победил арм, сейчас выходит что у арм процессора всегда будет один блок проще, а значит он будет меньше транзисторного бюджета использовать и меньше потреблять. Насколько большая работа по разбивке комплексных команд на мелкие я не знаю, насколько она много потребляет энергии и занимает транзисторного бюджета то же, но такой аргумент в против х86 привести можно.


    1. sterr
      26.10.2023 20:15
      +1

      Сразу же прикладывайте графики затраченной мощности. Как можно сравнивать 20вт TDP против 120вт. И тем более, что это цифры на бумажке, в реальности они скорее всего совсем другие.

      Очевидно же, что в этом случае выигрывает м2. А если ему поднять TDP до 120 вт, кто выиграет?

      И тем более разные архитектуры. А что вы не сравниваете квантовые компьютеры с 4004?


      1. zerocooolx
        26.10.2023 20:15
        -1

        А ты несмасштабируешь так М2. Никак.


      1. Rezzet
        26.10.2023 20:15

        Не совсем понятен ваш агрессивный коммент в мою сторону. Я бы приложил графки потребления, если бы они были, но в своем посте четко обозначил эту тему. "По потреблению энергию м2 конечно же далеко впереди".

        "А если ему поднять TDP до 120 вт, кто выиграет?"

        В этом вопросе и заключается мой комментарий, который критикует тезис в статье, о том что архитектура арм принципиально выигрывает у х86. Только отталкиваюсь от производительности, именно последние проценты перфа раздувают энергопотребление процессора и превращают его в печку. В этом и вопрос, какое будет энергопотребление условного м2' если его по перф на существующем техпроцессе увеличить на те самые 25% на которые он отстает, если мы говорим про одно ядро и 160% если говорим про все ядра. Не выйдет ли так что энергопотребление примерно одинаковое получится с х86.

        Мне кажется что качество процессора, что бы не скрывалось под словом "качество" определяет техпроцесс, транзисторный бюджет и лимиты энергопотребления, а архитектура, если она не имеет значительных ошибок в реализации, в последнею очередь. Переход апл на арм, на мой взгляд, обусловлен не причинами превосходства арм над х86, а другими:

        экономическими - закупать чужой процессор дороже чем делать свой

        гибкостью в разработке - свои процессор можно наделить дополнительными блоками под определенные задачи, безопасность, распознавание образов и прочее, что эпл периодически делает для айфона.

        большей независимостью выстраивать бизнес процессы, не надо ждать релиза интел новых процессоров, можно делать ровно такие процессоры какие нужны апл, а не договариваться о этом с интел.

        То же самое касается и нвидии. амд уверено выступает и на рынке видеокарт и на рынке процессоров, интел был только на рынке процессоров, но с недавних пор штурмуют рынок видеокарт, нвидия живет только на рынке видеокарт, и не имеет выхода на рынок процессоров, х86 для них закрыт, никто не продаст лицензию, остается только арм, выпуск своих процессоров позволит на равных конкурировать с амд и интел по охвату сегментов рынка.

        Мне как пользователю нравится конкуренция арм против х86, конкуренция четырех компаний на всех сегментах рынка против конкуренции пары компаний, но как с++ программисту добавление еще одной архитектуры это конечно тот еще геморрой, то какие-то нужные библиотеки имеют в себе асемблерные куски и не портированы под арм, то непойми как CI настроить на кросскомпиляцию.


  1. beeruser
    26.10.2023 20:15
    +1

    Оценив достоинства ARM-архитектуры, AMD и Nvidia решили присоединиться к тем производителям процессоров, которые уже работают с ARM. При этом опыта работы с этой архитектурой у обеих компаний очень мало.

    Зачем вы намеренно дезинформируете?

    Если не знаете ничего по теме, ну почитайте хотя бы википедию.

    Первый ARM процессор, Tegra APX 2500, Nvidia сделала в 2008г.

    https://ru.wikipedia.org/wiki/Nvidia_Tegra#Tegra_APX_2500

    Nvidia Denver (2018) это была первая микроархитектура ARM, которую Nvidia разработала самостоятельно, хотя сейчас они предпочитают использовать покупные ядра.

    Забавно, что изначально это был х86 VLIW процессор (а-ля Transmeta), но Intel не позволил его завершить, и в итоге его переделали под ARM.

    Скоро выходит огромный серверный NVIDIA Grace Hopper Superchip.

    https://www.nvidia.com/en-us/data-center/grace-hopper-superchip/

    Ой как маловато опыта у Nvidia с ARM =)

    AMD так же давно занимается ARM-ом.

    AMD Opteron A1100 на базе ARM Cortex-A57 должен был выйти в 2014, но задержался до 2016г

    https://www.servethehome.com/amd-opteron-a1100-now-released/

    A1100 это по сути такой же процессор как и Baikal-M, который тоже задержался, но уже по другим причинам.

    Более того, тогда же были анонсированы Skybridge (гибридный x86/ARM процессор) и K12 (который AMD делала с расчётом на Amazon).

    K12 это ARM аналог Ryzen, который был отменён на финальных стадиях, потому как AMD решила сконцентрироваться на х86.

    https://wccftech.com/amd-announces-20142016-roadmap-20nm-project-skybridge-k12-64bit-arm-cores-2016/