Графические процессоры (GPU) стали важной частью современной вычислительной техники, превратившись из устройств для рендеринга графики в критически важные компоненты для ИИ, обработки данных и высокопроизводительных вычислений. GPU состоят из множества вычислительных блоков, в основном простых арифметико-логических устройств (ALU), которые часто дополняются специализированными ядрами, такими как тензорные и RT ядра. Эти специализированные ядра позволяют параллельно обрабатывать сложные уравнения с векторами, матрицами и тензорами. В этой статье мы рассмотрим конкуренцию между AMD и NVIDIA, выясняя, почему AMD постоянно отстает от NVIDIA в ускорении GPU и гонке ИИ, и изучим исторические, технологические и стратегические факторы, которые сформировали это соперничество.

Понимание GPU и их компонентов

Чтобы понять, что происходит между AMD и NVIDIA, важно разобраться, что такое GPU и как они функционируют. GPU превосходят CPU в задачах параллельной обработки благодаря большому числу ALU и специализированным ядрам.

ALU и специализированные ядра

ALU составляют основу вычислительной мощности GPU, выполняя базовые операции, необходимые для рендеринга изображений и обработки данных. Современные GPU также включают тензорные ядра, оптимизированные для ИИ и глубокого обучения, и RT ядра, которые улучшают возможности трассировки лучей в реальном времени, обеспечивая реалистичное освещение и тени в графике.

Дискретная математика и линейная алгебра в GPU

Операции, выполняемые GPU, глубоко укоренены в дискретной математике и линейной алгебре. Векторы и матрицы являются фундаментальными структурами в этих областях, а тензоры расширяют эти концепции в более высокие измерения. Используя эти математические принципы, GPU могут выполнять сложные вычисления, необходимые для рендеринга графики, моделирования физических систем и обучения моделей ИИ.

Стратегические инвестиции NVIDIA

Доминирование NVIDIA на рынке GPU является результатом стратегических инвестиций в SDK, поддержку разработчиков и аппаратные инновации, которые охватывают широкий спектр приложений за пределами игр.

SDK и поддержка разработчиков

NVIDIA рано поняла, что надежные SDK и обширная поддержка разработчиков будут критически важными для поддержания лидерства. Их платформа CUDA, представленная в 2006 году, значительно упростила программирование GPU, позволяя разработчикам использовать параллельную вычислительную мощность GPU для общих вычислений. Этот стратегический шаг позиционировал NVIDIA как лидера не только в играх, но и в научных вычислениях, ИИ и анализе данных.

Аппаратные инновации

NVIDIA постоянно продвигала границы с аппаратными усовершенствованиями. Введение тензорных ядер в их архитектуре Volta в 2017 году стало значительным шагом в повышении возможностей обработки ИИ. Эти ядра предназначены для ускорения умножений матриц, которые необходимы для обучения нейронных сетей. RT ядра, введенные в архитектуре Turing в 2018 году, принесли трассировку лучей в реальном времени на потребительские графические карты, установив новый стандарт реалистичности визуальных эффектов в играх.

Упущенные возможности AMD

Пока NVIDIA прокладывала себе путь вперед, AMD изо всех сил пыталась не отставать. Несколько факторов способствовали отставанию AMD в гонке GPU, включая недостаточное внимание к ИИ и недостаточную поддержку разработчиков.

Задержка поддержки трассировки лучей и ИИ

AMD не представила аппаратную поддержку трассировки лучей и ИИ до выхода архитектуры RDNA 2 в 2020 году. К тому времени NVIDIA уже укрепила свои позиции с серией RTX, оснащенной как тензорными, так и RT ядрами. Поздний выход AMD на эти критически важные технологии оставил их в положении догоняющих на рынках, где NVIDIA уже установила стандарты.

Рыночный фокус и стратегические ошибки

Стратегический фокус AMD исторически был ориентирован на потребителей, особенно на игровые и консольные рынки. Этот подход обеспечил партнерство с крупными производителями консолей, такими как Sony и Microsoft, но оставил AMD менее подготовленной к конкуренции на развивающихся рынках ИИ и облачных вычислений. Более того, мобильное подразделение GPU AMD было продано Qualcomm, который интегрировал его в свои системы на чипе Snapdragon, в качестве модуля интегрированной графики.

 Распределение рынка по производителям систем на чипе(SoC), на второй квартал 2023 года.
Распределение рынка по производителям систем на чипе(SoC), на второй квартал 2023 года.

 Этот шаг уменьшил присутствие AMD на мобильном рынке и позволил Qualcomm доминировать на рынке мобильных GPU, превзойдя даже Apple по доле рынка и выручки.  Так и ещё больше усилил разрыв AMD в секторе графических вычислений, так как вместе с правами на технологию компанию покинули и специалисты занимавшиеся графикой в мобильном подразделение.
В то же время NVIDIA, не смотря на неудачные попытки самостоятельного выхода на мобильный рынок в качестве производителя игровых консолей и ТВ-приставок NVIDIA-Shield, преуспела как производитель и поставщик своих мобильных SoC для крупных корпоративных клиентов. Так Nvidia Tegra лежит в основе 141 миллиона одних только консолей Nintendo Switch и сотен тысяч единиц электрокаров Tesla, а также множества другой электроники.

 Распределение выручки по производителям систем на чипе(SoC), на второй квартал 2023 года.
Распределение выручки по производителям систем на чипе(SoC), на второй квартал 2023 года.

Хотя в случае с Tesla, с 2021 года новые модели также начали оснащаться CPU и GPU от AMD. Также в планах у Илона, перейти полностью на свои ИИ-чипы Dojo как для обучения, так и для использования в электрокарах, но пока что судя по имеющейся в индустрии информации, это тот случай когда Илон обещая перевернуть рынок порождает решение отстающее на несколько поколений от имеющихся на рынке аналогов. Забитый пробками Hyperloop – передаёт привет. 

* Лучший чип в мире.* По мнению Илона Маска.
* Лучший чип в мире.* По мнению Илона Маска.

Анонс разработки AI-чипа был сделан в 2019 году, хотя разработка и представляется как самостоятельной от Tesla, по слухам, в разработке участвуют не только бывшие топ-инженеры AMD, как Джим Келлер – глава отдела разработки автопилота в Tesla, но и сама AMD непосредственно.

Гонка ИИ: явное лидерство NVIDIA

Активный подход NVIDIA к ИИ поставил их значительно впереди AMD. Их GPU повсеместно используются в дата-центрах, обеспечивая все, от исследований в области ИИ до облачных сервисов.

Тензорные ядра и ИИ фреймворки

Введение тензорных ядер дало NVIDIA значительное преимущество в ИИ. Эти ядра оптимизированы для задач глубокого обучения, позволяя быстрее и эффективнее обучать нейронные сети. NVIDIA также разработала комплексные ИИ фреймворки, такие как TensorFlow и PyTorch, которые сейчас являются отраслевыми стандартами. Создавая экосистему вокруг своего оборудования, NVIDIA обеспечила, что разработчики будут предпочитать их GPU для приложений ИИ.

Доминирование в дата-центрах

GPU NVIDIA стали основой дата-центров по всему миру. Их производительность в сочетании с надежной программной поддержкой делает их предпочтительным выбором для задач ИИ и высокопроизводительных вычислений. AMD, с другой стороны, изо всех сил пытается завоевать позицию на этом прибыльном рынке. Их фокус на потребительских GPU оставил их менее подготовленными к конкуренции в дата-центрах, где доминируют специально разработанные решения NVIDIA.

* NVIDIA A800 в Сервере vStaсk-R

Трассировка лучей: глубокий анализ

Трассировка лучей, несмотря на то, что является современным стандартом в компьютерной графике, имеет свои корни в работах Альбрехта Дюрера. В своем трактате "Underweysung der Messung" (1525) он впервые описал технику, которая сегодня известна как "трассировка лучей". Эта техника позволяет создавать точные изображения 3D объектов на 2D поверхностях, следя за путями лучей света от глаза к объектам и обратно​.

В основе трассировки лучей лежит решение уравнения рендеринга, которое моделирует транспорт света в сцене. Алгоритм работает, отслеживая лучи от глаза зрителя к источникам света, определяя, как свет взаимодействует с поверхностями на этих путях. Это взаимодействие включает в себя расчет отражений, преломлений и теней, что необходимо для достижения фотореалистичных изображений.

Path Tracing

Path tracing - это усовершенствованная форма трассировки лучей, которая отслеживает сотни или тысячи лучей через каждый пиксель, следя за их путями через многочисленные отражения и преломления до достижения источника света. Этот метод позволяет более точно моделировать рассеивание света в сцене, обеспечивая высокий уровень фотореализма.

Разработанный Джимом Каджия в 1986 году, метод path tracing применяет статистические техники для решения уравнения рендеринга, используя методы Монте-Карло для выбора управляемого числа путей к источнику света. 

RT ядра 

RT ядра Nvidia специально разработаны для ускорения наиболее вычислительно сложных частей трассировки лучей. Эти ядра улучшают пересечение объемов ограничивающих коробок (BVH), которые являются древовидными структурами, организующими пространственные отношения между объектами в сцене. Ускоряя пересечение BVH, RT ядра значительно сокращают время, необходимое для расчета пересечений лучей с объектами, позволяя выполнять трассировку лучей в реальном времени в играх и приложениях.

Будущее GPU: сможет ли AMD догнать?

Хотя AMD сделала значительные успехи в последние годы, разрыв между ними и NVIDIA остается значительным. Архитектура RDNA 2 от AMD приблизила их к уровню трассировки лучей и игровой производительности, но доминирующее положение NVIDIA в области ИИ и дата-центров представляет собой серьезный вызов.

Перспективы AMD

Чтобы сократить разрыв, AMD необходимо будет значительно инвестировать в технологии ИИ и облачных вычислений. Их недавнее приобретение Xilinx, лидера в области адаптивных вычислений, может дать необходимыйприлив сил. Экспертиза Xilinx в области FPGA и адаптивных SoC может помочь AMD разработать более конкурентоспособные решения для ИИ. Однако для преодоления лидирующих позиций NVIDIA потребуются не только технологические достижения, но и изменение стратегического фокуса в сторону поддержки разработчиков и создания экосистемы. Чего до сих пор не сильно заметно, большая часть фреймворков и библиотек для машинного обучения показывает более высокую производительность на видеокартах NVIDIA, либо вовсе поддерживает только CUDA.
Преимущество в виде Open Source драйверов для Linux тоже перестаёт быть козырем, так как произошло невероятное и за последние годы NVIDIA совершила гигантские скачки в сторону открытия части исходников своих драйверов для Linux.

Пути развития NVIDIA

NVIDIA не показывает признаков замедления. Их продолжающиеся инвестиции в ИИ, машинное обучение и технологии для дата-центров скорее всего обеспечат то, что они сохранят текущее лидерство. Предстоящие архитектуры и инновации, вероятно, еще больше укрепят их доминирование. Кроме того, выход NVIDIA на рынок процессоров с ARM-базированными процессорами Grace указывает на стратегическое расширение, которое может интегрироваться с их предложениями GPU.
А там уж на горизонте маячит и партнёрство с Mediatek, да и линейка Tegra чувствует себя неплохо.

Заключение

Битва между AMD и NVIDIA на рынке GPU – это сложная история стратегических решений, технологических инноваций и рыночной динамики. Ранние инвестиции NVIDIA в ИИ и экосистемы для разработчиков дали им значительное преимущество, в то время как потребительская ориентация AMD и задержка с поддержкой ключевых технологий оставили их позади. Хотя AMD добилась значительных успехов, догнать NVIDIA потребует скоординированных усилий и значительных инвестиций в технологии ИИ и дата-центры. По мере того, как спрос на ускорение GPU продолжает расти в различных отраслях, конкуренция между этими двумя гигантами несомненно будет формировать будущее вычислительной техники.

Ну а если же вам интересно то что есть сейчас, а не то что будет в будущем, мы в ITGLOBAL.COM можем предложить наш сервис AI Cloud, который подойдёт под любые ваши нужды в задачах обучения и запуска нейросетей. К слову, в нашем Нидералндском филиале у нас случилось крайне занимательное пополнение в рядах зелёных тружениц AI Cloud, прямо от дяди Хуанга. Но об этом - уже в другом посте.

Комментарии (18)


  1. IvanZaycev0717
    05.08.2024 17:43
    +2

    Есть еще третий участник - Intel Arc, но это без комментариев...


    1. OrkBiotechnologist
      05.08.2024 17:43
      +1

      Пациент не то жив, не то мёртв, загадочнее кота Шрёдингера.
      Впрочем, глядя на то как у Intel мрут как мухи и их процы последних поколений, то так можно вообще всю компанию описать.


  1. ArkadiyMak
    05.08.2024 17:43
    +2

    AMD начала отставать, когда во главе графического подразделения встал Раджа Кодури. Потом в 2017 году его переманил к себе Intel, чтобы тот помог закончить разработку дискретных видеокарт. Результат вы и сами знаете.


  1. onets
    05.08.2024 17:43

    Что-то накатила волна воспоминаний, когда nvidia действительно билась с ati. Они попеременно выпускали лучшие видеокарты...

    А еще можно было покупать не топовые и переделывать в топовые https://overclockers.ru/lab/show/15175/Prevraschaem_RADEON_9500_v_RADEON_9700


  1. unreal_undead2
    05.08.2024 17:43
    +3

    GPU превосходят CPU в задачах параллельной обработки благодаря большому числу ALU и специализированным ядрам.

    На мой взгляд - благодаря использованию SMT вместо OoO, что позволяет высвободить больше транзисторов на ALU и специализированные ядра вместо управляющей логики.

    Хотя AMD сделала значительные успехи в последние годы, разрыв между ними и NVIDIA остается значительным

    Однако при этом в обеих топовых приставках стоит графика от AMD, да и в Top 500 систем на AMD Instinct не так уж мало (включая первый номер в списке).


  1. nakirrrr
    05.08.2024 17:43

    amd здесь безнадежно отсала а вот реальный конкурент в ии у nvidia это Tensor Processing Units (TPUs) - Google Cloud


  1. olegshutov
    05.08.2024 17:43

    Я лет 15 назад плотно занимался вычислениями на видеокартах и тогда писать под AMD было сильно удобнее, чем под карточки Nvidia. Вторые были заточены чисто под игры. Почему их стали везде ставить в датацентры я до сих пор не понимаю.


    1. unreal_undead2
      05.08.2024 17:43

      На чём кстати, писали? Под Nvidia, подозреваю, CUDA, а под AMD - OpenCL?


      1. olegshutov
        05.08.2024 17:43

        Ну да. AMD пыталась тогда, чтобы можно было писать под OpenCL и там и там, чтобы люди могли легко перескочить с Nvidia, но Nvidia всячески делала так, чтобы Cuda была лучше и, наоборот, все на ней плотно сидели и не смотрели на OpenCL


        1. unreal_undead2
          05.08.2024 17:43

          Nvidia можно понять - и учитывая, что они эту CUDA активно продвигали в учебные курсы (по крайней мере в американских ВУЗах), и в целом лучшее железо, соотношение использования NVidia/AMD в бизнесе и частоту использования CUDA/OpenCL в данный момент вполне можно понять. Хотя слышал историю про пользу от кодинга на OpenCL на NVidia - когда те в очередной раз взвинтили цены, ребята относительно быстро спортировали код на AMD (что-то поменять всё таки пришлось) и стали покупать чипы у них; потом таки вернулись на Nvidia, но переносимость кода давала возможность поторговаться.


  1. boorrdenis
    05.08.2024 17:43

    Случайно кому-нибудь не попадались статейки по реверс инжинирингу графических чипов?


  1. PATHFIND3R
    05.08.2024 17:43

    Как часто вы используете RTX в играх?
    ИМХО, для комфортного использования лучей (корректно реализованных в трех с половиной игр) нужно иметь топовую видеокарту от зеленых, в стоимость которой будет входить поддержка этих самых лучей. Если вы готовы платить за топовую видеокарту, вы, вероятнее всего, не будете рассматривать аналоги и возьмете то, что у всех на слуху - nvidia.
    Но если рассматривать средний сегмент (RTX 3070 vs RX 6800), то выгоднее будет взять рыксу. Увы, в текущих условиях на нашем рынке с наличием и ценами на видеокарты от красных наблюдаются проблемы, что даже мне год назад пришлось обновляться до зеленых...


    1. sizziff
      05.08.2024 17:43
      +1

      Не все так однозначно с "рыксой".

      Если смотреть только нативный рендер, без лучей и апскейла и генератора - тогда можно рассмотреть рыксу. Но опять же нельзя забывать что в "среднем сегменте" 4000 нвидия раза в полтора холоднее, а значит при выборе рыксы надо взвешенно подходить к выбору модели, к качеству системы охлаждения в частности.

      AMD недавно догнали Nvidia выпустив FSR3 (генератор кадров), вроде догнали, но по факту FSR3 поддерживается в 20-30 играх, а DLSS3(FG) на данный момент поддерживается в 90+ играх, причем как правило это те самые новые тяжелые("плохо оптимизированные") игры, для которых генератор наиболее востребован.

      Апскейлеры - это конечно субъективно, однако ИМХО FSR в режиме качество можно смело сравнивать с DLSS в режиме баланс или даже производительность.

      "Мыло" режет глаз, поэтому только нативные кадры на рыксе? Согласен нэтив есть нэтив. Однако через год-два, когда фпс просядет, таки придется включить апскейл, даже на 7800..7900xtx, и скорее всего придется сравнивать сорты "мыл".

      Если проводить аналогию с автомобилями, то это все равно что сравнить мерседес и жигуль. И там и там четыре колеса и руль, однако "есть нюансы"...Но опять же могут быть варианты, т.к. кому то важен комфорт и он готов платить за него, а кому то вполне достаточно доехать от точки А до точки Б, а комфорт не играет роли...


      1. kevinv
        05.08.2024 17:43

        4000 серия у НВ удачная получилась (за исключением 4060, отставание от 4070 просто пропасть, по хорошему должна была называться 4050Ti). А вот 3000 от НВ и 6000 от АМД уже на равных боролись, по энергопотреблению рыксы даже получше были.


        1. sizziff
          05.08.2024 17:43

          С точки зрения цена/фпс именно 4060 самая удачная, и в стиме именно она самая популярная из 4000 и стремительно ползет в вверх(уже 5ое место), что бы сместить 3060.

          С учетом "генератора кадров" 4060 имеет существенное преимущество даже перед 3060, не говоря о 3050, поэтому нейминг вполне оправдан.


          1. kevinv
            05.08.2024 17:43

            В два раза медленнее 4070S. Как по мне, так это очень слабая карта. В свое время 660 даже от 680 отставала на 35-40%.


  1. Alxgr
    05.08.2024 17:43

    AMD изучали возможность выполнения приложений для CUDA на своих видеокартах, но забросили эту идею. В итоге стала общедоступной ZLUDA, но разработчик не особо планирует её поддерживать и улучшать, разве что для личных хотелок и включения DLSS. А догонять NVIDIA надо, чтобы не было ещё одной монополии.


  1. YaroKam
    05.08.2024 17:43

    На данный момент АМД может помочь только новые технологии для видеокарт, которых нет у Нвидиа. Без них только и остаётся догонять и делать немного хуже чем Нвидиа. Если сможет сделать чиплетную компоновку для видео процессоров, то это может стать альтернативой к наращиванию мощность и к нормальному геймингу в 4К 60 GPS с нормальным ценником и без всяких апскейлингов.