В этом материале мы рассмотрим несколько профессиональных видеокарт NVIDIA, а также расскажем, в чем разница с их десктопными «аналогами». Поговорим о производительности, бюджетном тестировании и о том, как подобрать GPU под свой проект, чтобы не переплачивать.

Базовые отличия


Десктопные видеокарты устанавливаются в ноутбуки и персональные компьютеры. Их характеристики больше заточены под быстродействие в играх и частную работу с графикой.

Серверные видеокарты иногда даже не имеют разъемов (HDMI, DVI) для вывода видео. Еще у них не всегда есть своя версия DirectX, поэтому поиграть на таких устройствах не получится.

Серверные видеокарты помогают проводить большое количество вычислений при меньшем энергопотреблении. На длительных дистанциях это хорошо помогает экономить на оплате счетов за электричество. Такие видеокарты используются в ML-разработке, майнинге, кинопроизводстве, рендеринге и моделировании сложных объектов.

В чем еще разница


Говорить о том, насколько похоже или отличается десктопное и серверное железо можно на разных условных уровнях. В материале мы будем больше говорить про сравнение конкретных видеокарт, но для полноты картины должны дать больше контекста.

Верхний уровень. Производство и производительность


У каждой десктопной видеокарты есть множество версий от разных производителей: Asus, MSI, Gigabyte. Обычно NVIDIA и AMD передают технологии сторонним производителям, поэтому в магазинах можно наблюдать большой ценовой разброс на одни и те же модели видеокарт.

При этом NVIDIA и AMD всегда стремятся делать серверные видеокарты самостоятельно и никому не доверяют лицензии на производство такого железа.

Кроме этого, NVIDIA прямо запрещает использование ряда своих продуктов с десктопными видеокартами. Компания также не приветствует использование таких карт дата-центрами, вплоть до штрафных санкций.

Если говорить о производительности, самый важный параметр, от которого зависит и быстродействие, и долговечность, — это вопрос рабочей температуры.

Видеокарты по-разному решают проблему охлаждения. Системы вентиляции в дата-центрах способны продувать целые кластеры, а в помещении поддерживается комфортный микроклимат с мониторингом состава воздуха. Повторить такое на домашнем стенде проблематично, поэтому нормально, что в таких условиях серверные видеокарты нагреваются больше.

Средний уровень. Драйверы и программное обеспечение


Здесь можно говорить о прошивке и драйверах. Десктопные видеокарты ориентированы в основном на обеспечение высокого FPS в играх и простое моделирование. Серверные ориентируются на показатели стабильности в работе с массивными проектами. Поэтому приложения для серверных видеокарт всегда предусматривают возможность масштабирования и объединения графических процессоров в кластер для обработки больших данных.

Как следствие, драйверы от серверных видеокарт плохо сочетаются с десктопным железом и наоборот.

Нижний уровень. Архитектура и спецификация


На нижнем уровне можно говорить об архитектурных отличиях памяти.

Память серверных видеокарт работает с типом ECC (автоматическое исправление ошибок). ECC-память во многом зависит от объема и скорости оперативной памяти, потому что все время обращается к ней для исправления ошибок. Система экономит время на том, что процессы не приходится перезапускать и система работает стабильно.

Ошибки бывают двух типов: памяти и устройств. Причем вторые возникают достаточно часто как раз в десктопных видеокартах.

Игровые видеокарты менее приспособлены для сложного рендеринга как раз из-за ошибок устройств, которые возникают из-за электрических и магнитных возмущений внутри компьютера.

Игровые видеокарты используют non-ECC память, которая работает немного быстрее с простыми объектами, но хуже ведет себя, например, при построении ML-экспериментов. То есть, когда нужно работать с большими объемами данных и переменными.

Перейдем к разбору конкретных примеров.


3060 VS A2000


Построенную на архитектуре Ampere RTX А2000 можно считать одной из самых компактных серверных видеокарт. Она умещается даже в самые маленькие корпусы форм-фактора SFF. Еще один момент — карте не нужно дополнительное питание. Это одна из причин, почему ее так часто используют для майнинга.

RTX А2000 поддерживает даже трассировку лучей (реалистичный свет) и DLSS (сглаживание с алгоритмами глубокого обучения). Обычно таких возможностей ждут от игровых карт.

RTX А2000 построена на базе графического процессора GA106. Такой же используется в RTX 3050 и RTX 3060.

Количество шейдеров (потоковых процессоров) идет почти вровень с RTX 3060 и существенно опережает прошлую модель с показателем 2560.

С момента релиза А2000 прошло уже больше года, но видеокарта остается востребованной.

Характеристика RTX 3060 RTX A2000
Количество потоковых процессоров 3584 3328
Частота ядра 1 320 МГц 562 Мгц
Частота в режиме Boost 1 777 МГц 1 200 МГц
Количество транзисторов 13 250 млн 13 250 млн
Технологический процесс 8 нм 8 нм
Энергопотребление (TDP) 170 Вт 70 Вт
Скорость текстурирования 199.0 124.8
Тип памяти GDDR6 GDDR6
Максимальный объем памяти 12 ГБ 6 ГБ
Ширина шины памяти 192 бит 192 бит
Частота памяти 15 000 МГц 1 500 МГц
Пропускная способность памяти 360.0 ГБ/с 288.0 ГБ/с

Во многих параметрах RTX 3060 или немного опережает по характеристикам RTX А2000, или идет вровень. RTX A2000 заметно обходит соперника только в плане энергопотребления. В целом, нельзя сказать, что это принципиально разные видеокарты.

Читайте больше про GPU в нашем блоге:

ML в Managed Kubernetes: для каких задач нужен кластер с GPU
GPU – только для майнеров? Разбираемся на опыте клиентов, кому нужны видеокарты и как выбрать подходящую
Как мы выбирали лучшие из 9 новых GPU NVIDIA

3070 VS A4000


RTX A4000 — это еще одна компактная однослотовая карта, которая во многом похожа на RTX 3070, но с полноценным чипом и неурезанными ядрами.

Обычно производители серверных видеокарт не уделяют много места системе охлаждения. Это обусловлено тем, что за их охлаждение отвечают системы дата-центра. В RTX А4000 удалось добиться относительно небольшого температурного разрыва с RTX 3070. Разница под нагрузкой составляет всего 7-9 градусов.

Несмотря на то, что видеокарты этого класса предназначены для работы с графикой и вычислениями, связанными с ИИ, на фоне дефицита в игровом сегменте они также получили широкое распространение.

О том, что А4000 еще долго не потеряет своей актуальности, говорит максимальный объем видеопамяти 16 ГБ. Пожалуй, лучший вариант для работы с анимацией в мидл-сегменте.

Характеристика RTX 3070 RTX A4000
Количество потоковых процессоров 5888 6144
Частота ядра 1 500 МГц 735 МГц
Частота в режиме Boost 1 725 МГц 1 745 МГц
Количество транзисторов 17 400 млн 17 400 млн
Технологический процесс 8 нм 8 нм
Энергопотребление (TDP) 220 Вт 140 Вт
Скорость текстурирования 317.4 299.5
Тип памяти GDDR6 GDDR6
Максимальный объем памяти 8 ГБ 16 ГБ
Ширина шины памяти 256 бит 256 бит
Частота памяти 14 000 МГц 1 750 МГц
Пропускная способность памяти 448.0 ГБ/с 448.0 ГБ/с

Несмотря на то, что RTX A4000 немного опережает свой десктопный аналог по части количества потоковых процессоров и максимального объема памяти — однозначного победителя здесь сложно выбрать.

3080 VS A5000


Основное различие между десктопной версией видеокарты и серверной версией в том, что RTX A5000 имеет 24 ГБ ЕСС-видеопамяти, тогда как RTX 3080 только 10 ГБ. В серверный корпус на 8 GPU можно поставить только две или три карты 3080, поскольку они занимают 2.5 слота. А5000 спокойно занимает все слоты корпуса.

В стандартных тестах Blender разница в рендеринге видна сразу: RTX A5000 справляется со всеми задачами на 1-3% быстрее. В более сложном рендеринге, например, в тестах Maya, эта разница еще заметнее и достигает 13%.

Пожалуй, в противостоянии RTX 3080 и RTX A5000 разница в производительности самая очевидная из всех пар.

Характеристика RTX 3080 RTX A5000
Количество потоковых процессоров 8704 8192
Частота ядра 1 450 МГц 1 170 МГц
Частота в режиме Boost 1 710 МГц 1 695 МГц
Количество транзисторов 28 300 млн 28 300 млн
Технологический процесс 8 нм 8 нм
Энергопотребление (TDP) 320 Вт 320 Вт
Скорость текстурирования 465.1 433.9
Тип памяти GDDR6X GDDR6X
Максимальный объем памяти 10 ГБ 24 ГБ
Ширина шины памяти 320 бит 384 бит
Частота памяти 19 000 МГц 2 000 МГц
Пропускная способность памяти 760.3 ГБ/с 768.0 ГБ/с

Если в прошлых парах мы могли говорить о том, что серверные видеокарты потребляют меньше энергии, то здесь ситуация впервые уравнивается.

3090 VS A6000


Первое, что стоит заметить, приступая к сравнению этих видеокарт, — они созданы на базе одного кристалла GA102. Часть показателей полностью совпадает, поэтому неудивительно, что карты показывают почти одинаковое время рендеринга на стандартных моделях из Blender или Maya. Разница не более 1%.

Характеристика RTX 3090 RTX A6000
Количество потоковых процессоров 10 496 10 752
Частота ядра 1 400 МГц 1 410 МГц
Частота в режиме Boost 1 700 МГц 1 800 МГц
Количество транзисторов 28 300 млн 28 300 млн
Технологический процесс 8 нм 8 нм
Энергопотребление (TDP) 350 Вт 300 Вт
Скорость текстурирования 556.0 625.0
Тип памяти GDDR6X GDDR6X
Максимальный объем памяти 24 ГБ 48 ГБ
Ширина шины памяти 384 бит 384 бит
Частота памяти 19 500 МГц 16 000 МГц
Пропускная способность памяти 936.2 ГБ/с 768.0 ГБ/с

Эту пару можно назвать битвой титанов, поскольку здесь сходятся топовые представители своих линеек. Видеокарты во многом похожи, но RTX А6000 единственная карта из списка серверных, которая обгоняет оппонента по скорости текстурирования.

В более сложных задачах, связанных с рендерингом целых киносцен в RedShift, RTX A6000 может работать в два раза быстрее. Дело здесь не только в самом объеме видеопамяти, но и в автоматической работе над ошибками.

Если объединить производительность двух RTX 3090 с использованием NVLink, в теории можно добиться близких показателей, но сэкономить на такой конструкции не получится.

Покупать или арендовать видеокарту?


Сфера использования серверов с GPU достаточно обширна:

  • рендеринг фото и видео,
  • построение 3D-моделей,
  • обработка и аналитика больших данных,
  • статистические расчеты,
  • криптография.

Выгода от покупки собственного железа может быть сомнительной. Во многом это зависит от задач и предположительных сроков использования.

  • Рынок испытывает проблемы из-за кризиса полупроводников и сложностей с логистикой.
  • Это достаточно дорого и компаниям, и физическим лицам, которым нужны сервера с GPU, например, для проверки гипотез или ML-экспериментов.
  • При таком сценарии придется самостоятельно поддерживать IT-инфраструктуру.

Проблема не ограничивается покупкой видеокарты. Нужна сборка, корпус, материнская плата, CPU, диски и нужно оплачивать электричество.

Цена и время


Если есть понимание, что машина нужна на годы вперед для несложных проектов, сценарий с покупкой стоит рассмотреть подробнее. Да, придется купить не только карту, но и комплектующие, собрать все это и обслуживать. Тем не менее так удастся сэкономить на дистанции. Например, для дизайнеров-фрилансеров это настоящая инвестиция в себя и свои проекты.

Если задачи проекта предполагают сессионный формат работы или объемные вычислительные процессы, то лучше использовать GPU в облаке. Такой подход поможет рассчитать, сколько ресурсов нужно проекту. Если первоначальная оценка не подтвердится, то можно легко масштабировать или оптимизировать IT-инфраструктуру проекта.

Комментарии (15)


  1. PuerteMuerte
    06.12.2022 17:43
    +1

    В общем случае десктопные видеокарты от серверных отличаются позиционированием со стороны производителя. Это одна и та же платформа, зачастую на одной и той же PCB, но на серверных не распаяна часть компонент, отвечающих за вывод сигнала, и установлена другая прошивка, с заниженными частотами и оптимизацией под серверное применение. Не знаю как сейчас, но ранее путём некоторых манипуляций, например, с Nvidia Tesla М40, мне удавалось заставить её работать как обычную игровую карту Nvidia Titan X (близнецом которой она и является), хоть и с поправкой на заниженніе частоты.


  1. Paultino
    06.12.2022 17:58

    Как это нет видеовыхода? Как это не в десктоп? А САПР на чём? Revit там.


    1. Darkhon
      06.12.2022 18:02
      +2

      Нет видеовыхода - это про Nvidia Tesla. Их ещё используют в связке с Quadro.


    1. selenzorn Автор
      06.12.2022 18:06

      да, все так, поэтому я написал, что "иногда" нет выхода


    1. PuerteMuerte
      06.12.2022 18:44

      Это же не серверная видеокарта, это десктопная профессионального сегмента


      1. Paultino
        06.12.2022 18:55

        Ну в статье "серверная" Ax000 без сноски что есть и для десктопа.

        А также что "делают только сами"

        На такую маленькую статью два замечания..


    1. koresh_builder
      06.12.2022 22:46
      +1

      В статье просто не указан 3й сорт видеокарт - для рабочих станций.


    1. ptr128
      07.12.2022 09:14

      У A100 нет видеовыходов. Впрочем, в статье ее даже не пытались с чем-то сравнить


  1. PTM
    07.12.2022 10:50

    Как ярый пользователь CAD ( более 14 лет проф опыта)

    3060 vs A2000 12Gb ( автор сравнивайте одинаковые карты )

    3060 в CAD'ах проигрывает особенно в 2D. либо глюки, либо не совместимость, либо некорректное отображение.


  1. aMster1
    07.12.2022 11:08

    Я возможно не сильно понимаю в циферках, но разница в 2-2.5 раза(!) в частоте ядра - это не сильное отличие? (1320 МГц и 562 Мгц, 1500 МГц и 735 МГц)

    Ну и совсем непонятны единицы измерения в строке "Частота памяти 19 000 МГц 16 ГБ/с" (первые три таблицы)


    1. selenzorn Автор
      07.12.2022 11:50

      по таблицам вышел баг при верстке, сейчас все поправил


  1. SHA_LIM
    07.12.2022 12:06

    есть такой прайс у Форсайта. Может, стоит сравнить еще 4090 с А100 ? ))


  1. woodoodm
    07.12.2022 15:48
    +1

    Пишите какую-то ерунду прямо. Это не серверные видеокарты, а для проф. применения. 3D, рендер, видео редактирование и кодирование. Что касается A2000 есть замечательная версия и с 12Gb памяти. Основная разница между этими картами и игровыми в драйверах. В игровых - конвейер для сетки короткий, а для текстурирования длинный. В проф. картах все наоборот. Для сетки - длинный, для текстур по остатку. Отсюда все и вертится быстрее + разные оптимизации под конкретный софт.


  1. Disen
    07.12.2022 16:37

    Статья напомнила мне, как давным давно путем нехитрых манипуляций radeon8500 превращался в firegl8800 путем патчинга и установки драйвера. Производительность в CADах возрастала существенно. ЕМНИП основное отличие было в opengl драйвере, да у firegl частоты были повыше (300/300 против 275/275).


    1. k0ldbl00d
      07.12.2022 16:53

      Да и некоторые GeForce перешивались в Quadro. Тоже в CAD разница чувствовалась.