В этой статье будет подборка лучших видеокарт по моему мнению, с учётом разных ценовых диапазонов и советы, какую же видеокарту выбрать на сегодняшний день.

До 20 000 рублей

GTX 1660 super
GTX 1660 super

В таком сегменте стоит брать Nvidia GeForce GTX 1660 super, которая является лучшей среди 16 серии видеокарт Nvidia по цене/качеству. Карта подойдёт вам для игры в Full HD разрешении в не особо требовательные игры на высоких настройках графики, простом видеомонтаже. Посоперничать с ней может лишь GTX 1660 версии ti, но прирост fps в играх настолько незначительный, что доплачивать за чуть более мощную ti нет никакого смысла.

Характеристики:

  • Объем видеопамяти: 6 ГБ;

  • Тип памяти: GDDR6;

  • Версия PCI-E: 3.0;

  • Разрядность шины памяти: 192 бит;

  • Частота работы видеочипа (сток): 1530 МГц;

  • Частота работы видеочипа (турбобуст): 1860 МГц;

  • Разъемы дополнительного питания: 8-pin;

  • Максимальное энергопотребление: 180 Вт;

  • Рекомендуемый блок питания: 450 Вт.

Из минусов можно выделить её шумность, а также устаревание, из-за которого через лет 5 её могут вытеснить более новые и мощные видеокарты.

25 000 – 30 000 рублей

RX 6600
RX 6600

Далее идут уже более современные видеокарты. Здесь первенство удерживает карта AMD Radeon RX 6600, которая существенно производительнее GeForce RTX 3050. Единственным плюсом здесь в RTX 3050 является её технология DLSS, а также трассировка лучей, которая адекватно на карте работать не будет в 90% игр из-за низкой производительности, поэтому аналог от AMD будет гораздо предпочтительнее. Видеокарта подойдёт для игр в Full HD разрешении на ультра настройках графики, но для работы, рендера видео она не подойдёт, т.к. лучше взять уже версии помощнее от Nvidia (например RTX 3060 на 12 ГБ, у неё и производительность повыше и с драйверами проблем меньше).

Характеристики в сравнении с RTX 3050:

NVIDIA GeForce RTX 3050

AMD Radeon RX 6600

Объём памяти

8 ГБ

8 ГБ

Тип памяти

GDDR6

GDDR6

PCI Express

PCIe 4.0 x8

PCIe 4.0 x8

Пропускная способность памяти

224 GB/s

224 GB/s

Максимальная тактовая частота

1777 MHz

2491 MHz

Скорость текстурирования

142.2

279.0

Энергопотребление

130 W

130 W

Из минусов - нужно не жалеть денег на хорошую фирму производителя, потому что RX 6600 не отличается своей долговечностью; подходит больше для игр, чем для работы.

35 000 – 40 000 рублей

RX 6700 XT
RX 6700 XT

Лучшим выбором за такую стоимость будет являться так же видеокарта от AMD RX 6700 XT. Её конкурентом является Nvidia RTX 3060 на 12 ГБ видеопамяти, которая является самым популярным выбором среди большинства пользователей, но так ли она хороша?

Список самых популярных видеокарт от Steam, где 3060 занимает первое место (если не разделять её на Laptop версию)
Список самых популярных видеокарт от Steam, где 3060 занимает первое место (если не разделять её на Laptop версию)

 Тесты показывают, что карта от AMD производительнее от 62 до 66 % в 3DMark Fire Strike, да и тесты в играх показали, что RX 6700 XT создана для 2k гейминга, чего не скажешь о 3060, которая комфортно себя чувствует лишь в пределах Full HD. Единственным плюсом зелёных можно назвать рейтрейсинг, который реализован гораздо лучше, но учитывая современную тенденцию, когда игры становятся всё прожорливее, обычному пользователю он даже не понадобится, ведь мало кто захочет терять десятки FPS из-за технологии более реалистичного отражения

Характеристики в сравнении с RTX 3060:

NVIDIA GeForce RTX 3060

AMD Radeon RX 6700 XT

Объём памяти

12 ГБ

12 ГБ

Тип памяти

GDDR6

GDDR6

PCI Express

PCIe 4.0 x16

PCIe 4.0 x16

Пропускная способность памяти

360 GB/s

384 GB/s

Максимальная тактовая частота

1777 MHz

2581 MHz

Скорость текстурирования

199

413

Энергопотребление

170 W

230 W

По итогам, RX 6700 XT гораздо лучше подойдёт вам и для игр, и для работы с 3D, учитывая то, что вы возьмёте версию именно с тремя вентиляторами. Так видеокарта не будет греться до 80 и более градусов, соответственно не терять производительности.

50 000 – 55 000 рублей

RX 6800 XT
RX 6800 XT

Далее у нас видеокарта опять от AMD, RX 6800 XT. Это лучшее решение и абсолютный топ за свои деньги, видеокарта по производительности немного обгоняет Nvidia RTX 3070 ti, которая на пару тысяч дороже (за хорошую версию) и находится на уровне с RTX 3080, но вот только та уже стоит на 20 тысяч дороже. Если сравнивать её с RTX 3070 ti, то видеокарта от Nvidia имеет очень большой недостаток в виде 8 ГБ видеопамяти, т.е. их видеокарта из-за объёма этой памяти уже не будет способна тянуть свежие новинки на максимальных настройках графики. RX 6800 же имеет 16 ГБ видеопамяти, что в 2 раза больше.

Характеристики в сравнении с RTX 3070 ti:

NVIDIA GeForce RTX 3070 ti

AMD Radeon RX 6800 XT

Объём памяти

8 ГБ

16 ГБ

Тип памяти

GDDR6

GDDR6

PCI Express

PCIe 4.0 x16

PCIe 4.0 x16

Пропускная способность памяти

608 GB/s

512 GB/s

Максимальная тактовая частота

1770 MHz

2250 MHz

Скорость текстурирования

340

648

Энергопотребление

290 W

300 W

до 70 000 рублей

RX 6900 XT
RX 6900 XT

Можно упомянуть последнюю выгодную видеокарту от AMD - RX 6900 XT, которая стоит на этом месте только потому, что за такую стоимость у неё нет конкурентов. Более мощные видеокарты от Nvidia будут стоить за хорошие модели на 15 тысяч дороже, а все карты дешевле RX 6900 XT обгоняет. По производительности является аналогом RTX 3080 ti, которая стоит существенно дороже. Если вы сможете найти RTX 3080 ti или даже RTX 4070 от качественных производителей за те же 70 000 рублей, то берите их, получите новые технологии от Nvidia (DLSS, RT и др).

Характеристики:

  • Объем видеопамяти: 16 ГБ;

  • Тип памяти: GDDR6;

  • Версия PCI-E: 4.0;

  • Частота памяти в режиме Boost: 2250 МГц;

  • Пропускная способность памяти: 512 Гб/с

  • Скорость текстурирования: 720;

  • Энергопотребление, Вт: 300.

Эта видеокарта вам подойдёт для игр в 2K при максимальных настройках графики или в 4K, но с менее требовательными настойками. Если же вы хотите взять видеокарту для работы, то лучше доплатить и взять видеокарты от Nvidia, т.к. у них лучшая оптимизация под софт.

80 000 рублей

RTX 4070 ti
RTX 4070 ti

Начиная с такой цены стоит брать только видеокарты от Nvidia. Они быстрее AMD в играх во многом за счёт технологии DLSS 3, которая поднимает fps на десятки без потери качества; в работе с графикой Nvidia так же остаются лидировать с большим отрывом.

За 80 000 рублей вам стоит взять RTX 4070 ti. Стоит отметить, что в таком ценовом диапазоне у неё не много конкурентов: RTX 3080 или RTX 3080 ti, но эти две видеокарты больше склоняются к цене в 90 000 рублей, а DLSS 3 у RTX 4070 ti увеличивает показатели по производительности в играх, давая ей преимущество перед прошлым поколением. Поэтому я считаю, что переплачивать и брать 3080 ti точно не стоит. Тесты показывают, что прирост fps у неё либо минимальный, либо его вообще нет в отношении 4070 ti (тесты брались без DLSS 3, поэтому если эта технология будет включена, то 4070 ti будет вырываться по значению fps далеко вперёд).

Характеристики:

  • Объем видеопамяти: 12 ГБ;

  • Тип памяти: GDDR6X;

  • Версия PCI-E: 4.0 x 16;

  • Частота памяти в режиме Boost: 2250 МГц;

  • Пропускная способность памяти: 504.2 Гб/с

  • Скорость текстурирования: 720;

  • Энергопотребление, Вт: 300.

Из тестов можно сделать вывод, что RTX 4070 ti может потянуть разрешение в 4K 60fps, но только с включённым DLSS 3.

после 100 000 рублей

RTX 4080
RTX 4080

После 100 000 рублей вас ждут две отличные видеокарты: RTX 4080 и более старшая модель RTX 4090, которая является самой мощной видеокартой на рынке. Если за младшую версию вам придётся отдать около 115 000 рублей, то 4090 будит стоить вам уже значительно дороже, в пределах 150 000 и более тысяч. Эта цена слишком несправедливая и, как вариант, можно заказать эти видеокарты из-за границы, где они значительнее дешевле, но придётся пожертвовать временем, ведь в среднем они едут около 3-х месяцев.

Характеристики сравнения с RTX 4080 и 4090:

NVIDIA GeForce RTX 4080

NVIDIA GeForce RTX 4090

Объём памяти

16 ГБ

24 ГБ

Тип памяти

GDDR6X

GDDR6X

PCI Express

PCIe 4.0 x16

PCIe 4.0 x16

Пропускная способность памяти

716 GB/s

1008 GB/s

Максимальная тактовая частота

2505 MHz

2520 MHz

Скорость текстурирования

761

1290

Энергопотребление

320 W

450 W

Обе эти видеокарты способны потянуть любую современную игру на 60 fps в 4K, а для работы с графикой это лучшие видеокарты на рынке в данный момент.

Комментарии (124)


  1. ALito
    21.05.2023 22:11
    +5

    Производительность, цену рассмотрели. Это все хорошо.

    А вот надёжность как то обошли стороной.

    Среди ремонтников существует мнение, что AMD уступает в качестве NVIDIA, а некоторые модели красных, так вообще сыпятся.

    С учётом этого критерия, рейтинг может очень сильно изменится.


    1. programmerjava
      21.05.2023 22:11
      +16

      а некоторые модели красных, так вообще сыпятся

      Не могли бы вы владельцу видеокарты от amd подсказать какие модели сыпятся в данный момент ? и как в качестве уступает nvidia.

      По моему опыту как все даже лучше.

      А вот где минусы встретил только, так это в поддержке amd некоторых 3D движков для рендера (это дело годовой\двух годовой давности, сейчас может лучше). Возможно еще в каких-то классах программ поддержка в первую очередь идет nvidia с cuda,а уж потом radeon.

      Но я никогда сам не замечал за последние лет так 5, чтобы radeon уступал или даже сыпался. Зато слышал, что и дорогие nvidia переставали работать, например из-за дешевых проводов.

      Может мой опыт просто такой


      1. psionik
        21.05.2023 22:11
        -1

        одни из лучших в линейке 6000 серии это sfx, powercolor и, вроде, palit (себе брал 6900хт от sfx). очень легко можно посмотреть на одну и туже модель у этих производителей ценник значительно выше. Конкретных тестов я вам не приведу, но по моей компиляции информации в интернетах, я сам очень сильно озадачивался этим вопрос перед покупкой, эти 3 компании.

        антиподов я уже не помню, но точно Жопа Камень не брать никогда, даже если последний вариант


    1. dartraiden
      21.05.2023 22:11
      +12

      AMD уступает в качестве NVIDIA

      Немного не так. У AMD лучше компонентная база, но иногда умирает графический чип. А вот у NVIDIA наоборот — если что-то умерло, то чаще это что-то из обвязки, а не сам чип.


      И это не нужно воспринимать как "карты AMD массово мрут", такого нет. Отличие, скорее, в том, что конкретно придётся менять, если вдруг не повезет и карта помрёт (GPU менять дороже, чем какой-нибудь пробитый мосфет).


      Плюс ещё стоит учитывать объём памяти. У условной 3070 — 8 гигов, а у 6700XT — 12. Вторая карта останется играбельной дольше (дольше протянет до момента, когда производительность игр серьёзно упрётся в нехватку памяти). Тип памяти тоже играет роль — GDDR6X, которую так любит NVIDIA, серьёзно греется и далеко не всякий вендор организовывает её достаточное охлаждение.


      1. Hvorovk
        21.05.2023 22:11
        +5

        А еще Amd неплохо даунвольтятся, я свою 6800хт с 260вт до 190 опустил, и не заметил адской просадки, а вот комфорт поднялся в разы.


        1. Tarakanator
          21.05.2023 22:11

          а я 3080ti подключил к водянке, и мне пофиг сколько тепла она выделяет.


          1. PuerteMuerte
            21.05.2023 22:11
            +5

            Как человек, у которого однажды тихонько сдохла помпа, могу сказать: это до поры, до времени. Если у вас сдыхает кулер, медная/алюминиевая болванка худо-бедно и без него что-то сможет рассеять, дав чипу возможность увалиться в троттлинг, но выжить. А вот у пятака водянки теплоёмкость вообще несерьёзная.


            1. Tarakanator
              21.05.2023 22:11

              Оно выживает, проверено. Прихожу я как-то домой, слышу комп орёт. Оказалось что вода в радиаторе замёрзла и алерт по температуре проца сработал т.к. ток воды прекратился.
              Но вообще да, у меня есть желание подключить к ардуине датчик потока, чтобы при прекращении потока выключать питание компу.


              1. isden
                21.05.2023 22:11

                Если замерзла — то это ладно еще, значит был запас по температуре. А если вот так помпа тихо померла в процессе работы, то может и не повезти.


              1. PuerteMuerte
                21.05.2023 22:11

                Оно выживает, проверено.

                Ну это вы просто выиграли в лотерею. Может, потому что у вас температура вокруг была низкая, а двигатель помпы все равно работал и как-то оно там крутилось между льдом и пятаком. Я вот не выиграл. Мне кажется, в неё лучше просто не играть, выигрыш нулевой, а проигрыш весьма недешёвый.


                1. Tarakanator
                  21.05.2023 22:11

                  Ничего там не крутилось. Разве что был теплоотвод тупо за счёт толщины шлангов. у меня 10 внутренний диаметр.
                  выигрыш в сочетании тишины и производительности, и не подогревании квартиры в жару.
                  Я наблюдал как видеокарта уже при 52 градусах упирается в сочетание напряжения\температуры. А если мы говорим просто про проседание кривых частот то и там и снижение до 42 градусов давало выигрыш в частотах.
                  Температуры при тихом воздушном охлаждении недостижимые. Теоретически конечно можно вынести системник на застеклённый балкон и забить на тишину, но он у меня не застеклен.


                  1. PuerteMuerte
                    21.05.2023 22:11

                    выигрыш в сочетании тишины и производительности

                    Вы можете получить "аж" -5% к производительности, имея совершенно тихую систему на воздушном охлаждении, и не городить огород с водянками. ИМХО, водянки, это уже пережиток нулевых, или там первой половины десятых. Тем более, завтра вы поменяете видеокарту, и ваша водянка отправится на покой вместе с ней, потому что плашки под новую геометрию памяти вы не нашли.


                    и не подогревании квартиры в жару.

                    Один и тот же процессор и одна и та же видеокарта, на одной и той же частоте отдают абсолютно одинаковое количество тепла, вне зависимости от того, какая у вас система охлаждения. Более того, если ваша водянка позволяет работать на более высоких частотах, значит, она греет вашу квартиру больше, чем воздушный охлад :) Просто делает это тихо.


                    1. Tarakanator
                      21.05.2023 22:11

                      Вы можете получить "аж" -5% к производительности, имея совершенно тихую систему на воздушном охлаждении

                      1)да, только ещё видяха будет иметь при этом высокую температуру, мне её жалко.
                      2)и ещё 5% с процессора.

                      Тем более, завтра вы поменяете видеокарту, и ваша водянка отправится на покой вместе с ней, потому что плашки под новую геометрию памяти вы не нашли.

                      Не понял какую геометрию памяти. Под этой водянкой уже вторая видеокарта и третий процессор, пока водянку не выбрасывал.

                      Один и тот же процессор и одна и та же видеокарта, на одной и той же частоте отдают абсолютно одинаковое количество тепла, вне зависимости от того, какая у вас система охлаждения.

                      Да, но в случае воздушного охлаждения они выделяют тепло внутри корпуса ПК, а в случае водянки там, где стоит радиатор.


                      1. PuerteMuerte
                        21.05.2023 22:11

                        Не понял какую геометрию памяти. Под этой водянкой уже вторая видеокарта и третий процессор, пока водянку не выбрасывал.

                        Процессор — тут вопросов нет, там охлад стандартный. А память на видеокартах располагается по-разному, радиаторы между разными моделями несовместимы. Как вариант, конечно, можно память/мосфеты на видеокарте и не охлаждать водянкой, только чип накрывать, но вы же пишете, что


                        1)да, только ещё видяха будет иметь при этом высокую температуру, мне её жалко.

                        … а такой способ охлаждения её ушатывает куда больше, чем штатный радиатор с кулерами.


                        Да, но в случае воздушного охлаждения они выделяют тепло внутри корпуса ПК, а в случае водянки там, где стоит радиатор.

                        Да, и это тоже. Я же и говорю — водянка очень эффективно нагревает вашу квартиру в жару. К слову, лично у меня это вообще было проблемой, радиатор в верхнее посадочное место на корпусе не влез, только в переднее. Зимой ещё ничего, но летом ощущения были отвратительные, я вам скажу :)


                      1. Tarakanator
                        21.05.2023 22:11

                        ну да, новая видеокарта, новый водоблок на видеокарту. Неприятно конечно, но это не значит, что надо выбрасывать всю водянку.

                        Да, и это тоже. Я же и говорю — водянка очень эффективно нагревает вашу квартиру в жару.

                        И как она нагревает, если радиатор стоит вне квартиры (или вы думаете вода в нём замерзла когда он в квартире стоял?)


                      1. PuerteMuerte
                        21.05.2023 22:11

                        И как она нагревает, если радиатор стоит вне квартиры

                        Боже. Да, теперь паззл сложился. Нет, такое охлаждение действительно никому не нужно. Чесстное слово, делать дырки в окне, или что вы там сверлили, чтобы радиатор вывести, притягивать системник намертво к этому окну трубками водянки, менять водоблоки с каждой видяхой, иметь риск замерзания зимой (кстати, трубки ещё при замерзании в них жидкости лопнуть могут за милую душу), иметь риск перегрева машины летом (потому что радиатор в жару на улице в разы теряет эффективность), всё это далеко за гранью разумного.
                        И всё это, та-дам, ради плюс нескольких процентов мощности компьютера, которые вы при эксплуатации вообще никак, кроме синтетических тестов, не заметите.


            1. isden
              21.05.2023 22:11

              Ага, именно по этой причине убрал водянку после года использования. Реально уже, читал в интернетах подобные истории и параноить начинал.


      1. sizziff
        21.05.2023 22:11

        1) С пробитым мосфетом лотерея, т.к. он может убить и сам чип.

        2) Чаще всего узким местом является именно чип. Ясное дело что с большим количеством памяти, на условно говоря 5-10 фпс будет больше, но если речь идет о 35 фпс в итоге, все равно надо понижать настройки, а это само по себе снижает требование к памяти.


    1. aGGre55or
      21.05.2023 22:11
      +4

      А вот надёжность как то обошли стороной.

      И правильно сделал. Потому что сначала выбирают "что", и только затем "где". Отталкиваться надо именно от соотношения цена/производительность, что автор и сделал. Если человеку требуется большая надёжность, то он возьмёт уже известную видеокарту того производителя которого он считает надёжным. И заплатит овердофига за надёжность. Если надёжность ему никуда не упёрлась, а важна только цена и производительность, то он возьмёт уже известную видеокарту по самой низкой цене на рынке в рамках выбранного ценового диапазона. То что покупатель будет через время будет покупать новую, это - его проблемы. Не мои, не ваши и не автора.


    1. logran
      21.05.2023 22:11
      +2

      Среди ремонтников существует мнение, что AMD уступает в качестве NVIDIA, а некоторые модели красных, так вообще сыпятся.

      Надежность несомненно стоит учитывать. Особенно 3060Ti на памяти Hunix от Palit, MSI и Gigabyte. Эти точно могут рейтинг сдвинуть, причем не в пользу НеВидео...


      (но увы, CUDA есть только на них, и пока ML-сообщество не пересядет на ROCm — красные только для игрушек)


      1. khajiit
        21.05.2023 22:11

        К счастью, есть транслятор. И если cuda нужна лишь время от времени, то, возможно, имеет смысл заморочиться.


    1. EVolans
      21.05.2023 22:11

      Надежность понятие вообще относительное и сейчас рандомное. По факту берешь деньги, открываешь магазин выставляешь планку сколько у тебя денег и покупаешь - все.

      Видео это не звук, и покупается на 2-3 года, поэтому плюс минус 10% разницы никакой не сделает. Мне моего дохода всегда хватало брать хх60-70 серии нвидиа, просто продолжаю их брать и все. А уходить на амд причин нет скорее из за технологий и софта вроде куда, физикса, бродкаста, длсс и т.п, а на производительность пофиг. Если игра кривая, то никакая видяха не поможет.


      1. aGGre55or
        21.05.2023 22:11
        +1

        Дело даже не только в том, что относительное и рандомное. Неясно в каких единицах её вообще измерять. Цену измеряют в рублях, производительность - в попугаях. Никогда не видел в Internet-магазинах функции "сортировать по часам наработки на отказ". Поэтому мне неясно, что по мнению критикующих автор должен был написать "про надёжность". Своё субъективное мироощущение разве что.


        1. larasage
          21.05.2023 22:11

          DNS показывает какой-то процент возвратов. За неимением другого - можно ориентироваться на него.


    1. Ivanii
      21.05.2023 22:11
      +1

      И цены не верные, 3060 с 12 гигами и 3х летней гарантией Озон стоит 29400 р.


      1. LordDarklight
        21.05.2023 22:11

        3060 не ti - шлак и брать не рекомендуется (несмотря на 12Gb) - от них давно пытаются избавиться магазины

        Более мощные видеокарты с менее чем 12Gb памятя тоже не особо производительны!

        Цены на видеокарты Радеон до 70000 руб в статье в целом кажется несколько заниженными - реально (в Москве) они как минимум несколько дороже (а то и значительно дороже для ряда производителей)

        А вот Радеон RX7900 XT действительно сейчас можно найти менее чем за 70К рублей, что странно, даже RX6900 XT есть дороже

        (ЗЕЛЁНАЯ) Цена на видеокарты на Озон "вкусная" только по карте Озон - иначе они такие же как и в других крупных магазинах и маркетах. На Яндексе может быть ещё дороже - ну там всё стало дороже как появилась продажа "со сплитом" - так что там смотреть и приобретать смысла нет


        1. vaslobas
          21.05.2023 22:11

          Так какую видеокарту взять для нейросетей? Желательно, чтобы она была бюджетная, до 50к.


          1. LordDarklight
            21.05.2023 22:11
            +1

            из стана nVIDIA любую и последнего/предпоследнего поколения, что влезет в бюджет (ориентируйтесь на число тензорных ядер или на число ядер CUDA), ибо для нейросетей лучше QUDRO - но в бюджет они не влезут (альтернатива - RTX 4090 - но тоже не бюджетно)


  1. Stas911
    21.05.2023 22:11
    +17

    Я правильно понимаю, что CUDA все еще на NVidia и если хочется поиграться с нейросетками и популярными фреймворками - то это только NVidia или под AMD тоже уже подтянули?


    1. orekh
      21.05.2023 22:11
      +8

      Да, обычно есть две опции - запустить на CPU или запустить на Nvidia, плюс нерабочие советы по запуску на картах AMD. Как бывший владелец карты от AMD говорю: со всем что связано с нейросетями на них не поиграться.



    1. Shannon
      21.05.2023 22:11
      +2

      Зависит от задач, тот же stable diffusion можно запускать на AMD видеокартах и под линуксом и под виндой сейчас без особых проблем, и даже на встройке, и даже без каких-то сложных инструкций.


      Прямой аналог CUDA это ROCm (hip), многие популярные библиотеки уже умеют работать с ним (tensorflow-rocm, pytorch, onnx), другие начинают его добавлять. Пока, в основном, это только под линукс. Почему в основном, потому что в блендер hip под винду уже добавили, а в следующей версии rocm 5.6.0 обещали альфа поддержку винды в целом, не известно только когда она выйдет.


      Другие варианты для винды — это directml и vulkan, популярные нейросети часто могут иметь либо форки, либо изначально имели поддержку.
      Ищется через название + ncnn-vulkan. Например, нейросеть для дорисовывания кадров для 60fps RIFE (более качественная чем DAIN), изначально только для CUDA, но есть форк rife-ncnn-vulkan, работающий на любых видеокартах.


      1. dabrahabra
        21.05.2023 22:11

        А что стало с OpenCL?


  1. ShadowMaster
    21.05.2023 22:11

    Неправильно построена статья. Нужно начинать с того какая есть система, какой монитор и какое требуется качество картинки. А потом уже для этих условий и советовать конкретные карты. Если там какой-нибудь монитор 1920*1080 60 герц и какой-нибудь легендарный i7-2700K, то нет никакой разницы между GeForce 1080 и GeForce 4090. А у AMD RX6600 будут большие проблемы с pci express шиной.


    1. JPEGEC
      21.05.2023 22:11

      Не всем видеокарта интересна для качества картинки. Тем не менее разница в вычислениях меж GF1080 и RTX4090 будет более чем заметна.


      1. ShadowMaster
        21.05.2023 22:11
        +2

        Про вычисления в статье вообще ни слова. Если качество картинки не интересует, то есть встройка.

        Информация по тактовым частотам неверная. Благодаря технологиям авторазгона каждая конкретная видеокарта бустится по-своему. А еще это зависит от установок в БИОСе от производителя и подсистемы питания.

        Нужны лучи или не нужны лучи - это вообще кардинально меняет весь расклад. Фактически только 30 и 40 серия от NVIDIA.


    1. PuerteMuerte
      21.05.2023 22:11

      Неправильно построена статья. Нужно начинать с того какая есть система, какой монитор и какое требуется качество картинки

      Я, например, смысла в этом не вижу. Понятное дело, что никто всерьёз не рассматривает покупку 4090 на i7-2700K, такие маргинальные случаи можно в расчёт не брать, а для более-менее современных машин разница между топовыми и не топовыми картами очень даже есть.
      А по качеству картинки там ничего, заслуживающего внимания, нет. Для обычной работы принципиальной разницы между современными карточками вы не заметите, и даже между дискретной и встройкой уже разницы нет. А в 3D играет роль только производительность, которая достаточно линейно коррелирует с ценой, к более дорогим ещё опцией лучики добавляются. Ну и в редких случаях играет роль наличие/отсутствие CUDA.


      1. ShadowMaster
        21.05.2023 22:11
        +2

        Огромная разница по качеству картинки. Если человек готов играть без сглаживания, анизотропной фильтрации и лучей, с текстурами минимального размера, то это одно. По большому счету сгодится любая карта. Если человеку подавай самую красивую картинку, то исключительно топовые и предтоповые карты.


        1. PuerteMuerte
          21.05.2023 22:11

          Если человек готов играть без сглаживания, анизотропной фильтрации и лучей, с текстурами минимального размера, то это одно.

          Ну так это не про качество, а про бюджет. Все видеокарты в данном обзоре умеют в сглаживание, анизотропную фильтрацию и текстуры большого размера, и почти все — в лучи. А в остальном математика простая — чем ваша карта дороже, тем большее разрешение вы себе можете позволить с комфортным FPS и высоким качеством картинки.


    1. LordDarklight
      21.05.2023 22:11
      +1

      К подходу выбора оборудования можно по разному подходить. Но большинство покупателей отталкивается от бюджета. И для игрового компьютера тут правильно отталкиваться сначала от видеокарты, а уже под неё подбирать всё остальное. Но тем, кто апгрейдит старое железо путём только замены видеокарты можно лишь посочувствовать и.... опять же пусть отталкиваются от бюджета - в таких случаязх очень редко смотря на топовые видеокарты, но пытаются максимально поднять производительность из того что есть - тогда совет всё тот же - выбирать видеокарту на которую есть бюджет (если бюджет большой - от 80К - то тут лучше его всё-таки чуть увеличить хотя бы до 100К и проапгрейдить почти весь системный блок (ну там БП и диски уже по обстоятельствам менять, корпус можно не менять), ну или ставить видюху помощнее, в расчёте на то, что в недалёком будущем будет апгрейд.

      Единственное, над чем надо следить при апгрейде только видеокарты - это за версией PCI - чтобы новая видюха работала на имеющимся PCI (и надо понимать, что мощная видюха, даже поддерживающая более старую версию PCI не сможет на ней полностью раскрыться - и полный апгрейд компа в ближайшее время неизбежен).


      1. PuerteMuerte
        21.05.2023 22:11
        +1

        Единственное, над чем надо следить при апгрейде только видеокарты — это за версией PCI — чтобы новая видюха работала на имеющимся PCI

        Вот как раз на это смотреть вообще не нужно при апгрейде видеокарты. Версия PCI оказывает сколь-нибудь заметное влияние в том случае, если вы взяли мощную видеокарту, и запустили на ней что-то в режиме низкого качества, чтобы FPS был под пару сотен. Тогда на шину ложится больша нагрузка, и её производительность начинает играть роль. А в обычном режиме, когда у вас на мощной карте всё включено на максималки, и она там 60-70 кадров выдаёт, она и PCI-e 3.0 x16 не загрузит под завязку.


        1. LordDarklight
          21.05.2023 22:11
          +1

          Тесты говорят об обратном (видимо дело не только в пропускной способности)


  1. Shado_vi
    21.05.2023 22:11
    +9

    очередная подборка видеокарт для игр. но сейчас в тренде нейросети. особенно на it ресурсе.
    видеокарт amd и intel что бы опробовать нейросети потребуют дополнительных усилий так же как Nvidia с памятью меньше 8 гб.
    rtx начиная с 20 дают заметный прирост скорости работ для задач связанных с нейросети.
    каждая последующие серии(30, 40) дают по сравнению с предыдущей ~2-кратный прирост скорости, а так же могут дать возможность использовать более компактные модели.
    при этом все игроки, блогеры и т.п. удивляются например отсутствия прироста характеристик видеокарт новых серий rtx, но прирост значительный именно по работе с нейросетями.
    как бонус Nvidia выдаёт бюджетные модели с неплохим объемом памяти rtx 3060 12гб и rtx 4060 ti 16гб как раз для развития тренда нейросетей. хороши для обучения и последующего при перерастания создания спроса на более мощные видеокарты.


    1. Fedorkov
      21.05.2023 22:11
      +2

      Плюсую обеими руками. Сам в этом году впервые в жизни купил не Radeon.

      Пример Stable Diffusion и ChatGPT показал, что в любой момент может внезапно появиться нейронка, которая сразу станет строго необходимой именно в вашей профессии. При этом в условиях неопределённости совместимость (с CUDA и по объёму памяти) приоритетнее производительности.

      Так что в 2023 нужно брать GeForce с большим объёмом памяти.


    1. QtRoS
      21.05.2023 22:11
      +1

      Хочется в этот тред пригласить @LordDarklight. Очень интересно, почему 3060 это "шлак" и чем бюджетным можно заменить на задачах ИИ, давайте обсудим)


      1. LordDarklight
        21.05.2023 22:11

        3060 не ti оказалась не удачно сбалансирована - карта то нормальная - но по цене/качество - вышел шлак на фоне других предложений; в итоге nVIDIA на неё забила - давно сняла с производства чипы и не опттмизирует под неё драйверы.

        Поэтому по деньгам чуть дороже карты имеют существенный отрыв!


    1. santjagocorkez
      21.05.2023 22:11

      очередная подборка видеокарт для игр. но сейчас в тренде нейросети. особенно на it ресурсе.

      А дальше обсуждение игровых карт и ни одного упоминания Quadro. Понятно.


      1. PuerteMuerte
        21.05.2023 22:11

        А чем Квадро лучше обычных игровых карт для любого домашнего применения, учитывая, что чип там тот же самый, немного перебалансирована производительность, и основательно перебалансирована цена?


        1. LordDarklight
          21.05.2023 22:11

          Пере балансированная производительность - это для нынешних видеокарт много значит.

          Quadro карты ориентированы на совсем другие условия эксплуатации - в первую очередь на обработку большого потока данных. Для этого увеличивают число вычислительных блоков и существенно подымают объёмы памяти.

          Ну и тут совсем иная настройка драйверов и оптимизация прикладного ПО под именно архитектуру Quadro (да - серьёзные промышленные производители делают оптимизацию своего ПО не только под Quadro - но и под некоторые игровые видеокарты - но очень ограниченно и игровые видеокарты быстро выходят из списка оптимизации в будущих версиях софта, в отличии от Quadro). Поэтому для разных задач эффективно выбирать соответствующие им решения.

          Но да Quadro значительно дороже и эта оптимизация может быть не очень оправдана в сравнении с топовыми игровыми видеокартами - поэтому топовые видеокарты всегда были хорошей альтернативой для Quadro по производительности - вот только дальше надо смотреть на тепловыделение, уровень шума, количество занимаемых слотов, потребляемую мощность, количество выходных портов (и поддерживаемые разрешения картинки) и, порой, не забывать о долговечности и технической поддержке (всё же Quadro более узкий сегмент, считай корпоративный, с более индивидуальной поддержкой, правда майнинг тут сильно нанёс ущерб по гарантийному ремонту - раньше было проще; и остаточная стоимость Quadro быстрее снижается - если перепродавать как б/у - ведь изначально новые Quadro редко эксплуатируют после истечения гарантийного срока)


          1. Fedorkov
            21.05.2023 22:11

            GPU Compute Benchmark Chart

            Если выбрать вкладку Price Performance, Квадры оказываются на каком-то совершенно невероятном дне.


            1. LordDarklight
              21.05.2023 22:11

              я и не утверждал обратного


          1. PuerteMuerte
            21.05.2023 22:11

            под именно архитектуру Quadro

            Подождите, но ведь не существует никакой "архитектуры Quadro". Quadro — это те же самые карты, что и GeForce, там отличия в выставленных в BIOS частотах чипа и памяти, плюс залочка их изменения, ну и в драйверах. Из аппаратного там разве что памяти в некоторых моделях больше накинуто, да кулер другой конструкции. ИМХО, покупать Quadro есть смысл только в том случае, если вы это делаете либо на барахолке по низкой цене, или на работу за деньги компании. В остальных случаях разница в характеристиках между Quadro и соответствующей моделью из линейки GeForce ничтожна по сравнению с разницей в цене.


            1. dfgwer
              21.05.2023 22:11

              А как же двойная точность? Серверные карты имеют производительность 1/2 на fp64, когда обычные пользовательские ограничены на 1/8. Для нейросетей это неважно, 64бита точности для них не нужно. А вот научные вычисления, для них существенно. По крайней мере так было лет 5 назад, до нейронок.


              1. LordDarklight
                21.05.2023 22:11
                +1

                Хм... а вот интересная тема - действительно - у RTX 4090 CUDA блоков высокой точности FP64 с гулькин нос по сравнению с FP32 ядрами (FP16 ядер вообще нет зато есть какая-то-то оптимизация, позволяющая всё-равно выполнять их не медленнее FP32 - я тут не понял - вроде по статье следует что в 2 раза быстрее, иначе смысла нет, но в таблице указан коэффициент один к одному).

                Подробных спецификаций по актуальной, но ещё не вышедшей nVIDIA RTX 6000 ещё нет. Но можно сравнить по прошлому поколению (Ampere) для GeForce RTX 3080 ti

                Производительность FP16 = 34.10 Тфлопс

                Производительность FP32 = 34.10 Тфлопс

                Производительность FP64 = 532.8 ГФлопс

                и Quadro RTX A6000

                Производительность FP16 = 38.71 Тфлопс

                Производительность FP32 = 38.71 Тфлопс

                Производительность FP64 = 210 ГФлопс

                Очень странные значения на сайте для FP64

                Посмотрел более раннюю (на Turing) Quadro RTX 8000 

                Производительность FP16 = 32.62 Тфлопс

                Производительность FP32 = 16.31 Тфлопс

                Производительность FP64 = 509.8 ГФлопс

                явно что-то не так - поэтому посмотрел на другом сайте (и нашёл там более актуальный для сравнения GeForce 3090 ti)

                GeForce RTX 2080 Ti Turing

                FP16 (half) = 26.90 TFLOPS (2:1)

                FP32 (float) = 13.45 TFLOPS

                FP64 (double) = 420.2 GFLOPS (1:32)

                GeForce RTX 3080 Ti Ampere

                FP16 (half) = 34.10 TFLOPS (1:1)

                FP32 (float) = 34.10 TFLOPS

                FP64 (double) = 532.8 GFLOPS (1:64)

                GeForce 3090 ti Ampere

                FP16 (half) = 40.00 TFLOPS (1:1)

                FP32 (float) = 40.00 TFLOPS

                FP64 (double) = 625.0 GFLOPS (1:64)

                GeForce RTX 4090 Ada

                FP16 (half) = 82.58 TFLOPS (1:1)

                FP32 (float) = 82.58 TFLOPS

                FP64 (double) = 1290 GFLOPS (1:64)

                GeForce RTX 4090 Ti Ada

                FP16 (half) = 95.42 TFLOPS (1:1)

                FP32 (float) = 95.42 TFLOPS

                FP64 (double) = 1,491 GFLOPS (1:64)

                Quadro RTX 8000 Turing

                FP16 (half) = 32.62 TFLOPS (2:1)

                FP32 (float) = 16.31 TFLOPS

                FP64 (double) = 509.8 GFLOPS (1:32)

                RTX A6000 Ampere

                FP16 (half) = 38.71 TFLOPS (1:1)

                FP32 (float) = 38.71 TFLOPS

                FP64 (double) = 1210 GFLOPS (1:32)

                RTX 6000 Ada

                FP16 (half) = 91.06 TFLOPS (1:1)

                FP32 (float) = 91.06 TFLOPS

                FP64 (double) = 1,423 GFLOPS (1:64)

                Можно сделать вывод что в рамках одной архитектуры Quadro считает быстрее чем Титановые джефорсы (но *090 ti серии считаю ещё быстрее квадров, но только с точностями FP16 и FP32)

                Но с точностью FP64 начиная в архитектуре Amper Quadro карты считают значительно быстрее (поосто коэффициент падения производительности при удвоении точности у жефорсов стал в 2 раза выше, относительно архитектуры Turing, не не у квадров)!

                А вот в fрхитекутре Ada Lovelace опять пееревернулось - опять титановые жеворсы 4090ti считают быстрее квадров, а не титановые 4090 незначительно медленнее. И в этой архитектуре коэффициент падения производительности при удвоении точности у всех карт одинаковый (у квадров он в 2 раза стал выше чем на архитектуре Ampere).

                Вот такие вот пироги - делайте выводы.

                P.S.

                У Tesla вычислительные способности вообще не блещут

                Tesla T4 Tesla Turing

                FP16 (half) = 65.13 TFLOPS (8:1)

                FP32 (float) = 8.141 TFLOPS

                FP64 (double) = 254.4 GFLOPS (1:32)

                Tesla T10 Tesla Turing

                FP16 (half) = 17.14 TFLOPS (2:1)

                FP32 (float) = 8.571 TFLOPS

                FP64 (double) = 267.8 GFLOPS (1:32)

                Tesla T40 Tesla Turing (ещё не вышла)

                FP16 (half) = 28.75 TFLOPS (2:1)

                FP32 (float) = 14.38 TFLOPS

                FP64 (double) = 449.3 GFLOPS (1:32)

                Все значения расчётные, а не из реальных бенчмарков :-(


                1. dfgwer
                  21.05.2023 22:11

                  Немного поискал и нашел вот этот тред на реддите.
                  FP16/32/64 for some common AMD/Nvidia GPU's
                  Последнее обновление в сентябре 2022, так что без 40 серии.
                  Производительность FP64 от 1/2 до 1/32 для тесл и инстинктов. На геймерских картах 1/64 и 1/32.
                  И особняком стоит TESLA K80, c 1/3. Но это карта 2014 года, до бума нейросетей. И производительность на FP64 такая же, как у А6000, при 20 кратно низкой цене.


                  1. LordDarklight
                    21.05.2023 22:11

                    Надо признать что RADEON VII Instinct уникальный ускоритель с очень высокой производительностью вычислений с двойной точностью даже для текущего времени (а вышел он в 2019), и ориентирован он именно на вычисления (FP16 и FP32 тоже считает неплохо, почти на уровне RTX 2080TI того же времени; но в играх этот ускоритель не преуспел). Аналогов больше, наверное, нет (но я в амдешном железе не шарю).

                    Но замечу, что двойная точность - это очень специфическая вещь - в играх почти не востребовано (из-за более низко


                    1. LordDarklight
                      21.05.2023 22:11
                      +1

                      Надо признать что RADEON VII уникальный ускоритель (с прорывным для своего времени техпроцессом в 7нм) с очень высокой производительностью вычислений с двойной точностью даже для текущего времени (а вышел он в 2019), и ориентирован он именно на вычисления (FP16 и FP32 тоже считает неплохо, почти на уровне RTX 2080TI того же времени; но в играх этот ускоритель не преуспел). Аналогов больше, наверное, нет, даже серия Radeon Instinct несколько о другом

                      RADEON VII Vega 20

                      FP16 (half) = 26.88 TFLOPS (2:1)

                      FP32 (float) = 13.44 TFLOPS

                      FP64 (double) = 3.360 TFLOPS (1:4)

                      Но замечу, что двойная точность - это очень специфическая вещь - в играх почти не востребовано (из-за существенно более низкой производительности) - в основном только на инженерного рендеринга и вычислений, требующих повышенной точности в ущерб производительности.

                      Для нейронок такая точность не нужна - для нейронок нужна точность FP16 - если будет быстрее FP32 - но сейчас они обычно одинаковы с FP32, за исключение серии Tesla - там FP16 быстрее FP32 (даже быстрее чем на современных игровых ускорителях топового уровня). Впрочем у AMD есть свой ответ на Tesla:

                      Radeon INSTINCT MI100 Arcturus - там вообще запредельный FP16

                      FP16 (half) = 184.6 TFLOPS (8:1)

                      FP32 (float) = 23.07 TFLOPS

                      FP64 (double) = 11.54 TFLOPS (1:2)

                      !!! Instinct MI150 - на Reddit - это

                      Radeon Instinct MI50 Vega 20 (чуть более старая чем RADEON VII, хотя тоже 7нм - производительность у них схожая, но FP64 MI50 выдаёт в 2 раза выше)

                      FP16 (half) = 26.82 TFLOPS (2:1)

                      FP32 (float) = 13.41 TFLOPS

                      FP64 (double) = 6.705 TFLOPS (1:2)

                      Radeon Instinct MI250X Aldebaran - более современная карта - другое дело (обратите внимание на FP64 - но тут два кристалла GPU в одном корпусе)!

                      FP16 (half) = 383.0 TFLOPS (8:1)

                      FP32 (float) = 47.87 TFLOPS

                      FP64 (double) = 47.87 TFLOPS (1:1)

                      Но и цены на эти Инстинкты просто запредельные!!! Как и тепловыделение!!! И я хз где и за сколько его можно купить 250 серию!

                      вот тут ещё сводная таблица про актуальные Инстинкты (и сравнение с nVIDIA A100)

                      FP16 (half) = 77.97 TFLOPS (4:1)

                      FP32 (float) = 19.49 TFLOPS

                      FP64 (double) = 9.746 TFLOPS (1:2)


            1. LordDarklight
              21.05.2023 22:11

              Согласен, термин архитектура не правильный, но как ни странно, его употребляет сама nVIDIA на своём сайте. И более того, в последнем поколении они отказались и от термина Quadro (а ранее ещё и от термина GeForce который тоже был у Quadro видеокарт). У современных "Quadro", а ныне просто RTX 6000 (даже без буквы A перед числом) архитектура такая же как и GeForce RTX 4000-cерии - Ada Lovelace (как было и ранее Ampere, Turing, Pascal...). Правда видеокарта nVIDIA RTX 6000 пока не вышла и тут нечего сравнить даже с GForce RTX 4090.

              С остальным согласен - для рядового потребителя QUADRO прошлых поколений и уж тем более RTX 6000 слишком переоценены (особенно в России) и теряется весь смысл их приобретения.

              Для более же профессионального именно вычислительного процесса (для дата центров, без функции прямого рендеринга) есть архитектура nVIDIA Tesla и актуальная T4 (хотя по сути это всё-таки архитектура Turing). А на подходе архитектура nVIDIA Hopper (по сути уже производится nVIDIA H100) - вообще специализирующаяся на нейросетях (но эти карты в России не достать официально) - вот это уже 100% отдельная архитектура, очень отличная от остальных.

              Кстати, вот эту T4 как раз-таки тоже вполне можно было бы использовать для построения нейросетей - она для этого и спроектирована (но H100 безусловно намного круче будет) - но графический рендеринг напрямую они не выполняют - хотя могут выполнять просчёты (условно не в реальном времени, хотя на рантайм тоже рассчитаны)


              1. PuerteMuerte
                21.05.2023 22:11

                Для более же профессионального именно вычислительного процесса (для дата центров, без функции прямого рендеринга) есть архитектура nVIDIA Tesla

                Даже архитектура Tesla имеет те же "особенности", что и Quadro. У меня в кладовке ещё лежит пара несвежих тесл поколения Maxwell. Я на них играл в период майнинговой лихорадки, когда это были единственные достаточно мощные карты, которые можно было дёшево купить, потому что они не годились ни для майнинга (Maxwell ввиду своей организации выдавал аномально низкий хешрейт без всяких там блокировок), ни для игр (ибо Тесла, как приличный вычислитель, не оборудована видеовыходом). Если с неё скрутить модный красивый радиатор (предназначенный для установки в серверные корпуса), открывалась плата GeForce Titan X с некоторыми нераспаянными элементами, и наоборот, распаянными, которые отсутствуют на настоящем Титане. Ну т.е. железо у них общее. А софтово — установка правильного драйвера и некоторое подшаманивание в реестре, и вычислитель превращался в игровую карту.
                Паскалевские Теслы я в руках держал, там то же самое. Более поздние уже не пользовал, ибо цена там улетает в космос даже сейчас, но полагаю, что они вряд ли отошли от выгодной концепции "разработать одну и ту же карту, и продавать её в самые разные сегменты рынка".


                1. LordDarklight
                  21.05.2023 22:11

                  Тесла пошла в отрыв по архитектуре начиная с Turing - но до сих пор это.... всё тот же Turing - даже на картах, ожидаемых в 2023(24) году. Но это базовая архитектура. А по факту они там блоки перекраивают по разному - честно я не знаю как это всё физически устроено, но настройки блоков разные, как и разное внутреннее программное обеспечение и драйверы!

                  Если говорить о современном "Quadro" и GeForce - то по сути это всё одно и тоже и тут сейчас действительно практически нет никаких различий. Это началось с эпохи *090 карт (ранее условно *080 был топ (потом ещё ti версии появились). Сейчас же "Quadro" (а от этого названия, кстати nVIDIA ещё в прошлом поколении отказалась) - это почти тоже самое что 4090 (3090 для предыдущего поколения) - и разница тут только в настройке драйверов (и небольшой перебалансировке CUDA блоков; а так же в отбраковке чипов и последующем сервисном обслуживании, хотя гарантийные сроки идентичные). Но вот 3090ti - мощнее актуальной "Quadro" RTX A6000 (не знаю как реально будет в Ada поколении, но теоретически 4090ti будет мощнее RTX 6000 во всём... кроме разной калибровки уже под конкретные задачи - в играх явно победит 4090ti (и даже 4090 скорее всего будет хоть немного но в целом быстрее), но в расчётных задачах, оптимизированных именно под проф карту, скорее всего победит RTX 6000 (несмотря на то что технически RTX 4090ti немного мощнее). Но не думаю, что этот перевес будет существенным. А вот цены будут существенно выше на RTX 6000 - но, думаю, и надёжность, стабильность этих карт будет существенно выше, а брак ниже - это просто другой уровень потребления, где неоправданные ожидания легко не прощают.

                  Новая Tesla T40 будет уступать всем - даже общем случае RTX 3080 - так как это всё тот же Turing - но Tesla это куда более специализированная карта - у неё более узкие задачи (графическим рендерингом она не занимается) и от неё требуется ещё большая надёжность - и эти карты (за счёт более простой архитектуры) будут дешевле новых "Quadro" RTX 6000 - по идеи должны быть и дешевле RTX 4090ti, RTX 4090 (и даже RTX 3090ti и RTX 3090), но куртка очень жадный, так что это вряд ли, но хоть незначительно дешевле, чем RTX 6000, должны быть - в этом их суть - их не используют по одиночке, или даже в SLI паре - из них создают кластеры из десяток карт на специализированных мат платах (и тут даже на мелкооптовые закупки должны быть хорошие скидки) - вот такие вычислительные кластеры будут обходиться немного дешевле, чем RTX картах, при куда большем вычислительном потенциале и надёжности - но только в узкоспециализированных задачах


                  1. PuerteMuerte
                    21.05.2023 22:11

                    у неё более узкие задачи (графическим рендерингом она не занимается)

                    Почему? Тесла работает и как вычислитель, и как GPU. Только в её случае это не GPU для локального применения, а серверный GPU под виртуализацию. Например, когда инжЫнеры свои чертежи рендерят централизованно на сервере, под это тоже тесла рассчитана.


                    1. LordDarklight
                      21.05.2023 22:11

                      Чисто как рендерер Тесла слабоват уж больно - хотя виртуальный рендеринг да она могёт, и в класстерах работает очень продуктивно


                      1. PuerteMuerte
                        21.05.2023 22:11

                        Не знаю, как сейчас, но моя М40 в играх работала точно так же, как и Титан Х, с поправкой на разницу в частотах. Ну т.е. карта как карта.


        1. santjagocorkez
          21.05.2023 22:11

          домашнего применения

          Даже не знаю, как ответить на вопрос, не относящийся к:

          но сейчас в тренде нейросети

          Пожалуй, если вопрос ставить как "чем квадра лучше того, что я не обсуждал", то ответ может быть любым, будем счетать, у нас тут Undefined Behaviour. Если вопрос ставить "чем квадра лучше для любого профессионального применения?", то ответ на поверхности: это прямо проистекает из таргетирования квадры ее производителем и, полагаю, некоторой большей заботой о качестве и надежности. Это, правда, предположение, но, думаю, если б квадры были таким ненадёжным отстоем, их бы уже даже на сайте невидео давно выпилили, дабы поскорее забылся этот позор.


          1. wataru
            21.05.2023 22:11

            это прямо проистекает из таргетирования квадры ее производителем

            Ну это такой себе аргумент. Сколько раз уже производители искуственно сегментировали рынок, только чтобы собрать побольше денег с тех, с кого можно? Вполне может быть, что эти "профессиональные" карточки вообще ничем не лучше, или лучше чисто косметически, но стоят очень сильно дороже. А обычные карточки бизнесу использовать нельзя по EULA. Как, например, нельзя было обычные игровые карты NVIDIA использовать в серверах для облачного гейминга. Только потому что у нвидии от этого недополученная прибыль.


            Вполне может быть, что можно такую же производительность получить, купив 2 игровых видяхи сильно дешевле, а то и почти такую же, взяв одну топовую карточку. Поэтому надо именно сравнивать характеристики/цены/потребление энергии. Нельзя говорить, что эта карточка для профессионалов лучше только потому что нвидия ее так позиционирует.


            1. santjagocorkez
              21.05.2023 22:11

              Вполне может быть

              Но подтверждать мы это, конечно же, не будем.

              Я вот сравнил на сайте невидии:

              RTX 4090:

              - CUDA cores: 16k

              - memory bandwidth: 386 bit

              - SLI/NVLink: no

              - power consumption: 450W

              - memory amount: 24GB

              Quadro GP100:

              - CUDA cores: 5120 (допустим, это минус по числу именно CUDA)

              - Tensor cores: 640 (запишу в плюс, потому что для 4090 этого показателя нет вообще)

              - memory bandwidth: 4096 bit (это что-то запредельное)

              - memory speed: up to 870GB/s (полагаю, у 4090 сильно меньше, иначе б там тоже понтовались)

              - ECC: yes (у 4090, очевидно, нет, иначе б были понты прямо в даташите)

              - NVLink: up to 2 Quadro cores at 200GB/s (не написано: всего или на каждый, впрочем, это всё равно больше, чем 0 у 4090)

              power consumption: 250W (жрёт меньше при том, что позволяет больше)

              По даташитам выглядит, как сильно круче, чем игровая 4090 (в профессиональных задачах)

              PS:

              Это, конечно, не абсолютно любое промышленное применение, но: No Datacenter Deployment. The SOFTWARE is not licensed for datacenter deployment, except that blockchain processing in a datacenter is permitted.


              1. PuerteMuerte
                21.05.2023 22:11

                (запишу в плюс, потому что для 4090 этого показателя нет вообще)

                512 тензорных ядер там, но работают они на частоте, в два раза большей, чем GP100. Это же касается и ядер CUDA.


                memory bandwidth: 4096 bit (это что-то запредельное)

                Запредельное, ибо HBM, но у 4090, с её унылой 384-битной шиной, скорость шины памяти 1008 GB/s, против этих 870 GB/s, несмотря на все эти 4096 бит. К слову, такая же 4096-битная шина была у первой видяхи с HBM — Radeon R9 Fury. Не могу сказать, что она там прям разрывала своего более традиционного конкурента GeForce 780, ну чуток опережала, пыхая жаром.


                ECC: yes (у 4090, очевидно, нет, иначе б были понты прямо в даташите)

                Понты в даташите ограничены внутренней конкуренцией продуктов. У карт с памятью GDDR6X коррекция ошибок имеется, ну т.е. речь идет и про разного рода GeForce 3xxx, и про GeForce 4xxx.
                И хотя в данном случае вы сравниваете уже не свежую квадру со свежей топовой игровой картой (которую "в лоб" по производительности 4090 просто уничтожает), все равно даже возьмите вы свежую квадру, там будет либо примерный паритет характеристик с кратным превышением цены у квадры над игровой, либо этак +20% в производительности, но уже с аццким превышением цены.


                1. santjagocorkez
                  21.05.2023 22:11

                  И хотя в данном случае вы сравниваете уже не свежую квадру со свежей топовой игровой картой

                  https://www.nvidia.com/en-us/design-visualization/desktop-graphics/

                  Она там единственная квадра, может быть, есть и другие, но я как-то с разбегу не нашёл, где они их держат в их очень увлекательном веб-сайте с интересными конкурсами и закоулками.

                  Но, пожалуй, разница поколений объясняет, почему квадра не выглядит как болид формулы 1 против Москвич-412 на четверть-мильном заезде по прямой.

                  Что касается понтов из-за внутренней конкуренции: а точно там нет такого же процесса, как в Штеуд? Типа: внутренний контроль отбраковал чип по стабильности, он больше не может претендовать на маркировку Quadro. Более того, показатели настолько плохие, что он не может претендовать даже на 4090, и на 4080 не может. Возможно, к выходу 4070 даташиты на этот чип позволят этому замыхрышке влезть в параметры, тогда его даже не выбросят, а очень даже продадут.


                  1. PuerteMuerte
                    21.05.2023 22:11

                    Что касается понтов из-за внутренней конкуренции: а точно там нет такого же процесса, как в Штеуд?

                    Потому что чипы там действительно одни и те же, но режимы разные. В квадры идут модели с чуть большим количеством ядер, но работающие на более низких частотах. Вероятно, это даже не отбраковка, потому как зарядить все ядра и на частотах 4090 — чип просто по TDP не вытянет.


                    Вот, кстати, современный аналог 4090 из линейки Квадро — тут как раз чуть больше ядер, меньше частоты, зато и TDP меньше. И шестикратное преимущество в одинарной точности над GP100, и десятикратное по тензорным вычислениям.
                    https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/proviz-print-rtx6000-datasheet-web-2504660.pdf
                    Примерно такая же производительность и у 4090, но цена — в четыре раза ниже. Вот такая вот забавная математика.


              1. khajiit
                21.05.2023 22:11

                Но подтверждать мы это, конечно же, не будем

                А чего подтверждать, если там одни и те же чипы в разных конфигурациях, а рядовой купорос прекрасно оквадривался то карандашом, то подменой драйвера, теперь еще с подменой фирмвари (потому что пошли разные конфигурации по памяти) — с самого появления?


                Если для вас это сюрприз, то вас ждет еще много чудных открытий, вроде разлочки конвейров или допайки памяти с перепрошивкой.


              1. wataru
                21.05.2023 22:11

                Но подтверждать мы это, конечно же, не будем.

                Вам товарищи уже ответили выше. Но я и не собирался конкретно сравнивать эти карточки. Я лишь указал, что ваш аргумент является заблуждением в общем случае. Как сломанные часы иногда показывают правильное время, вполне какой-то профессиональный продукт может быть и выгоднее обывательского аналога у той же фирмы. Но это не данность. В большинстве случаев, как и в этом — это лишь сегментация рынка с целью выжать побольше денег из бизнеса.


  1. ZlobniyShurik
    21.05.2023 22:11
    +6

    Уважаемые, вы только не обижайтесь, но статья, скорее всего, устареет к концу недели :)

    Вот-вот должны официально анонсировать видюхи среднего диапазона от AMD (RX7600/7700/7800). Ну, по крайней мере, 7600 точно на этой неделе обещали.

    И, если релиз окажется не бумажным, то расстановка сил может сильно измениться - кто-то захочет прикупить свежачок, а на какие-то хорошие карты прошлогодних коллекций могут возникнуть значительные скидки (я так Vega56 за символические деньги брал).

    В общем, до рассвета совсем чуть-чуть подождать осталось ;)


    1. Hvorovk
      21.05.2023 22:11

      Могут возникнуть, а могут не возникнуть, цены могут оказаться кусачими, как на 4е поколение у печей.


    1. st1w Автор
      21.05.2023 22:11

      посмотрим


  1. ajijiadduh
    21.05.2023 22:11
    +1

    для 2k гейминга, чего не скажешь о 3060, которая комфортно себя чувствует лишь в приделах Full HD.

    чушь


    1. orekh
      21.05.2023 22:11
      +2

      можно чуть развернуть мысль?


      1. ajijiadduh
        21.05.2023 22:11
        +2

        была в пользовании 3060 (12гб) от evga, borderlands 3 и forza horizon 4 на ультрах отлично шли без просадок в 2к


  1. 13werwolf13
    21.05.2023 22:11
    +4

    nvidia - блобы, постоянные костыли, непредсказуемое поведение
    amd - драйвер (целиком) прям в ядре, последняя зафиксированная проблема года 4 назад (если не больше)

    помоему выбор очевиден, даже если бы красные уступали в производительности раза в три.. на текущий момент зелёные нужны только там где не обойтись без CUDA, и думается мне что это сильно временно..


    1. Persik1
      21.05.2023 22:11

      Я уже по инерции последние несколько лет покупал инвидиа, а потом как прозрел.


    1. nikweter
      21.05.2023 22:11
      +1

      Покупаешь АМД и после блокировки и отключения монитора получаешь бегающую мышку по черному экрану. И никак не можешь это победить. Меняешь на Нвидиа и просто работаешь.

      Выбор очевиден.


      1. Oplkill
        21.05.2023 22:11
        +2

        Меняешь на Линукс и просто работаешь.

        Выбор очевиден.


        1. nikweter
          21.05.2023 22:11
          +8

          Вы думаете я про винду писал? Это всего лишь пересказ собственных злоключений с амд видеокартой в начале года. Обычно не заморачиваюсь с выделенными, процессоры от интел со встройками использую. Но тут на работе подвернулась материнка с более мощным процессором чем у меня, но разъемов дисплэй порт не было на ней. Видюха RX550 была в наличии, воткнул и понеслось.

          Стояла Кубунту 20.04. Обновил ядро - не помогло. Шаманил с настройками по гуглу и яндексу - не помогло. Скачал что-то с сайта амд, собрал - не помогло. Обновился до Кубунту 22.04 - не помогло. Надоело перезагружаться, а оставлять экран все время работать не дело. Плюнул, принес из дома старую 1060 на тест - помогло.

          Я системным администратором более 15 лет работаю, из них 10 лет непосредственно с linux. И я не смог решить проблему с амд видео и отключением монитора на сон.


          1. izogfif
            21.05.2023 22:11

            А если просто кнопкой на мониторе отключать?


            1. nikweter
              21.05.2023 22:11
              +2

              Да, самый простой способ. Но 1060 уже была и прекрасно справляется с этой непосильной для драйверов АМД задачей.


    1. Hardcoin
      21.05.2023 22:11
      +3

      12 лет назад собирал топовый комп. Решил, что nvidia мне не нужна, т.к. красные были заметно быстрее за ту же цену, а преимущество в CUDA - сильно временно...


      1. lexa
        21.05.2023 22:11
        +2

        И это временное преимущество CUDA продолжается уже больше 15 лет....


        1. LordDarklight
          21.05.2023 22:11

          Ну, ещё лет за 15 может и прекратится


          1. dizatorr
            21.05.2023 22:11

            Через 15 лет можно и видюху поменять. :)


  1. Didimus
    21.05.2023 22:11
    +4

    И снова нет хороших карт low profile. Ну не всем подходят гробы под рабочим столом. Хотя уже дошли до usb-игровых видеокарт, о чем раньше можно было почитать только в ИА Панорама


    1. Hvorovk
      21.05.2023 22:11

      Под usb видеокартой вы подразумеваете, бокс через thunderbolt?


      1. Didimus
        21.05.2023 22:11
        +1

        Типа того. В целом желание играть на ноутбуке довольно странное, как по мне. Это как купить феррари и сзади прицеп приделать


        1. fedorro
          21.05.2023 22:11

          Как купить дом на колесах и приделать к нему прицеп с реактивным двигателем, чтобы гонять 240 FPS Км\ч ????


    1. Hlad
      21.05.2023 22:11
      +3

      А ещё нет видеокарт с пассивным охлаждением...


      1. v_chaplyak
        21.05.2023 22:11
        +1

        Большенство карт может без нагрузки(рабочий стол) отключать вентиляторы. А когда TDP >100Вт то какой пасив бы не был, нужно теплый воздух как то отводить.
        У меня, например, на асус 1650супер есть физический переключатель настроек биоса, в silent до 55градусов вентиляторы отключены


    1. avacha
      21.05.2023 22:11

      Вот кстати да. Последнее, что есть под низкий профиль - зелёная 1650 и красная 6600. Но это же курам на смех, ну ладно, никто не просит 80/90 карты, но 60-е можно же было сделать? Палит и компания выпускают "обрезки", практически квадратные, когда высота карты в слоте равна ее длине. Но низкопрофильную сделать упорно никто не хочет.


      1. Didimus
        21.05.2023 22:11

        При этом лоупрофайл это огромный рынок корпоративных машин


        1. molnij
          21.05.2023 22:11

          Огромный рынок корпоративных машин без проблем закрывается встройками. Если же нужна именно машина с графикой - то это отдельный рынок с отдельными ценами, которые ни в какой обсуждаемый бюджет не влезут


          1. Didimus
            21.05.2023 22:11

            Да ладно. Полно рабочих станций с дискретной графикой, чтобы какую-нибудь САПР крутить


  1. uzverkms
    21.05.2023 22:11
    +10

    Очень странный уклон в AMD. Да, их можно рекомендовать если по каким-то причинам пользователю не важны лучики. Или если человек увлекается играми, которые шустрее идут именно на AMD. Но в остальном доводы надуманны. Да, до уровня 3060 Ti на лучики лучше не надеяться. Или при такой карте, но с разрешением более FullHD. И ещё надо поискать игры, которым будет мало 8 ГБ видеопамяти (и то, про какое разрешение и настройки качества мы говорим?).

    Тут уже сказали про нейросети, а я ещё добавлю про аппаратный энкодер видео NVenc - тоже кому-то может быть нужно и важно.


    1. wataru
      21.05.2023 22:11
      +1

      если по каким-то причинам пользователю не важны лучики

      Вообще не понимаю, почему люди верят маркетологам нвидии. Кому вообще могут быть важны лучики?


      Производительность даже на 3090 Ti с лучами падает в разы. Настолько, что без дорисованных DLSS кадров играть некомфортно. А разницу можно разве что с лупой разглядеть. Оно хорошо видно только в очень "неграфических играх", типа квейка второго. Но даже после добавления RTX игры остаются "неграфическими".


      Эти лучики бы сильно облегчили жизнь разработчикам игр, ведь можно не ставить свет вручную, а позволить лучам все обсчитать. Но даже разработчики, по каким-то причинам, не горят желанием добавлять эти лучи — ощущение что добавляют их только те единичные из них, к кому нвидия пришла с чемоданами. Возможно встроить RTX не так и просто, плюс не у всех игроков оно есть, поэтому все-равно надо вручную свет настраивать для обычного режима.


      1. uzverkms
        21.05.2023 22:11

        Например, я по счастливом стечение обстоятельств фанатствую и по Cyberpunk 2077 и по Metro Exodus - а это флагманские проекты демонстрации RTX. Абсолютно доволен.


      1. sizziff
        21.05.2023 22:11

        ИМХО:

        Cyberpunk 2077 - с лучами лучше, вижу без микроскопа.

        Ведьмак 3 NG - разницы не вижу.


    1. izogfif
      21.05.2023 22:11

      игры, которым будет мало 8 ГБ видеопамяти

      Из недавнего - The Last of Us Part 1 для PC, ей на "medium"-настройках в разрешении 1920 x 1080 нужно 8.6-10 Гбайт видеопамяти. Помнится, было горячее обсуждение того, что нынче 8 Гбайт как раз-таки игрокам недостаточно.


  1. serafims
    21.05.2023 22:11

    А для комфортной работы в последних Autcad revit, Archicad - кто что посоветует?


    1. Sercius
      21.05.2023 22:11

      Логично посоветовать серию Quadro. Но оправдывает ли их стоимость их производительность? Нормальных тестов в САПР я нигде не видел. ИМХО они не настолько быстрее, насколько они дороже.


      1. uzverkms
        21.05.2023 22:11

        Ребята из Puget systems специализируются на таких тестах. У них на сайте можно поискать.


        1. Sercius
          21.05.2023 22:11

          посмотрел у них на сайте подборки ПК для AutCAD и их тесты. Напрямую с игровыми они не сравнивают, в подборке просто сначала указывают самую дешевую Quadro, т.к. это подходит под рекомендации производителя ПО. В среднем конфиге уже ставят RTX 4ххх, в максимальной - топовую из Quadro. При этом в тесте написано, что для САПР важен больше процессор, чем видео. Мне кажется, что для обычного черчения хватит обычной игровой либо, если позволяет бюджет, младшей модели Quadro. Если использование связано именно с моделированием и расчетом конструкций, сред, то Quadro себя оправдают.


  1. avacha
    21.05.2023 22:11
    +5

    1660 Super. 6Gb памяти на борту, уже могут наблюдаться проблемы с современными играми. Сейчас еще работает, но запаса на будущее уже нет. Альтернатива за подобные деньги? 2060 Super, насколько подтверждают хабравчане. При том, что 2060 Super на редкость удачная карта в плане баланса - шина 256бит (а не 192 и не 128), 8 Гб памяти пока еще выглядит приемлемо (хотя бы можно объяснить своей внутренней жабе смысл вообще платить за карту), по производительности она практически впритык и даже чуть быстрее, на уровне погрешности (55 место в рейтинге производительности technical.city), обычной 2070 (61), и сильно отличается от обычной 2060 (65). Но, конечно, не дотягивает до 2070 Super (41).

    Далее, если рассматривать варианты "до 20.000" рублей - то стоит рассмотреть 1080 Ti. Прежде чем говорить что это первое поколение, следует иметь в виду, что это не совсем так. В отличие от остальных карт 10хх, 1080 Ti выпущена "особняком", на год позже - в 2017 году. Для понимания вопроса - 20хх поколение вышло всего через год после нее, в 2018 году. Умеренное (относительно 3 и 4 поколения) потребление, 11Гб памяти, отличная широченная шина в 352bit, не сильная критичность к поколениям PCI-E шины, и честная мощь сырой производительности без "этих всяких DLSS" - позволяют и сейчас уверенно держать планку в сегменте до 20.000 рублей, выдавая производительность чуть быстрее, чем "народная" 3060 12Gb (49) , удерживая место в топ-40 рейтинга карт (39). При том, что 11Гб памяти на борту вполне позволяют не задумываться о смене адаптера в ближайшее время, если того не потребует зудящая душа хозяина.


  1. Komrus
    21.05.2023 22:11
    +2

    Название статьи всё же лучше поменять и написать "Какую видеокарту лучше брать ДЛЯ ИГР в 2023 году?"
    Ибо в других задачах разница 3...5 процентов в производительности легко перекрывается проблемами (или их отсутствием) от драйверов, надёжности или заточенности под конкретную прикладную софтину...

    Учитывая, что статья "из песочницы" поставлю плюх плюс :) и просто порекомендую автору в его будущих статьях вдумчиво рассматривать и другие варианты использования видеокарт: 3D проектирование, 3D-моделирование, нейросети.
    PS. "Вдумчиво" - это не ссылка на видеоролик, а результаты тестов и описание опыта использования...


  1. Roland21
    21.05.2023 22:11
    +1

    Есть какие-н карты толщиной до 46-47мм лучше 6700xt?
    По поводу объема памяти - большой объем нужен за пределами фуллхд только, а карты нормально тянущие такое разрешение уже его имеют. У меня 6700хт как раз - в том же Хогвартсе на ультрах ядро работает на 70+% процентах при максимальной загрузке памяти в 30%


    1. LordDarklight
      21.05.2023 22:11

      от 12Gb достаточно современным играм для FHD без привлечения DLSS/FidelityFX (но эти технологии нужны уже для 4K - для получения FHD из более низкого разрешения будет шлак; а вообще-то эти технологии создавались как минимум для 8K - на 4K их просто отрабатывают, т.к. 8K пока оказался не удел)

      Играм 2-3 летней давности сгодится и 8Gb, но многие из них пойдут более-менее нормально и на 4Gb (если за качеством графики не гнаться)


  1. aceofspades88
    21.05.2023 22:11

    Какую видеокарту лучше брать в 2023 году?

    видеокарту лучше брать последнюю в любом году, так же как и другую электронику


    1. LordDarklight
      21.05.2023 22:11
      +1

      Совершенно далеко не всегда так про видеокарты. И уж тем более про любую электронику в целом


  1. BerdBerd
    21.05.2023 22:11

    Было похоже на рекламу AMD.

    Сравнения какие-то вялые...


    1. LordDarklight
      21.05.2023 22:11
      +2

      Сейчас на разных сайтах полно подобных статей и все с одинаковым выводом

      Ничего нового - карты AMD Radeon давно уже несколько превосходят карты nVIDIA по соотношению цена/качество (заметно где-то через год после появления в продаже примерно всей линейки обоих конкурентов, т.к. когда проходит накрутка на новизну, а сторонние тесты производительности всё расставляют по своим местам, но спрос на зелёных давно выше, чем на красных - вот и идут скидки у красных).

      Но есть три нюанса:

      1. Это всё верно без сравнения рейтрейсинга (и иных случаев аппаратного использования тензорных ядер) - у AMD RADEON нет тензорных ядер со всеми вытекающими

      2. Топовая (и около того) производительность за nVIDIA и даже в околотопом сегменте AMD RADEON'у ту не то что попугаями помериться, но и даже подемпинговать не получается. Особенно это актуально для рейтрейсинга - тут топовые nVIDIA далеко впереди

      3. Есть игры (и и бенчмарки) которые априори оптимизированы в ту или иную архитектуру (чаще всего в сторону nVIDIA) - тут ничего не поделаешь (вероятно nVIDIA специально работает с разработчиками), но таких игр сейчас не много (в стане зелёных) т.к. в основном все все игроделы ААА проектов ориентируются на консоли - а там очень важно делать оптимизацию под AMD (исключение - эксклюзивы для Nintendo Switch), на nVIDIA в основном быстрее работают игры, где в основе лежат старые наработки (движки)

      Ну и надо иметь в виду, что в плюсах у зелёных в 4000 серии отличный DLSS 3.0, а в плюсе у красных в серии 7000 отличная оптимизация под Vulkan (а у nVIDIA Вулкан хоть и поддерживается на на отъе....сь так себе, зато вычисления эффективнее на картах nVIDIA (но тут уже вопрос соотношения цена/производительность)


  1. LuggerFormas
    21.05.2023 22:11

    Не, не убедил. Вместо 4080 4090 с шиной 256 взял 3080Ti с полноразмерной 384 - поколение 40-- старшая линейка усаживается в младшую часть 30-- по шине, 4Гб памяти этого не окупает.

    4080 - это 3060, 4090 == 3070, prove me wrong.


    1. sizziff
      21.05.2023 22:11
      +1

      4080 усаживает в легкую 3090Ti, до включения FG, практически во всех играх. Шина это хорошо, но шину делают для ГПУ а не ГПУ для шины.


    1. 1dNDN
      21.05.2023 22:11

      4080 — это 3060, 4090 == 3070, prove me wrong.

      4080 vs 3060

      4090 vs 3070


  1. dizatorr
    21.05.2023 22:11

    Не хватает категории до 10 000руб.


    1. LordDarklight
      21.05.2023 22:11
      +1

      Условно до десятки это встройка APU от AMD

      В стане Intel это Irbis (но с APU AMD на данный момент он не сравнится)

      В стане nVIDIA.... ну как бы нет десктопных APU


  1. NAI
    21.05.2023 22:11
    +1

    Эхх, лучеб статью написали о видяхах для ML. Мол как в домашних нищебродских условиях набрать что-нибудь под 32\48+ vram


    1. LordDarklight
      21.05.2023 22:11

      В нищебродcких условиях наверное это не возможно! Это как минимум RTX 3080, а то RTX 4090

      Но для домашнего ML можете поискать в Китае б/у карты после майнинга - для этих целей сгодятся. Так же можно поискать старые Tesla или Quadro - такие б/у сильно дешевле аналогичных новых. Но только на архитектуре не ниже Turing


      1. NAI
        21.05.2023 22:11

        Это как минимум RTX 3080

        3080 же не имеет nvlink'а так что на ней не получится собрать. А вот 2080 вроде вполне годится

        Китае б/у карты после майнинга - для этих целей сгодятся. Так же можно поискать старые Tesla или Quadro - такие б/у

        в целом и хотелось бы статьи на эту тему


        1. LordDarklight
          21.05.2023 22:11

          3080 же не имеет nvlink'а так что на ней не получится собрать. А вот 2080 вроде вполне годится

          В нищебродских условиях из GeForce'ов вычислительные кластеры не собирают!