Nvidia — весьма успешная корпорация, одна из самых богатых в мире. За её продукцией, в особенности чипами вроде H100 и A100, выстраиваются очереди из представителей Google, Microsoft и т. п. Всё это говорит о том, что руководство Nvidia понимает, как правильно работать, инженеры грамотные, да и продажники отличные. Но даже у такой компании бывают неудачи. Например, видеокарты. Сегодня поговорим о худших графических адаптерах от Nvidia в её истории.
GeForce RTX 3080
На первый взгляд — неплохая карта. Для серии RTX 30 компания Nvidia разработала новую архитектуру Ampere, которая помогла решить большое количество проблем чипов RTX 20-й серии на базе Turing. Кроме того, чипы стали выпускать по 8-нм техпроцессу, что означало большую производительность с улучшенной энергоэффективностью.
В сентябре 2020 года компания запустила в продажу модели RTX 3080 и 3090. 3080 за $699 был примерно на одном уровне с 3090 за $1 499. Кроме того, эта карта производительнее RTX 2080 Ti — как в играх с трассировкой лучей, так и без неё. Многие эксперты положительно оценили карту, поскольку она была действительно неплохая.
Почему она вошла в список? После выхода видеокарты оказалось, что купить её по рекомендованной цене практически невозможно. Коронавирусная пандемия и эпидемия криптомайнинга привели к сильному удорожанию карт. Цена модели поднялась выше $1 500. Даже после завершения пандемии, спустя два года после выхода карты, её стоимость не опускалась ниже $699.
Когда же её смогли, наконец, опробовать обычные геймеры, т. е. после завершения дефицита, оказалось, что адаптеру не хватает объёма памяти, особенно это актуально для последних тайтлов. Плюс ко всему у ряда карт этой серии установлено бюджетное охлаждение, которого явно недостаточно для мощного чипа.
В целом, всё это сделало GeForce RTX 3080 одной из самых неудачных в истории компании. Подавляющее большинство геймеров так и не познакомилось с ней.
GeForce RTX 4060 Ti
Несмотря на то, что это относительно новый продукт, видеокарта поступила в продажу всего полгода назад, её уже можно назвать неудачной. При этом у неё есть положительные качества. Например, видеоадаптер производительнее, чем карты 30-й серии. Также компоновка чипа в три раза плотнее, чем у GA104. Но есть и проблемы, причём большинство снова связано с памятью.
Существует две разновидности модели 4060 Ti: одна поставляется с 8 Гб видеопамяти, вторая — с 16 Гб. Очевидно, что 8 Гб уже явно недостаточно, тем более мы только что говорили об аналогичных проблемах предыдущего поколения адаптеров. А вот GeForce RTX 4060 Ti с 16 Гб стоит на $100 больше, что уже сильно бьёт по карману.
Но здесь ещё и экономия на мелочах. Например, установлена 128-битная шина, что означает вдвое меньшую, чем у карт предыдущего поколения, пропускную способность — 288 ГБ/с, а не 448 ГБ/с. Кроме того, у 4060 Ti только восемь линий PCIe вместо 16.
В итоге эта модель является аналогом RTX 3070 без увеличенной производительности и поддержки DLSS 3 Frame Generation. Таким образом, мы получили дорогой аналог предыдущего поколения карт без особых улучшений. Всё было бы ок, если Nvidia выпустила бы эти модели с ёмкостью видеопамяти 12 Гб и 192-битной шиной. Но нет, производитель решил сэкономить, в итоге карта получилась неудачной.
GeForce RTX 2080
Адаптеры 20-й серии RTX можно было бы назвать прорывом в гейминге. Дело в том, что это первые видеокарты с трассировкой лучей. Эту технологию даже стали называть «Святым Граалем» графики в играх.
Но за эту революцию в дизайне пришлось платить, причём не производителю, а покупателям. Так, карты серии RTX были очень дорогими. Например, RTX 2080 Ti дебютировала по цене $1 199. Ни одна из видеокарт компании ранее не продавалась по настолько высокой стоимости.
Кроме того, на момент выхода графического адаптера практически не было игр с поддержкой трассировки лучей. И прошло немало времени, прежде чем такие тайтлы появились. Единственная игра 2018 года, предлагающая трассировку лучей, Battlefield V, не показывала всех преимуществ технологии.
В целом, новые графические адаптеры были более производительными, чем видеокарты предыдущего поколения. Но стоили они столько, что многие геймеры предпочитали не обновляться, прямой выгоды от апгрейда не было, а вот тратиться приходилось изрядно.
Кстати, даже спустя много месяцев после выхода этого поколения адаптеров трассировка лучей была добавлена лишь в небольшое количество игр. Та же Atomic Heart, несмотря на многочисленные демки с поддержкой технологии, вышла без трассировки, разработчики пообещали добавить всё это позже. По статистике, даже сегодня лишь 37% пользователей RTX 20-й серии включают трассировку лучей.
Что было действительно прорывным в 20-й серии, так это Deep Learning Super Sampling, или DLSS. Старт технологии тоже был непростым, но сегодня она интегрирована в более чем 500 игр и отлично работает. Может быть, Nvidia следовало бы уделять больше внимания DLSS, чем трассировке лучей.
В целом, главный недостаток этого поколения графических адаптеров — неоправданно высокая цена. Если бы не это, то карта вряд попала бы в список.
GeForce GTX 480
А это уже дела давно минувших дней. И для того времени это был флагман, но очень горячий, в прямом смысле слова. Энергоэффективность чипа была крайне низкой, потребляла карта около 300 Вт, что соответствовало уровню энергопотребления конкурента — HD 5970 сразу с двумя графическими процессорами.
Штатный кулер очертаниями несколько напоминал гриль, что стало поводом для насмешек и мемчиков. Создавались видео с готовкой при помощи видеокарты и т. п. В общем, это было не лучшее время для того, чтобы продвигать эти адаптеры. Перегрев влиял на выход карт из строя, что крайне расстраивало геймеров.
В конечном счёте компании пришлось срочно давать рынку другие карты, ими стали адаптеры серии GTX 500 с доработанной архитектурой Fermi. Одна из них, GTX 580, тоже потребляла 300 Вт при росте производительности всего на 10%. Тем не менее остальные модели новой серии имели лучшую энергоэффективность.
Неудача повлияла на долю рынка компании — AMD тогда была очень близка к тому, чтобы обогнать Nvidia, чего не случалось с середины 2000-х годов. Несмотря на всё это, Nvidia по-прежнему оставалась весьма прибыльной компанией, так что ей удалось выйти почти сухой из воды. Более того, используя опыт неудачи, она смогла улучшить качество своей продукции в следующих поколениях адаптеров.
GeForce FX 5800 Ultra
В начале 2003 года у Nvidia были проблемы — компания AMD выпустила на рынок отличные графические адаптеры серии Radeon 9000. Чип производился по 150-нм техпроцессу, Nvidia удалось выпустить достойного конкурента лишь после перехода на 130-нм техпроцесс.
Но в стремлении побыстрее представить альтернативу, а также удешевить её производство компания оставила низкую пропускную способность карты — 16 ГБ/с по сравнению с почти 20 ГБ/с у 9700 Pro. Была также проблема, из-за которой анизотропная фильтрация выглядела не очень хорошо, что стало ещё одним недостатком нового адаптера.
Но главный минус в том, что у карты было огромное для того времени энергопотребление в 75 Вт. Установленный вентилятор шумел так, что этот звук сравнивали с шумом от работы пылесоса или воздуходувки для листьев. Тогда появились и мемы на эту тему — один из них как раз и размещён выше.
Недостатки привели к тому, что Nvidia быстро приступили к разработке нового адаптера. И на этот раз всё получилось — в продаже всего через полгода появился новый, улучшенный флагман GeForce FX 5900 Ultra. Графический процессор имел огромную для того времени пропускную способность 27 ГБ/с, исправленные драйверы и гораздо более разумное энергопотребление — около 60 Вт.
А какую видеокарту от Nvidia из тех моделей, что опробовали сами, вы бы назвали неудачной?
Комментарии (62)
AquariusStar
25.12.2023 07:03«В начале 2003 года у Nvidia были проблемы — компания AMD выпустила на рынок отличные графические адаптеры серии Radeon 9000.»
Простите? В 2003 AMD только процессоры пилила. А радиками занималась канадская компания ATI. Это только потом ATI стала частью AMD.
mimicate
25.12.2023 07:03Интересно, что статья очень похожа на материал от Tom's Hardware, вплоть до последовательности GPU :)
Было бы неплохо оставить ссылку на оригинал, я считаю
MessirB
25.12.2023 07:03У FX 5800 Ultra (да и вообще у всей линейки FX того времени) главной проблемой была не низкая пропускная способность памяти, а крайне медленная работа пиксельных шейдеров второй версии. Для этой серии карт в той же Half-Life 2 опция вторых шейдеров была по умолчанию недоступна (хотя можно было включить принудительно) именно из-за того, что даже у FX 5900 производительность при их включении была хуже чем у самых бюджетных карт конкурента в лице ATI.
Dimsml
25.12.2023 07:03Ещё была затычка FX5200, вроде как и FX, и 5000 серии, но производительность у неё была плохая, чуть ли не с MX440 её сравнивали, а та тоже была тем ещё мемом уровня "Мы вам наврали, она хуже чем предыдущие серии!" Насколько я помню, там даже аппаратное ускорение шейдеров не завезли.
Были дефектные 8600GT, которые перегревались. Причем сначала говорили, что только в ноутбуках, потом что есть дефектные и на десктопах, а потом мне досталась бесплатно подобная, у неё были какие-то кривые драйверы, она вылетала в синий экран, причём помогала переустановка, но только на один раз. Я так и не понял в чём дело было, избавился от неё точно так же, получив от кого-то старую 8800.
Были карты GTX970, в которых было 4Гб памяти, но после 3.5 гигабайт происходила какая-то магия и память начинала тормозить.
Были GT1030, отличные низкопрофильные однослотовые затычки (сейчас вроде лучше найти AMD Radeon 6400 или что-то от Интел), если бы не одно но: были версии с GDDR5 и с DDR4. Причём различались они только ID на самой карте (ну или в описании), обе нагло продавались как GT1030.
Плавящиеся разъёмы в 4090 туда же.
MessirB
25.12.2023 07:03С затычкой FX 5200 была совершенно глупая ситуация. Их было две разных и отличались они шириной шины памяти - у нормальной была 128 битная шина, а у огрызка 64 битная. По производительности они отличались очень ощутимо, а вот по названию не отличались вообще никак, все они были просто FX 5200, никаких XT, LE и тому подобных окончаний они изначально не имели. Да, в последствии появились FX 5100, FX 5200 LE которые точно были с 64 битной шиной и Ultra которая точно была со 128 битной шиной. Однако ситуацию это особо не изменило, под названием FX 5200 всё так же попадались оба варианта.
Надо сказать, что "нормальная" версия по уровню производительности была примерно на уровне MX 440 (которую ругали не за производительность а за отсутствие шейдеров в первую очередь), но в отличие от нее позволяла играть в первые игры которые без поддержи шейдеров не запускались, например те же Silent Hill 3 и Halo: Combat Evolved.
PuerteMuerte
25.12.2023 07:03У меня была 5200 128 бит. Видяха как видяха. По скорости не фонтан, но цена/производительность у неё были вкусные. Морровинд тянула со всеми плагинами-украшалками
DMGarikk
25.12.2023 07:03MX 440 (которую ругали не за производительность а за отсутствие шейдеров в первую очередь),
особенно если вспомнить что Gf4 MX440 фактически была разогнанной версией Gf2
Маркетинг такой маркетинг...
MessirB
25.12.2023 07:03Она была чуть измененной версией Geforce 2 MX 400, которой подняли частоты и вместо памяти SDRAM поставили DDR.
Hlad
25.12.2023 07:03"За всю историю компании" - это мощно. Автор явно не слышал ни про Riva128, ни про MX480...
PuerteMuerte
25.12.2023 07:03А разве Riva128 была неудачной? По-моему, вполне себе популярный мейнстрим своего времени, с хорошим сочетанием цена/производительность
Hlad
25.12.2023 07:03У неё дрова были так себе, которые конфликтовали со всем подряд. У меня самого была такая видеокарта, хорошо помню, как с ними мучился... :(
DMGarikk
25.12.2023 07:03в те годы мало у кого нормальные дрова были ;) кто там конкурент ривы то был адекватный, вуду1?
потому что дичь типа Savage и прочих непоймикаких ускорителей..были еще хуже
а во времена ривы Diamond отметился со своим сверхкривым софтом
Hlad
25.12.2023 07:03Рива128 - это примерно Вуду2, насколько помню. И вот как раз она была офигительна.
MessirB
25.12.2023 07:03Она до первой вуду по производительности не дотягивала вообще никак.
Hlad
25.12.2023 07:03Я имел ввиду, что рива128 - современник вуду2.
PuerteMuerte
25.12.2023 07:03Рива128, это первая половина 1997 года, она с первым вуду соперничала. Вуду2 вышла в 1998, и там уже РиваТНТ через пару месяцев подоспела.
Hlad
25.12.2023 07:03Честно говоря, я таких нюансов не помню. Помню, что мы с однокурсником одновременно видюхи покупали - я на Риве128, а он на Вуду2. И разница в играх была поразительная в пользу Вуду, я тогда сильно расстраивался
PuerteMuerte
25.12.2023 07:03У неё дрова были так себе, которые конфликтовали со всем подряд
Это у вас ещё не было PowerVR или Rendition Verite. У Ривы дрова были ещё ого-го.
MessirB
25.12.2023 07:03У меня был (и до сих пор есть) Matrox M3D, который PowerVR PCX2. Поддержка Deirect3D у него была максимально отвратительной, зато был офигенный минипорт драйвер OpenGL, который позволял рубиться во все игры сделанные на движке первого\второго квейка, включая Half-Life, а еще в играх на движке Unreal была поддержка нативного API этой карты (вернее была в первом Unreal и можно было перенести в другие игры) с которым она по производительности приближалась к первой вуду.
Про какой именно Rendition Verite вы говорите? У меня есть V2200 - офигительная карточка, никаких проблем с Direct3D и OpenGL, производительность вполне сравнима с Voodoo Graphics, хотя конечно Verite вышла позже. Как по мне, эта карта намного лучше чем та же Riva 128.
qw1
25.12.2023 07:03Ожидал увидеть 4090 с её плавящимся разъёмом питания.
K0styan
25.12.2023 07:03Или те, у которых чип отваливался - если склероз не подводит, ноутбучные этим особо страдали...
SergeyMax
25.12.2023 07:03Ожидал увидеть 4090 с её плавящимся разъёмом питания.
Хайп закончился, разъёмы тоже плавиться перестали
DarkNews
25.12.2023 07:03Не перестали кстати, судя по ответам СЦ, даже новости пробегали что это по прежнему вполне себе встречающаяся проблема.
beeruser
25.12.2023 07:03Ничего не перестало. Пост месячной давности:
NorthridgeFix has disclosed that they still get "20 to 25 graphics cards per week" which is a shocking amount.
https://wccftech.com/hundreds-nvidia-geforce-rtx-4090-gpus-still-prone-to-12vhpwr-connector-issues/
Производитель БП советует феном прогревать провода при подключении таких карт :)
https://knowledge.seasonic.com/article/72-psu-recommendations-for-nvidia-rtx-4000-cards
ZirakZigil
25.12.2023 07:03A common reason why consumers are facing the problem in the first place is that the power connectors are not fully plugged into the graphics card, which results in a poor contact force resulting in disruptions within the power delivery process.
Втыкайте правильно, не гните, не покупайте ноунейм китайские переходники и будет вам счастье.
nidalee
25.12.2023 07:03не покупайте ноунейм китайские переходники и будет вам счастье.
Сижу уже год на чудесном китайском переходнике с БП Corsair на 1 12VHPWR, прекрасно работает, в отличие от поделок бракоделов CableMod. :)
Что касается расплавленных разьемов, то вне зависимости от кабеля и\или переходника не помешает настроить мониторинг GPU 16-pin 12VHPWR Voltage. Упал ниже 11.9V - shutdown.
beeruser
25.12.2023 07:03...не трогайте провода в полнолуние и не дышите.
Хотите сказать что 100 карт с конкретнй проблемой в месяц у ОДНОЙ ремонтной конторы это случайность? Почему за все годы существования 3D акселераторов ничего подобного не случалось?
не покупайте ноунейм китайские переходники и будет вам счастье.
Не использовать кабель от самой Nvidia?
Что вы посоветуете человеку, у которого переходник расплавился через год?
VADemon
25.12.2023 07:03https://www.igorslab.de/en/smoldering-headers-on-nvidias-geforce-rtx-4090/ о свойствах разъема и способах сэкономить.
rubinstein
25.12.2023 07:03Это можно с натяжкой приплести к статье. Плохой разъём не значит плохая плохой чип. 4090 даёт удивительный прирост производительности и между ней и 4080 просто пропасть.
ShadowMaster
25.12.2023 07:03Абсолютно и полностью бредовый рейтинг в первых трех позициях. Каким это местом 20 и 30 серия провальные, если их скупали на корню майнеры?
А вот что следовало бы включить так это не только 5800 Ultra, но и 5900 и 5950. Они были получше, но проблемы не решали. Окончательно проблему с шейдерами решили только карты 6800.
Если претензии к цене, то советую вспомнить двухчиповых монстров начиная с 7950GX2. Если претензии к производительности, то советую вспомнить какую-нибудь MX440, которая устарела в момент выхода, у которой не было вообще никаких шейдеров, маловато памяти, усеченная шина памяти, тем не менее отлично продавалась.
seepeeyou
25.12.2023 07:03Ахахах короче все карты восьмой (топовой) серии - говно, потому что дораха))) Ну видно титанические умственные усилиия, затраченные на написание статьи, ставлю лайк
SkywardFire
25.12.2023 07:03В начале 2003 года у Nvidia были проблемы — компания AMD выпустила на рынок отличные графические адаптеры серии Radeon 9000
Странно, а как компания AMD могла выпустить продукт другого производителя?)
Ну а вообще зашел посмотреть, будет ли упомянута линейка FX, и да, упомянули. Я смутно припоминаю, были слухи, что линейка получилась горячей потому, что была основана на технологиях 3dfx, спешно модифицированных инженерами Nvidia.
darthgrey
25.12.2023 07:03В списке только FX5800 имеет право присутствовать, как и остальные карты этой серии, вчистую сливавшие конкуренту в играх со вторыми шейдерами, но при этом все равно неплохо продававшиеся. А где NV1, на которой история Nvidia могла и закончиться? Ну с натяжкой еще GTX480, да, хотя там проблема только в температуре была, производительность была неплохой и карты были довольно живучими. А в остальном - все модели успешный успех в финансовом плане, в итоге все пришло к игровым картам за 1500$+ на отбракованных чипах, которые расхватывают, как горячие пирожки и к тому, что одно и тоже по сути продается по несколько раз за свой жизненный цикл.
TitovVN1974
25.12.2023 07:03Nvidia NV1, дальше нормально. Riva128 у меня была - в общем хорошие впечатления. FX 5200 - да, медленная, я тестировал ))
cyreex
25.12.2023 07:03FX5900 Ultra не существовало. Были FX5900, FX5900XT и FX5950 Ultra.
DMGarikk
25.12.2023 07:03cyreex
25.12.2023 07:03И тут же ссылка на asus v9950 Ultra:
https://www.techpowerup.com/gpu-specs/asus-v9950-ultra.b1809
тут тоже указано, что у нее GPU FX5900 Ultra. Но она у меня есть, и в ней совершенно точно FX5950 Ultra.
DMGarikk
25.12.2023 07:03я дал вам ссылку на референсную карту на которую куча обзоров есть, то что там на сайте в связанных продуктах есть асус, еще не значит что он был единственным продуктом на чипе этой линейки (и то судя по вики он даже не от того семейства)
также
на вики тоже ошибаются? https://en.wikipedia.org/wiki/List_of_Nvidia_graphics_processing_units
более того 5900Ultra это NV35, а 5950 ultra это NV38
cyreex
25.12.2023 07:03https://retro-pc.by/viewtopic.php?p=14612&hilit=5950#p14612
По ссылке фото GPU v9950 ultra. Но да, я был не прав, нашел фото с 5900 ultra!
https://vccollection.ru/wp-content/uploads/2019/05/fx_5900_ultra-pcb.jpg
hyperwolf
25.12.2023 07:03Я бы закинул сюда еще GTX295, двухчиповый монстр с лютой прожорливостью и даже по тем меркам мелким объемом vram.
rubinstein
Про 3080 явно сморозил...
reallord
Да уж, очень странные оценки по картам. 3080 на 12Гб памяти отлично живут себе и стоят сейчас отнюдь не космических денег.
immortal555
Я и к 4060Ti претензий не понимаю. Впервые с 10й серии xx60-е карты вернули в нормальный теплопакет и снизили неуемный жор энергии чуть ли не в 2 раза. При этом не потеряв ничего и даже немного улучшив производительность относительно предыдущей серии на уровень выше.
bezdnacom
Потому что урезанная шина PCI-e на 8 линий да ещё и урезанная шина памяти, мало VRAM (да 8гб в 2023 это уже мало для FHD, что уж говорить про 2к+), разница с предыдущим поколением по производительности не впечатляет.
Sequoza
4060 - это скорее про энергоэффективность, чем производительность. Зайдет тем, кому не хочется иметь дома здоровенный шумящий ящик. Цена как бы намекает.
bezdnacom
У меня 3060 Ti от MSI. По сравнению с ноутбуком, который у меня раньше был, этом бесшумная коробочка.
DarkNews
Ну так речь про 4060ti.
Если 4060 еще можно простить 8гб, у нее и ценик упал относительно 3060, и производителность чуть выше, то 4060ti - полная помойка, с 8гб, производительностью иногда уступающей 3060ti, и это за тот же прайс в следующем поколении.
Это провал и дно дна.
Sequoza
200W(3060Ti) vs 160W(4060Ti), при этом ещё увеличилась производительность. Как по мне, так провалом это сложно назвать. Для тех, кто хочет небольшую машинку, на которой можно что-то иногда запускать.
bezdnacom
40W это небольшая разница + как вам уже сказали разница в производительности оставляет желать лучшего. Мало того 4060Ti это не тот класс видеокарт "что-то иногда запускать"
Sequoza
Зашел на ютуб, посмотрел бенчмарки. Чуть быстрее 3060 Ti. По стоимости примерно те же $350 - $400.
С 10 серии не следил, но было так xx50 - затычка, xx60 - бюджетный гейминг, xx70 - можно было играть в "заветные 60fps", xx80 - максимальные настройки. На xx90 можно уже вроде как комфортно с лучами играть.
Помню, на 1060 6gb играл в ведьмака 42-60 fps на средне-высоких настройках в 1080p. Не 1070-80, конечно, зато не грелась и не было слышно почти никогда. Оно и сейчас так, как я посмотрю.
bezdnacom
Так именно! Чуть быстрее, но стоит также. В чем смысл её брать если NVidia ничего не дали, а только забрали? (шину PCI-e, шину памяти и т.д.)
Вот потом все и поменялось. 20-я линейка считается лучшей, а 30-я на фоне 40-й не такой уж и плохой.
xx50Ti ~ xx60, xx60Ti ~ xx70 и т.д. так что 4060Ti не подходит под определение "иногда что-то запускать"
DarkNews
В 1440 увеличение проивзодительности крайне незначительно, можно считать что его нет.
40вт - ерунда, особенно учитывая то что 3000 серия лучше поддается андервольтингу без падения производительности.
И все это на самом деле хрень полная, прироста в производительности - нет.
4090 например = 3090ti по потреблению, вот только прирост производителности огромен.
nidalee
На 12 отлично живут. А я вот со своей 3080 10ГБ слез с большим облегчением.
DrGluck07
Да, непонятно как 3080 виновата в буме майнинга.