Nvidia — весьма успешная корпорация, одна из самых богатых в мире. За её продукцией, в особенности чипами вроде H100 и A100, выстраиваются очереди из представителей Google, Microsoft и т. п. Всё это говорит о том, что руководство Nvidia понимает, как правильно работать, инженеры грамотные, да и продажники отличные. Но даже у такой компании бывают неудачи. Например, видеокарты. Сегодня поговорим о худших графических адаптерах от Nvidia в её истории.

GeForce RTX 3080

На первый взгляд — неплохая карта. Для серии RTX 30 компания Nvidia разработала новую архитектуру Ampere, которая помогла решить большое количество проблем чипов RTX 20-й серии на базе Turing. Кроме того, чипы стали выпускать по 8-нм техпроцессу, что означало большую производительность с улучшенной энергоэффективностью.

В сентябре 2020 года компания запустила в продажу модели RTX 3080 и 3090. 3080 за $699 был примерно на одном уровне с 3090 за $1 499. Кроме того, эта карта производительнее RTX 2080 Ti — как в играх с трассировкой лучей, так и без неё. Многие эксперты положительно оценили карту, поскольку она была действительно неплохая.

Почему она вошла в список? После выхода видеокарты оказалось, что купить её по рекомендованной цене практически невозможно. Коронавирусная пандемия и эпидемия криптомайнинга привели к сильному удорожанию карт. Цена модели поднялась выше $1 500. Даже после завершения пандемии, спустя два года после выхода карты, её стоимость не опускалась ниже $699.

Когда же её смогли, наконец, опробовать обычные геймеры, т. е. после завершения дефицита, оказалось, что адаптеру не хватает объёма памяти, особенно это актуально для последних тайтлов. Плюс ко всему у ряда карт этой серии установлено бюджетное охлаждение, которого явно недостаточно для мощного чипа.

В целом, всё это сделало GeForce RTX 3080 одной из самых неудачных в истории компании. Подавляющее большинство геймеров так и не познакомилось с ней.

GeForce RTX 4060 Ti

Несмотря на то, что это относительно новый продукт, видеокарта поступила в продажу всего полгода назад, её уже можно назвать неудачной. При этом у неё есть положительные качества. Например, видеоадаптер производительнее, чем карты 30-й серии. Также компоновка чипа в три раза плотнее, чем у GA104. Но есть и проблемы, причём большинство снова связано с памятью.

Существует две разновидности модели 4060 Ti: одна поставляется с 8 Гб видеопамяти, вторая — с 16 Гб. Очевидно, что 8 Гб уже явно недостаточно, тем более мы только что говорили об аналогичных проблемах предыдущего поколения адаптеров. А вот GeForce RTX 4060 Ti с 16 Гб стоит на $100 больше, что уже сильно бьёт по карману.

Но здесь ещё и экономия на мелочах. Например, установлена 128-битная шина, что означает вдвое меньшую, чем у карт предыдущего поколения, пропускную способность — 288 ГБ/с, а не 448 ГБ/с. Кроме того, у 4060 Ti только восемь линий PCIe вместо 16.

В итоге эта модель является аналогом RTX 3070 без увеличенной производительности и поддержки DLSS 3 Frame Generation. Таким образом, мы получили дорогой аналог предыдущего поколения карт без особых улучшений. Всё было бы ок, если Nvidia выпустила бы эти модели с ёмкостью видеопамяти 12 Гб и 192-битной шиной. Но нет, производитель решил сэкономить, в итоге карта получилась неудачной.

GeForce RTX 2080

Адаптеры 20-й серии RTX можно было бы назвать прорывом в гейминге. Дело в том, что это первые видеокарты с трассировкой лучей. Эту технологию даже стали называть «Святым Граалем» графики в играх.

Но за эту революцию в дизайне пришлось платить, причём не производителю, а покупателям. Так, карты серии RTX были очень дорогими. Например, RTX 2080 Ti дебютировала по цене $1 199. Ни одна из видеокарт компании ранее не продавалась по настолько высокой стоимости.

Кроме того, на момент выхода графического адаптера практически не было игр с поддержкой трассировки лучей. И прошло немало времени, прежде чем такие тайтлы появились. Единственная игра 2018 года, предлагающая трассировку лучей, Battlefield V, не показывала всех преимуществ технологии.

В целом, новые графические адаптеры были более производительными, чем видеокарты предыдущего поколения. Но стоили они столько, что многие геймеры предпочитали не обновляться, прямой выгоды от апгрейда не было, а вот тратиться приходилось изрядно.

Кстати, даже спустя много месяцев после выхода этого поколения адаптеров трассировка лучей была добавлена лишь в небольшое количество игр. Та же Atomic Heart, несмотря на многочисленные демки с поддержкой технологии, вышла без трассировки, разработчики пообещали добавить всё это позже. По статистике, даже сегодня лишь 37% пользователей RTX 20-й серии включают трассировку лучей.

Что было действительно прорывным в 20-й серии, так это Deep Learning Super Sampling, или DLSS. Старт технологии тоже был непростым, но сегодня она интегрирована в более чем 500 игр и отлично работает. Может быть, Nvidia следовало бы уделять больше внимания DLSS, чем трассировке лучей.

В целом, главный недостаток этого поколения графических адаптеров — неоправданно высокая цена. Если бы не это, то карта вряд попала бы в список.

GeForce GTX 480

А это уже дела давно минувших дней. И для того времени это был флагман, но очень горячий, в прямом смысле слова. Энергоэффективность чипа была крайне низкой, потребляла карта около 300 Вт, что соответствовало уровню энергопотребления конкурента — HD 5970 сразу с двумя графическими процессорами.

Штатный кулер очертаниями несколько напоминал гриль, что стало поводом для насмешек и мемчиков. Создавались видео с готовкой при помощи видеокарты и т. п. В общем, это было не лучшее время для того, чтобы продвигать эти адаптеры. Перегрев влиял на выход карт из строя, что крайне расстраивало геймеров.

В конечном счёте компании пришлось срочно давать рынку другие карты, ими стали адаптеры серии GTX 500 с доработанной архитектурой Fermi. Одна из них, GTX 580, тоже потребляла 300 Вт при росте производительности всего на 10%. Тем не менее остальные модели новой серии имели лучшую энергоэффективность.

Неудача повлияла на долю рынка компании — AMD тогда была очень близка к тому, чтобы обогнать Nvidia, чего не случалось с середины 2000-х годов. Несмотря на всё это, Nvidia по-прежнему оставалась весьма прибыльной компанией, так что ей удалось выйти почти сухой из воды. Более того, используя опыт неудачи, она смогла улучшить качество своей продукции в следующих поколениях адаптеров.

GeForce FX 5800 Ultra

В начале 2003 года у Nvidia были проблемы — компания AMD выпустила на рынок отличные графические адаптеры серии Radeon 9000. Чип производился по 150-нм техпроцессу, Nvidia удалось выпустить достойного конкурента лишь после перехода на 130-нм техпроцесс.

Но в стремлении побыстрее представить альтернативу, а также удешевить её производство компания оставила низкую пропускную способность карты — 16 ГБ/с по сравнению с почти 20 ГБ/с у 9700 Pro. Была также проблема, из-за которой анизотропная фильтрация выглядела не очень хорошо, что стало ещё одним недостатком нового адаптера.

Но главный минус в том, что у карты было огромное для того времени энергопотребление в 75 Вт. Установленный вентилятор шумел так, что этот звук сравнивали с шумом от работы пылесоса или воздуходувки для листьев. Тогда появились и мемы на эту тему — один из них как раз и размещён выше.

Недостатки привели к тому, что Nvidia быстро приступили к разработке нового адаптера. И на этот раз всё получилось — в продаже всего через полгода появился новый, улучшенный флагман GeForce FX 5900 Ultra. Графический процессор имел огромную для того времени пропускную способность 27 ГБ/с, исправленные драйверы и гораздо более разумное энергопотребление — около 60 Вт.

А какую видеокарту от Nvidia из тех моделей, что опробовали сами, вы бы назвали неудачной?

Комментарии (62)


  1. rubinstein
    25.12.2023 07:03

    Про 3080 явно сморозил...


    1. reallord
      25.12.2023 07:03

      Да уж, очень странные оценки по картам. 3080 на 12Гб памяти отлично живут себе и стоят сейчас отнюдь не космических денег.


      1. immortal555
        25.12.2023 07:03

        Я и к 4060Ti претензий не понимаю. Впервые с 10й серии xx60-е карты вернули в нормальный теплопакет и снизили неуемный жор энергии чуть ли не в 2 раза. При этом не потеряв ничего и даже немного улучшив производительность относительно предыдущей серии на уровень выше.


        1. bezdnacom
          25.12.2023 07:03

          Потому что урезанная шина PCI-e на 8 линий да ещё и урезанная шина памяти, мало VRAM (да 8гб в 2023 это уже мало для FHD, что уж говорить про 2к+), разница с предыдущим поколением по производительности не впечатляет.


          1. Sequoza
            25.12.2023 07:03

            4060 - это скорее про энергоэффективность, чем производительность. Зайдет тем, кому не хочется иметь дома здоровенный шумящий ящик. Цена как бы намекает.


            1. bezdnacom
              25.12.2023 07:03

              У меня 3060 Ti от MSI. По сравнению с ноутбуком, который у меня раньше был, этом бесшумная коробочка.


            1. DarkNews
              25.12.2023 07:03

              Ну так речь про 4060ti.
              Если 4060 еще можно простить 8гб, у нее и ценик упал относительно 3060, и производителность чуть выше, то 4060ti - полная помойка, с 8гб, производительностью иногда уступающей 3060ti, и это за тот же прайс в следующем поколении.
              Это провал и дно дна.


              1. Sequoza
                25.12.2023 07:03

                Это провал и дно дна.

                200W(3060Ti) vs 160W(4060Ti), при этом ещё увеличилась производительность. Как по мне, так провалом это сложно назвать. Для тех, кто хочет небольшую машинку, на которой можно что-то иногда запускать.


                1. bezdnacom
                  25.12.2023 07:03

                  40W это небольшая разница + как вам уже сказали разница в производительности оставляет желать лучшего. Мало того 4060Ti это не тот класс видеокарт "что-то иногда запускать"


                  1. Sequoza
                    25.12.2023 07:03

                    40W это небольшая разница + как вам уже сказали разница в производительности оставляет желать лучшего

                    Зашел на ютуб, посмотрел бенчмарки. Чуть быстрее 3060 Ti. По стоимости примерно те же $350 - $400.

                    Мало того 4060Ti это не тот класс видеокарт "что-то иногда запускать"

                    С 10 серии не следил, но было так xx50 - затычка, xx60 - бюджетный гейминг, xx70 - можно было играть в "заветные 60fps", xx80 - максимальные настройки. На xx90 можно уже вроде как комфортно с лучами играть.

                    Помню, на 1060 6gb играл в ведьмака 42-60 fps на средне-высоких настройках в 1080p. Не 1070-80, конечно, зато не грелась и не было слышно почти никогда. Оно и сейчас так, как я посмотрю.


                    1. bezdnacom
                      25.12.2023 07:03

                      Чуть быстрее 3060 Ti. По стоимости примерно те же $350 - $400.

                      Так именно! Чуть быстрее, но стоит также. В чем смысл её брать если NVidia ничего не дали, а только забрали? (шину PCI-e, шину памяти и т.д.)

                      С 10 серии не следил, но было так...

                      Вот потом все и поменялось. 20-я линейка считается лучшей, а 30-я на фоне 40-й не такой уж и плохой.

                      xx50Ti ~ xx60, xx60Ti ~ xx70 и т.д. так что 4060Ti не подходит под определение "иногда что-то запускать"


                1. DarkNews
                  25.12.2023 07:03

                   при этом ещё увеличилась производительность

                  В 1440 увеличение проивзодительности крайне незначительно, можно считать что его нет.

                  200W(3060Ti) vs 160W(4060Ti)

                  40вт - ерунда, особенно учитывая то что 3000 серия лучше поддается андервольтингу без падения производительности.

                  И все это на самом деле хрень полная, прироста в производительности - нет.
                  4090 например = 3090ti по потреблению, вот только прирост производителности огромен.


      1. nidalee
        25.12.2023 07:03

        На 12 отлично живут. А я вот со своей 3080 10ГБ слез с большим облегчением.


    1. DrGluck07
      25.12.2023 07:03

      Да, непонятно как 3080 виновата в буме майнинга.


  1. AquariusStar
    25.12.2023 07:03

    «В начале 2003 года у Nvidia были проблемы — компания AMD выпустила на рынок отличные графические адаптеры серии Radeon 9000.»

    Простите? В 2003 AMD только процессоры пилила. А радиками занималась канадская компания ATI. Это только потом ATI стала частью AMD.


  1. haxmax
    25.12.2023 07:03

    Модели неудачные для кого? Разве можно считать неудачной RTX 3080, если спрос на неё такой высокий, что даже спустя два года после выхода цена не опустилась до рекомендуемой?


    1. AlanKaye
      25.12.2023 07:03

      для потерявших своё время на этой "статье"


  1. mimicate
    25.12.2023 07:03

    Интересно, что статья очень похожа на материал от Tom's Hardware, вплоть до последовательности GPU :)

    Было бы неплохо оставить ссылку на оригинал, я считаю


  1. MessirB
    25.12.2023 07:03

    У FX 5800 Ultra (да и вообще у всей линейки FX того времени) главной проблемой была не низкая пропускная способность памяти, а крайне медленная работа пиксельных шейдеров второй версии. Для этой серии карт в той же Half-Life 2 опция вторых шейдеров была по умолчанию недоступна (хотя можно было включить принудительно) именно из-за того, что даже у FX 5900 производительность при их включении была хуже чем у самых бюджетных карт конкурента в лице ATI.


    1. Dimsml
      25.12.2023 07:03

      Ещё была затычка FX5200, вроде как и FX, и 5000 серии, но производительность у неё была плохая, чуть ли не с MX440 её сравнивали, а та тоже была тем ещё мемом уровня "Мы вам наврали, она хуже чем предыдущие серии!" Насколько я помню, там даже аппаратное ускорение шейдеров не завезли.

      Были дефектные 8600GT, которые перегревались. Причем сначала говорили, что только в ноутбуках, потом что есть дефектные и на десктопах, а потом мне досталась бесплатно подобная, у неё были какие-то кривые драйверы, она вылетала в синий экран, причём помогала переустановка, но только на один раз. Я так и не понял в чём дело было, избавился от неё точно так же, получив от кого-то старую 8800.

      Были карты GTX970, в которых было 4Гб памяти, но после 3.5 гигабайт происходила какая-то магия и память начинала тормозить.

      Были GT1030, отличные низкопрофильные однослотовые затычки (сейчас вроде лучше найти AMD Radeon 6400 или что-то от Интел), если бы не одно но: были версии с GDDR5 и с DDR4. Причём различались они только ID на самой карте (ну или в описании), обе нагло продавались как GT1030.

      Плавящиеся разъёмы в 4090 туда же.


      1. MessirB
        25.12.2023 07:03

        С затычкой FX 5200 была совершенно глупая ситуация. Их было две разных и отличались они шириной шины памяти - у нормальной была 128 битная шина, а у огрызка 64 битная. По производительности они отличались очень ощутимо, а вот по названию не отличались вообще никак, все они были просто FX 5200, никаких XT, LE и тому подобных окончаний они изначально не имели. Да, в последствии появились FX 5100, FX 5200 LE которые точно были с 64 битной шиной и Ultra которая точно была со 128 битной шиной. Однако ситуацию это особо не изменило, под названием FX 5200 всё так же попадались оба варианта.

        Надо сказать, что "нормальная" версия по уровню производительности была примерно на уровне MX 440 (которую ругали не за производительность а за отсутствие шейдеров в первую очередь), но в отличие от нее позволяла играть в первые игры которые без поддержи шейдеров не запускались, например те же Silent Hill 3 и Halo: Combat Evolved.


        1. PuerteMuerte
          25.12.2023 07:03

          У меня была 5200 128 бит. Видяха как видяха. По скорости не фонтан, но цена/производительность у неё были вкусные. Морровинд тянула со всеми плагинами-украшалками


        1. DMGarikk
          25.12.2023 07:03

          MX 440 (которую ругали не за производительность а за отсутствие шейдеров в первую очередь),

          особенно если вспомнить что Gf4 MX440 фактически была разогнанной версией Gf2

          Маркетинг такой маркетинг...


          1. MessirB
            25.12.2023 07:03

            Она была чуть измененной версией Geforce 2 MX 400, которой подняли частоты и вместо памяти SDRAM поставили DDR.


  1. Hlad
    25.12.2023 07:03

    "За всю историю компании" - это мощно. Автор явно не слышал ни про Riva128, ни про MX480...


    1. PuerteMuerte
      25.12.2023 07:03

      А разве Riva128 была неудачной? По-моему, вполне себе популярный мейнстрим своего времени, с хорошим сочетанием цена/производительность


      1. Hlad
        25.12.2023 07:03

        У неё дрова были так себе, которые конфликтовали со всем подряд. У меня самого была такая видеокарта, хорошо помню, как с ними мучился... :(


        1. DMGarikk
          25.12.2023 07:03

          в те годы мало у кого нормальные дрова были ;) кто там конкурент ривы то был адекватный, вуду1?

          потому что дичь типа Savage и прочих непоймикаких ускорителей..были еще хуже

          а во времена ривы Diamond отметился со своим сверхкривым софтом


          1. Hlad
            25.12.2023 07:03

            Рива128 - это примерно Вуду2, насколько помню. И вот как раз она была офигительна.


            1. MessirB
              25.12.2023 07:03

              Она до первой вуду по производительности не дотягивала вообще никак.


              1. Hlad
                25.12.2023 07:03

                Я имел ввиду, что рива128 - современник вуду2.


                1. PuerteMuerte
                  25.12.2023 07:03

                  Рива128, это первая половина 1997 года, она с первым вуду соперничала. Вуду2 вышла в 1998, и там уже РиваТНТ через пару месяцев подоспела.


                  1. Hlad
                    25.12.2023 07:03

                    Честно говоря, я таких нюансов не помню. Помню, что мы с однокурсником одновременно видюхи покупали - я на Риве128, а он на Вуду2. И разница в играх была поразительная в пользу Вуду, я тогда сильно расстраивался


        1. PuerteMuerte
          25.12.2023 07:03

          У неё дрова были так себе, которые конфликтовали со всем подряд

          Это у вас ещё не было PowerVR или Rendition Verite. У Ривы дрова были ещё ого-го.


          1. MessirB
            25.12.2023 07:03

            У меня был (и до сих пор есть) Matrox M3D, который PowerVR PCX2. Поддержка Deirect3D у него была максимально отвратительной, зато был офигенный минипорт драйвер OpenGL, который позволял рубиться во все игры сделанные на движке первого\второго квейка, включая Half-Life, а еще в играх на движке Unreal была поддержка нативного API этой карты (вернее была в первом Unreal и можно было перенести в другие игры) с которым она по производительности приближалась к первой вуду.

            Про какой именно Rendition Verite вы говорите? У меня есть V2200 - офигительная карточка, никаких проблем с Direct3D и OpenGL, производительность вполне сравнима с Voodoo Graphics, хотя конечно Verite вышла позже. Как по мне, эта карта намного лучше чем та же Riva 128.


  1. qw1
    25.12.2023 07:03

    Ожидал увидеть 4090 с её плавящимся разъёмом питания.


    1. K0styan
      25.12.2023 07:03

      Или те, у которых чип отваливался - если склероз не подводит, ноутбучные этим особо страдали...


    1. SergeyMax
      25.12.2023 07:03

      Ожидал увидеть 4090 с её плавящимся разъёмом питания.

      Хайп закончился, разъёмы тоже плавиться перестали


      1. DarkNews
        25.12.2023 07:03

        Не перестали кстати, судя по ответам СЦ, даже новости пробегали что это по прежнему вполне себе встречающаяся проблема.


      1. beeruser
        25.12.2023 07:03

        Ничего не перестало. Пост месячной давности:

        NorthridgeFix has disclosed that they still get "20 to 25 graphics cards per week" which is a shocking amount.

        https://wccftech.com/hundreds-nvidia-geforce-rtx-4090-gpus-still-prone-to-12vhpwr-connector-issues/

        Производитель БП советует феном прогревать провода при подключении таких карт :)

        https://knowledge.seasonic.com/article/72-psu-recommendations-for-nvidia-rtx-4000-cards


        1. ZirakZigil
          25.12.2023 07:03

          A common reason why consumers are facing the problem in the first place is that the power connectors are not fully plugged into the graphics card, which results in a poor contact force resulting in disruptions within the power delivery process.

          Втыкайте правильно, не гните, не покупайте ноунейм китайские переходники и будет вам счастье.


          1. nidalee
            25.12.2023 07:03

            не покупайте ноунейм китайские переходники и будет вам счастье.

            Сижу уже год на чудесном китайском переходнике с БП Corsair на 1 12VHPWR, прекрасно работает, в отличие от поделок бракоделов CableMod. :)

            Что касается расплавленных разьемов, то вне зависимости от кабеля и\или переходника не помешает настроить мониторинг GPU 16-pin 12VHPWR Voltage. Упал ниже 11.9V - shutdown.


            1. ZirakZigil
              25.12.2023 07:03

              не покупайте ноунейм китайские


          1. beeruser
            25.12.2023 07:03

            ...не трогайте провода в полнолуние и не дышите.

            Хотите сказать что 100 карт с конкретнй проблемой в месяц у ОДНОЙ ремонтной конторы это случайность? Почему за все годы существования 3D акселераторов ничего подобного не случалось?

            не покупайте ноунейм китайские переходники  и будет вам счастье.

            Не использовать кабель от самой Nvidia?

            Что вы посоветуете человеку, у которого переходник расплавился через год?


      1. VADemon
        25.12.2023 07:03

        https://www.igorslab.de/en/smoldering-headers-on-nvidias-geforce-rtx-4090/ о свойствах разъема и способах сэкономить.


    1. rubinstein
      25.12.2023 07:03

      Это можно с натяжкой приплести к статье. Плохой разъём не значит плохая плохой чип. 4090 даёт удивительный прирост производительности и между ней и 4080 просто пропасть.


  1. vitalyvitaly
    25.12.2023 07:03

    Худшая поделка - недоразумение 6100 TurboCache.


  1. ShadowMaster
    25.12.2023 07:03

    Абсолютно и полностью бредовый рейтинг в первых трех позициях. Каким это местом 20 и 30 серия провальные, если их скупали на корню майнеры?

    А вот что следовало бы включить так это не только 5800 Ultra, но и 5900 и 5950. Они были получше, но проблемы не решали. Окончательно проблему с шейдерами решили только карты 6800.

    Если претензии к цене, то советую вспомнить двухчиповых монстров начиная с 7950GX2. Если претензии к производительности, то советую вспомнить какую-нибудь MX440, которая устарела в момент выхода, у которой не было вообще никаких шейдеров, маловато памяти, усеченная шина памяти, тем не менее отлично продавалась.


  1. seepeeyou
    25.12.2023 07:03

    Ахахах короче все карты восьмой (топовой) серии - говно, потому что дораха))) Ну видно титанические умственные усилиия, затраченные на написание статьи, ставлю лайк


  1. SkywardFire
    25.12.2023 07:03

    В начале 2003 года у Nvidia были проблемы — компания AMD выпустила на рынок отличные графические адаптеры серии Radeon 9000

    Странно, а как компания AMD могла выпустить продукт другого производителя?)

    Ну а вообще зашел посмотреть, будет ли упомянута линейка FX, и да, упомянули. Я смутно припоминаю, были слухи, что линейка получилась горячей потому, что была основана на технологиях 3dfx, спешно модифицированных инженерами Nvidia.


  1. Mizandari
    25.12.2023 07:03

    geForce 256, gf3. Очень быстро их убрали из производственной программы.


  1. darthgrey
    25.12.2023 07:03

    В списке только FX5800 имеет право присутствовать, как и остальные карты этой серии, вчистую сливавшие конкуренту в играх со вторыми шейдерами, но при этом все равно неплохо продававшиеся. А где NV1, на которой история Nvidia могла и закончиться? Ну с натяжкой еще GTX480, да, хотя там проблема только в температуре была, производительность была неплохой и карты были довольно живучими. А в остальном - все модели успешный успех в финансовом плане, в итоге все пришло к игровым картам за 1500$+ на отбракованных чипах, которые расхватывают, как горячие пирожки и к тому, что одно и тоже по сути продается по несколько раз за свой жизненный цикл.


  1. TitovVN1974
    25.12.2023 07:03

    Nvidia NV1, дальше нормально. Riva128 у меня была - в общем хорошие впечатления. FX 5200 - да, медленная, я тестировал ))


  1. Mihisa
    25.12.2023 07:03

    3080 сейчас, спустя 3 года отличная видеокарта


    1. nidalee
      25.12.2023 07:03

      Разве что если дождались 12ГБ версии, либо если монитор FullHD.


  1. Sm1pe
    25.12.2023 07:03

    Я бы сюда 970 закинул лучше.


  1. cyreex
    25.12.2023 07:03

    FX5900 Ultra не существовало. Были FX5900, FX5900XT и FX5950 Ultra.


    1. DMGarikk
      25.12.2023 07:03

      1. cyreex
        25.12.2023 07:03

        И тут же ссылка на asus v9950 Ultra:

        https://www.techpowerup.com/gpu-specs/asus-v9950-ultra.b1809

        тут тоже указано, что у нее GPU FX5900 Ultra. Но она у меня есть, и в ней совершенно точно FX5950 Ultra.


        1. DMGarikk
          25.12.2023 07:03

          я дал вам ссылку на референсную карту на которую куча обзоров есть, то что там на сайте в связанных продуктах есть асус, еще не значит что он был единственным продуктом на чипе этой линейки (и то судя по вики он даже не от того семейства)

          также

          на вики тоже ошибаются? https://en.wikipedia.org/wiki/List_of_Nvidia_graphics_processing_units

          более того 5900Ultra это NV35, а 5950 ultra это NV38


      1. cyreex
        25.12.2023 07:03

        https://retro-pc.by/viewtopic.php?p=14612&hilit=5950#p14612

        По ссылке фото GPU v9950 ultra. Но да, я был не прав, нашел фото с 5900 ultra!

        https://vccollection.ru/wp-content/uploads/2019/05/fx_5900_ultra-pcb.jpg


  1. hyperwolf
    25.12.2023 07:03

    Я бы закинул сюда еще GTX295, двухчиповый монстр с лютой прожорливостью и даже по тем меркам мелким объемом vram.