
Выход нового поколения графических процессоров традиционно привлекает внимание не только энтузиастов, но и всего технологического сообщества. Это неудивительно, ведь каждое обновление линейки видеокарт от NVIDIA открывает новые возможности для разработчиков и пользователей. Однако релиз флагманской RTX 5090 преподнес неожиданный сюрприз. Карточки просто неожиданно стали выходить из строя – массово и без видимых на то причин.
Купить RTX 5090 сейчас практически невозможно. Карты появляются в продаже небольшими партиями и моментально исчезают с прилавков. Но даже те экземпляры, что уже были реализованы, сложно назвать удачной покупкой.
Как обновление драйверов ломает видеокарты RTX 5090
Первые сообщения о проблемах с RTX 5090 появились на Reddit. Несколько владельцев написали о выходе видеокарт из строя при обновлении драйверов. Поначалу на эти сообщения не обращали особого внимания. В конце концов, разного проблемы часто сопровождают релизы технически сложных устройств. Да и криворукость пользователей тоже никто не отменял.
Но в последующие несколько дней сообщений о неполадках стало в разы больше, и это позволило выявить одну важную закономерность. Все карты отказывали именно в момент обновления драйверов. Причем почти во всех случаях сценарий всегда был одинаковым. Пользователь запускает установку нового драйвера. Все показатели в норме – температура около 40 градусов, энергопотребление на уровне простоя. Система начинает обновление.

Вдруг на экранах появляются горизонтальные полосы зеленого цвета (обычно такой тип артефактов говорит о проблемах с видеопамятью). А после карта просто умирает. Система перестает видеть ее как PCI-E устройство и не помогает ни перезагрузка компьютера, ни переустановка драйверов. Даже перепрошивка BIOS не возвращает карточку к жизни.
Брак – обычное дело, скажете да. Возможно. Но случаев отказа оказалось как-то слишком уж много. Даже многие крупные магазины стали подтверждать это. Статистика возвратов RTX 5090 оказалась необычно высокой для флагманской модели. Причем чаще всего проблемы возникали с китайской версией RTX 5090D. Но причин такого поведения карт никто до сих пор не понял.
Почему видеокарты RTX 5090 выходят из строя
По одной из версий, корень проблемы может крыться в особенностях взаимодействия новых видеокарт с PCI-E 5.0. RTX 5090 стала первой линейкой графических процессоров NVIDIA с полной поддержкой этого интерфейса, что привнесло не только новые возможности, но и неожиданные сложности.
Переход на новый стандарт обеспечил существенный прирост в пропускной способности видеокарты, однако вместе с этим наложил и более жесткие требования к качеству сигнала и совместимости компонентов. В случае с RTX 5090 эти проблемы особенно остро проявились именно при обновлении драйверов.
Интересное наблюдение сделали пользователи, которым удалось найти временное решение проблемы. Они обнаружили, что переключение режима работы слота PCIe с версии 5.0 на 4.0 в BIOS материнской платы помогает избежать критических сбоев.
И хотя такое решение теоретически должно снижать пропускную способность интерфейса, на практике разница в производительности для большинства приложений и игр оказывалась некритической. Другое дело, что и гарантий того, что это поможет, никто дать не может.

Проблемные версии RTX 5090
Больше всего проблем возникло с картами Gigabyte RTX 5090 Gaming OC. Они особенно часто выходят из строя при установке драйверов версии 545.xx и выше. Интересно, что владельцы более старых версий драйверов пока не жалуются на подобные проблемы.
Карты ASUS ROG STRIX RTX 5090 OC ведут себя немного иначе. Они не умирают внезапно, а начинают подавать признаки проблем заранее. За несколько дней до полного отказа на экране появляются редкие артефакты, карта начинает работать нестабильно. По крайней мере, у пользователя есть шанс заметить проблему и что-то предпринять.
Модели Manli RTX 5090 тоже попали в список проблемных. Пользователи сообщают о тех же симптомах, что и у других производителей. А вот с китайскими Colorful iGame RTX 5090 Vulcan все совсем плохо. Восемь из десяти карт выходят из строя при обновлении драйверов. Похоже, что в локальной версии прошивки есть какие-то особенности, которые только усугубляют ситуацию.
Стоит ли обновлять драйвера RTX 5090
Mäßige Leistung und massive PCIe 5.0 Probleme - RTX 5080 FE Review
Пока сложно сказать, можно ли как-то гарантированно защититься от возможного выхода видеокарты из строя. Но, если у вас уже есть RTX 5090, лучшим выходом будет воздержаться от обновления драйверов. Отключите автообновление в Windows через Диспетчер устройств. Не забудьте сделать то же самое в GeForce Experience, если он у вас установлен.
Еще можно немного снизить энергопотребление карты. Запустите MSI Afterburner и уменьшите Power Limit до 90% от максимума. Это создаст небольшой запас по питанию и может уберечь от перегрузок.
Также имеет смысл следить за состоянием карты. Установите GPU-Z или HWiNFO64 – они покажут подробную информацию о температуре и энергопотреблении в реальном времени. Особенно внимательно следите за температурой памяти.
Ну и на всякий случай сделайте скриншоты всех параметров карты через GPU-Z. Запишите серийный номер, версию BIOS и текущие настройки питания. Если карта все-таки умрет, эта информация может пригодиться при обращении по гарантии.
Комментарии (89)
TemArtem
11.02.2025 11:24Отдать 300к за видеокарту, чтоб она после обновления драйверов окирпичилась, спасибо, Хуанг))
Daimos
11.02.2025 11:24А массово, это сколько штук? Сколько процентов от выпущенных?
tbl
11.02.2025 11:24Судя по статье, 80% карточек Colorful iGame RTX 5090 Vulcan окирпичиваются при обновлении драйверов
Daimos
11.02.2025 11:24В статье ноль пруфов откуда взяты эти данные - из сообщений на реддит?
tbl
11.02.2025 11:24Reddit и youtube, угу. Даже The Verge на них ссылается в аналогичной вчерашней статье. Nvidia пока молчит и никаких комментариев не дает.
Daimos
11.02.2025 11:24увы, но названия сайтов не является доказательством какой-то массовости. Verge ссылается на реддит в котором 3 комментария и проблема с кабелем - право это смешно и на массовость никак не тянет.
В другом треде - проблемы с использованием не родных кабелей - ну ССЗБ в девайс за 2к совать левые кабели.
nidalee
11.02.2025 11:24Проблема не в кабеле, а в разводке на плате. Она не рассчитана на то, что хоть что-то пойдет не так при подключении этого одного, крохотного кабеля. Только у ASUS есть софтовый костыль для оповещения о плохом\деградировавшем коннекте.
LinkToOS
11.02.2025 11:24Судя по статье, 80% карточек Colorful iGame RTX 5090 Vulcan окирпичиваются при обновлении драйверов
Не очень. "Восемь из десяти карт выходят из строя при обновлении драйверов." - Это буквально говорит, что на 10 карт вышедших из строя по всем причинам, приходится 8 которые сломались при обновлении. Но это не тоже самое что "если обновлять 10 карт, то 8 из них выйдут из строя."
Можно допустить, что настройки в базовой прошивке отличаются от настроек в обновлении. В базовой прошивке тайминги могли быть завышены ради стабильности.
ajijiadduh
11.02.2025 11:24Судя по всему, больше всего проблем именно с китайскими картами
Больше всего проблем возникло с картами Gigabyte RTX 5090 Gaming OC
tbl
11.02.2025 11:24Думаю, что схемотехническая проблема у всех карт, PCB которых сделан по референсному дизайну. Просто "китайцы" страдают чаще, т.к. производители оттуда любят на максималках сэкономить на качестве
Thomas_Hanniball
11.02.2025 11:24Просто основной объём карт ушёл на реализацию именно в Китай. Там сейчас бум нейросетей и AI.
kox
11.02.2025 11:24Блин, ну возьмите 3 хоббийных разъема XT-60, они гарантированно позволяют тащить 30 ампер через себя или же пару XT-90.
Нет, мы же наступим на те же грабли, что и в предыдущем поколении.
DmitryOlkhovoi
11.02.2025 11:24у меня на квадрике или машинке где, токи могут и до 150 ампер доходить, один xt-60 тянет
тут мне кажется сам рынок БП не готов к таким видюхам)
VADemon
11.02.2025 11:24Mäßige Leistung und massive PCIe 5.0 Probleme - RTX 5080 FE Review
У него параллельно канал на англ. ведется: https://www.youtube.com/watch?v=IvQwlN1sE0U
Jscoff
11.02.2025 11:24Только вчера в компьютерном магазине, пока забирал заказ, наблюдал грустного парня, который сдавал по гарантии 5080. Он как раз упомянул про обновление дров и черный экран после, когда объяснял сотруднику причину возврата.
qiper
11.02.2025 11:24Nvidia вслед за Intel`ом факапнулась?
Походу свежекупленные карты надо сразу душить по power limit от греха подальше
Hardcoin
11.02.2025 11:24Тогда нет смысла покупать свежие карты. Платить за производительность и резать её, это странно.
Nansch
11.02.2025 11:24Тут всё же есть смысл. Рассчитывая на большую энергоэффективность в каждом следующем поколении, можно брать свежак и душить его, чтобы получить производительность "как раньше", но при меньших энергозатратах. И производительность не хуже и в комнате прохладнее.
ZirakZigil
11.02.2025 11:24Сэкономишь дай бог 50 ватт, а заплатишь даже с учётом продажи старой карты пару сотен $. На температуру это вряд ли значимо повлияет, если не сидеть по 12 часов на полной мощности в не проветриваемой комнате. На счета за электричество тоже.
wataru
11.02.2025 11:24В 50xx нет никакой большей энергоэффективности. Она на 15-20% мощнее и примерно на столько же больше ватт жрет. Единственная причина их брать, это если вам очень нужны последние dlss.
DarthVictor
11.02.2025 11:24На фоне доходов от серверного подразделения, геймеры стали Хуангу как кость в горле, он бы с удовольствием просто прекратил бы выпуск потребительских видеокарт, если бы это можно было сделать без крупного ущерба для репутации. Вот сидит и думает, чтобы ещё придумать, чтобы эти геймеры сами ушли.
Hardcoin
11.02.2025 11:24Не похоже. Можно сделать следующее поколение не таким быстрым, сэкономив на R&D (прибавить 5% и всё). Они наоборот сделали быстрым, но с косяками, это как раз по репутации бьёт
HellQwer
Ещё такие ужасы по питанию.
Moog_Prodigy
Ой мамочки. Удивительно, что оно вообще как-то работать умудряется.
nidalee
...с совершенно предсказуемым исходом.
Стандарт 12VHPWR - насмешка над здравым смыслом. Особенно учитывая, что они горели еще до того, как по ним стали пускать больше 600W.
Надеюсь, NVIDIA от него откажется в следующем поколении.
konst90
Шутки про отдельный трёхфазный вход скоро могут оказаться не шутками
xxxgoes
Гугл подсказывает что на такой ток по ПУЭ положено 16 квадратов кабель. Ну и где он тут? Даже близко нет.
Либо делать соответствующие кабели и разъемы, что крайне сомнительно. Либо повышать напряжение до 48В. Либо снижать потребление до более вменяемого уровня.
Dimonsparta
А какой ток?
CherryPah
ну если на пальцах прикинуть, то 600W/12V=50A и 900W/12V=75A
Roman_Ivashkin
Не рассказывайте сказки, Только что открыл ПУЭ, при открытой прокладке максимальная нагрузка на медный провод сечением 16м2 равна 100А. 100х120 = 1200Вт. Шесть проводов по 0,75м2 = 6х15 = 90А. 90х12 = 1080Вт. Дело явно не в проводах, а в разъёмах. Горят именно разъёмы, а не провода.
Wra1th
Скорее всего они просто добавят второй 12VHPWR, а потом третий 12VHPWR. И колесо Сансары провернётся вновь. =)
saga111a
del
MountainGoat
Я не понял, или этот график говорит, что видеокарта номинальной мощностью 600Вт иногда ест до 900? Так это всегда так было, по крайней мере для всех RTX точно.
czz
Так и есть, RTX 3090 в пике превышали 500 Вт при установленном лимите 350 Вт
tbl
Причем, чуть ли не половина мощности идет только по 2 проводкам из 12 силовых. В нормальном режиме работы 5090 RTX по ним идет больше 22А, хотя разъем допускает только 9.5А на пин при нагрузке 600 Вт.
czz
Вроде выглядит как неисправность, а не нормальный режим работы
tbl
Либо ошибка дизайна схемы
czz
Не могу представить, каким образом платы с такой ошибкой могут пройти тестирование после производства и поступить в продажу
tbl
Нет времени на тестирование. Нужны деньги на новую куртку. (причем, это "референсная" карта RTX 5090 Founders Edition)
https://www.youtube.com/watch?v=Ndmoi1s0ZaY
czz
Не смотрел детально, но не вижу в этом ролике анализ схемотехники, проверки на нескольких картах, и даже нет уверенности, что у него в цепи между картой и БП нигде контакт не потерялся.
tbl
Здесь куча людей жалуется на аналогичные проблемы с отгоранием контактов https://www.reddit.com/r/hardware/comments/1iljb6t/geforce_rtx_5090_founders_edition_card_suffers/
nidalee
Вот здесь есть анализ.
czz
Спасибо, понятно. Схема не рассчитана на то, что линии питания могут иметь существенно разное сопротивление из-за дефектов, и тогда по ним пойдет разный ток. Действительно, выглядит как не самое удачное решение.
Правда, анализ проведен по фоткам из статьи от 23 января (до выхода карты), и неизвестно, описана ли в статье релизная версия или это какой-то инженерный образец.
tbl
У них там 30 VRM стоит для питания GPU, памяти и остальной части карты. Могли бы 6 линий из разъема по ним распределить сообразно нагрузке, а не параллелить
Ilya_JOATMON
Вариант кастомного кабеля, когда используются два толстых кабеля +12 и земля, которые припаиваются к платке на которую припаян уже разъем. А не нынешняя лапша.
AKudinov
Всё уже придумано давно. Болтовое соединение же. В плату впаяны шпильки М6, на кабели напрессованы медные наконечники.
Javian
Надо напряжение подымать вольт до 50-100.
Gryphon88
Или вообще воткнуть отдельный AC-DC на видюху. Там же на борту и так повышайка, правильно?
tandzan
Не, там низкие напряжения и огромные токи. Сейчас половина платы в видюхах это многофазный DC-DC.
riv9231
Там, конечно, понижайка и ге одна. Но логика, на мой взгляд, правильная. Почему именно 12В? Не имеет ли смысл базовым напряжением сделать, например, всё ещё безопасное нспряжение в 48В? Тогда даже существующие разъёмы справятся и не нужно будет по 3 кабельных шлейфа к gpu подключать.
NickDoom
…и поставить это всё в слот 5", как я каждый раз говорю. Там и воздух можно брать в намного больших количествах (поверхность «выхлопной решётки» сильно больше), и рядом можно разместить «слейвовый» (стартующий по команде от главного) БП на 48 В. Тупо в соседнем 5" слоте.
Райзер-шлейф для PCIe в 10 см никак на работе не скажется ИМХО. Диффпара — штука живучая.
Но если DC-DC 48→3.3 греется сильно больше, чем 12→3.3 — то можно и двенашкой питать. Четыре медных болта в сантиметр толщиной, которыми прикручиваются медные уши видюхи к медным гайкам блока питания :) и хрен оно где задурит %)
xxxgoes
Там не 3.3В, скорее в районе 0.9-1.1В.
Токи получаются безумные.
NickDoom
Ну это да, кстати. 3.3 — разве что какая-нибудь периферия, а ядро вообще электросварка :)
Tim7456
В новых корпусах на морде нету 5" слотов.
А по уму, нужен новый стандарт блоков питания с силовыми разъемами как на коптере и многожильными проводами AWG 1 (ака 40 кв. мм.).
NickDoom
Вот уж кто пытается на все вкусы наклепать, так это производители корпусов. Ощущение, что сколько экземпляров пека, столько и моделей ящика.
5" карту анонсировать не успеют — производители корпусов уже будут бегать за юзером, отталкивая друг друга локтями.
Не говоря уже о том, что жестянок с 5" слотами УЖЕ наклёпано примерно до тепловой смерти Вселенной, там даже БП менять не надо — как раз эти триста пойдут на всё остальное, у карты-то свой.
Moog_Prodigy
Улучшать питание сильно далеко есть куда, те же 48В и 400Гц переменки, и три фазы (или шесть). В авионике и космосе применяется. Но система в целом станет в разы сложнее - это и требования к качеству проводов, изоляции. Это и требования по наводкам-помехам и прочее, чтобы хотя бы сам комп не глючил. Это и совершенно другой класс БП, не говоря уже о полной переработке и еще большем усложнении VRM на самой карте. Сдается мне, что не за горами парадигма "не видеокарта для компьютера, а компьютер для видеокарты", когда вся система будет заточена именно под видеокарту, а собственно "компьютер" в том плане как мы его видим сейчас, будет как просто доп. контроллер. В проф. решениях такое уже наблюдается (всякие системы для ИИ).
В асиках те же самые проблемы, с теми же напряжениями и разьемами, а моща там и поболее летает в схемах. Производители догадались разводить медными шинами ,но не все и не везде. Тем не менее, даже старые асиковые БП на 12В сделаны таким образом, что изначально можно к ним шинки присоединять.
Sap_ru
Безопасное напряжение порядка 36 вольт. 48 вольт вполне могут вас убить при некотором везении. А тряхнут так и вовсе без проблем.
И даже 36 это уже так себе. Хотя 24 вольта действительно можно поставить.
RedEyedAnonymous
\begin{маниловщина}
Это всё полумеры и костыли. PCIe вывести наружу (если это вообще возможно с современными версиями - вроде бы там ограничение на длину проводов совсем уже печальное), а видюху использовать внешнюю, со своим БП и охлаждением. И ведь кто-то это уже делал несколько лет назад...
Вот тупо и в лоб - во "внутреннем" исполнении делать только видюхи, жрущие, допустим, не более 300 ватт в пике, а всё более мощное - во внешнем.
Ладно, PCIe не могёт в длинный провод - внутрь ставим некую интерфейсную плату, которая могёт, внешнюю видюху цепляем к ней.
И т.д., и т.п.
\end{маниловщина}
xsevenbeta
Полностью поддерживаю. Возможно 6090/7090 в таком варианте и будет. Вы не упомянули, что сами видеокарты ещё и тяжёлые и громоздкие. Подцеплять их к материнке выглядит опасно + нужны большие корпуса.
Вот такой бы ящичек сделали. Хотя, будет конечно ещё дороже :(
SergeyNovak
Javian
С pcie сложно удлинять и ставить интересные платы - потеряем в частотах т.е. в производительности из-за которой это всё затевалось.
https://habr.com/ru/companies/ruvds/articles/724088/ - проводники просто так на pcie не удлинить.
Hardcoin
Тем же, каким 12VHPWR вообще попали на рынок. Возможно люди целенаправленно хотели сделать что-то плохое.