
Покупка видеокарты стоимостью как подержанная машина — решение откровенно непростое. 300 тысяч рублей за RTX 5090, 150 за RTX 5080 и даже 100 за RTX 5070 Ti — суммы, которые любого заставляют задуматься о целесообразности трат. Особенно когда нет гарантии, что любимая игра раскроет потенциал этих монстров и даст мало-мальски ощутимый прирост кадров в секунду. Тесты показывают неприятную правду: далеко не везде RTX 5000 стоят своих денег.
RTX 5000 vs RTX 4000: что изменилось на самом деле
Архитектура Blackwell, на которой строятся карточки нового поколения, — это не просто новое название для маркетологов. В ее основе лежит немало технических улучшений, хотя и не везде они оправдывают столь высокий ценник. Особенно, если говорить, про топовую RTX 5090.
Прежде всего стоит отметить появление RT-ядер четвертого поколения. Они действительно повышают эффективность трассировки лучей на 25-35% и в играх типа Cyberpunk 2077 это заметно. Но если вы не фанат теней и отражений, большую часть времени этот компонент будет простаивать. А значит, и считать доплату за него обоснованной тратой будет проблематично.
Еще один козырь RTX 5000 — тензорные блоки пятого поколения. Благодаря им появилась поддержка технологии DLSS 4 с мультикадровым генератором. Ее суть заключается в том, чтобы создавать до трех промежуточных кадров между двумя настоящими, тем самым повышая производительность игры до четырех раз. На практике это дает 150-250% прироста fps, но с нюансами. Картинка действительно становится плавнее, но управление может иногда отставать. Из-за этого создается впечатление, будто играешь удаленно.
Переход на GDDR7 — это дорого, но хорошо. RTX 5090 получила 32 ГБ видеопамяти с пропускной способностью 1.79 ТБ/с против 1 ТБ/с у RTX 4090. Прирост и правда впечатляющий, но для большинства игр даже 24 ГБ были избыточны. Поэтому, если других задач, кроме гейминга на карточку вы не возлагаете, высока вероятность, что реализовать весь ее потенциал не получится. Разве что решите постримить или заняться обучением нейросетей.
С энергоэффективностью все, напротив, стало даже хуже. По крайней мере, у топовой модели. RTX 5090 потребляет до 575 Вт против 450 Вт у предшественника. То есть прирост в 28% налицо. И это при увеличении производительности всего 27-35%. Ну, такое… У RTX 5080 дела чуть лучше: 360 Вт против 320 Вт у RTX 4080 Super, но подтвержденный прирост производительности в обычных играх составляет 10-15%.
Еще из приятного выделим — улучшенный NVENC, который позволяет стримить в 4K почти без потери производительности в играх. А аппаратное кодирование AV1, ускоряющее экспорт видео в 2-3 раза. Неплохо-неплохо. Но лучше посмотрим на реальные цифры.
Cyberpunk 2077: игра для RTX 5090
Cyberpunk 2077 с Path Tracing — одна из немногих игр, которые позволяют оправдать установку RTX 5090. Только с ней топовая карточка нового поколения показывает производительность, за которую не стыдно платить такие деньги.

Если взять RTX 4090 и включить 4K с рей-трейсингом без всяких DLSS, мы получим унылые 28 кадров в секунду. Без RT – 40-45. Поиграть и так, и сяк можно, но удовольствия мало. RTX 5090 в тех же условиях покажет 38-40 кадров с трассировкой и около 60 – без. Конечно, до идеала все еще далеко, но уже лучше. Однако действовать нужно иначе.
Настоящая магия начинается, если – как говорят юристы – приобщить к делу DLSS 4. Включаете его на четверочку, и fps взлетает до космических 280 кадров в секунду. Учитывая, что трассировка лучей не отключается, это выглядит как читерство.
В стоке у RTX 5080 показатели еще скромнее: всего 17 fps без MFG, но с DLSS 4 и генерацией кадров выдает вполне играбельные 80+ кадров в секунду. Вроде все по красоте.

Но есть и ложка дегтя в этой бочке меда, о которой мы уже упоминали выше. Тот самый DLSS 4 в Cyberpunk иногда может глючить — маркеры квестов начинают дергаться, а иконки превращаются в кашу, если крутить камерой слишком резко. Не то чтобы это вообще не позволяло играть, вовсе нет. Но глаз цепляется.

RTX 5070 Ti, кстати, тоже в Cyberpunk 2077 чувствует себя вполне уверенно. Про 4К тут речи, конечно, не идет, но в 1440p с Path Tracing, да еще и с DLSS 4 карточка легко перемахивает за 100 fps. Для большинства мониторов этого значения хватит за глаза. Но необходимо понимать, что Cyberpunk с такими настройками — это скорее не правило, а исключение. Потому что в других играх такого волшебства может и не случиться.
Однако забавно, что тайтл четырехлетней давности стал главным аргументом в пользу покупки новейших видеокарт. Похоже, игровая индустрия развивается медленнее железа или производители GPU просто слишком торопятся. Но сути это не меняет.
Marvel Rivals: когда RTX 5070 лучше RTX 4090
Результаты тестов Marvel Rivals выглядят почти невероятно. RTX 5070, которая является почти самой младшей картой в новой линейке, показывает 240 кадров против 180 у RTX 4090. А ведь это флагман прошлого поколения, и сегодня его цена примерно в 2,5-3 раза выше, чем у 5070. Конечно, DLSS 4 с мультикадровым генератором в этой игре решает. Но, как говорится, вам шашечки или ехать? Высокий fps есть, а большего для счастья не надо.

Секрет кроется в особенностях движка Marvel Rivals. Он словно создавался специально под генерацию кадров. Поэтому алгоритмы DLSS 4 легко предсказывают промежуточные кадры, а постоянная динамика в боях маскирует любые возможные артефакты. Это, кстати, признает и сама NVIDIA.
По словам представителей компании, игра как-то подозрительно хорошо отзывается на генерацию кадров. Так что для фанатов именно этого шутера RTX 5070 становится идеальным выбором.
А вот тратиться на RTX 5070 Ti здесь необязательно. Она выдает примерно те же 240 fps, так что доплачивать за старшую версию для этой игры фактически не имеет смысла. Берите RTX 5070 и не переживайте.
RTX 5080 и вовсе буквально улетает в стратосферу. От нее можно ждать не меньше 300-350 кадров с MFG x4. Честно сказать, неясно, зачем столько нужно. Разве что для профессиональных стримеров с топовыми мониторами или для каких-то спецэффектов. Но для домашнего гейминга это явно перебор.
Интересно, что визуальных косяков от Multi Frame Generation здесь практически нет. Камера мечется туда-сюда, взрывы гремят постоянно, но технология справляется без заметных артефактов. Видимо, высокая исходная производительность игры позволяет алгоритмам работать в комфортных условиях — чем больше реальных кадров для анализа, тем лучше предсказание.
Indiana Jones and the Great Circle: зачем GDDR7 в играх
Indiana Jones and the Great Circle — еще один пример игры, которой позарез нужна новая карточка. MachineGames изначально строили проект вокруг трассировки лучей, и без нее игра теряет половину своего визуального очарования. Казалось бы, ну и что? Ведь RTX 4080 с его 16 ГБ видеопамяти должно хватать. Но она здесь откровенно задыхается.

А вот RTX 5070 Ti, имея тот же объем VRAM но более шуструю GDDR7, справляется заметно лучше. В 1440p с максимальными настройками она выдает стабильные 70+ кадров. Если хочется погонять в 4К, лучше брать RTX 5080. Она позволяет комфортно наслаждаться приключениями Инди в Ultra HD, а RTX 5090 добавит неплохой запас прочности для самых напряженных сцен.
Нет, конечно, и RTX 4090 все еще хороша. Даже в безумном разрешении 8K с максимальными настройками флагман прошлого поколения выдает приличные 53 кадра. Но RTX 5090 в тех же условиях будет на 20-30% быстрее, что делает игру в таком разрешении не экстримом, а вполне комфортным занятием.
Именно в Indiana Jones особенно заметна пропасть между поколениями. RTX 4070 Ti просто сдается без боя, RTX 4080 работает через силу, а RTX 5000 чувствуют себя как дома. Это подтверждает: разработчики действительно рассчитывали на новое поколение GPU.
Alan Wake 2: красота требует жертв
Alan Wake 2 получил нативную поддержку DLSS 4 и стал одним из первых проектов, демонстрирующих возможности новых технологий NVIDIA. Атмосферные леса и таинственные локации буквально оживают благодаря реалистичному освещению, созданному трассировкой лучей. Однако за красоту приходится платить производительностью, и даже RTX 5000 не всегда справляются с самыми требовательными сценами без компромиссов.
RTX 4080 Super в Alan Wake 2 с рей-трейсингом выдает всего 26 кадров — результат, откровенно далекий от комфортной игры. RTX 5080 показывает 29 кадров в тех же условиях, что представляет собой минимальный прирост для карт с разницей в поколение. А RTX 5090 дотягивает до 48 кадров, что уже более приемлемо, но все еще далеко от желаемых 60 fps.

Ситуация кардинально меняется с включением Multi Frame Generation. RTX 5080 с DLSS (Quality) достигает впечатляющих 80+ кадров, превращая игру из слайдшоу в плавный интерактивный фильм.
Да, Alan Wake 2 — относительно медленная игра по темпу, и это облегчает задачу MFG. Данная технология лучше работает в проектах, где камера движется плавно и нет резких изменений в картинке, и тут результат мультикадрового генератора почти идеален. Конечно, если не считать единичных подвисаний и подлагиваний.
Remedy Entertainment проделали серьезную работу по оптимизации игры под RTX 5000, но требования к железу остаются очень высокими. Это один из тех проектов, где покупка топовой видеокарты действительно оправдана, если вы высоко цените визуальную составляющую
Stalker 2: RTX 5000 – не панацея
Если Marvel Rivals — это торжество RTX 5000, то Stalker 2 — полный провал. RTX 5070 Ti показывает прирост в один кадр в секунду по сравнению с RTX 4070 Ti Super. Один! За целое поколение видеокарт и сотню тысяч рублей доплаты. Даже обидно как-то.

RTX 5080 тоже не блещет — отрыв от RTX 4080 Super составляет жалкие 11-12%. Доплачиваешь 50 тысяч, а получаешь практически ничего. После таких результатов начинаешь сомневаться в профессионализме разработчиков из GSC Game World. Хотя, учитывая общее состояние игры на релизе, удивляться особо не приходится.
Скорее всего, проблема в том, что Stalker 2 разрабатывался годами с расчетом на железо 2020-2022 годов. Игру писали под одни реалии, а выпустили в совершенно других.
Вообще, есть подозрение, что игра банально упирается в процессор. Stalker 2 известен кривой оптимизацией под CPU, так что даже самая мощная видеокарта тут может оказаться бессильной.
Может, дело в том, что разработчики просто не успели допилить игру под новые карты? Или в том, что у них были другие приоритеты — например, исправление вылетов и багов? В любом случае результат не самый лучший. Но для игры в 2К брать что-то ниже RTX 5070 точно не стоит – вдруг допилят.
Сравнительное тестирование видеокарт RTX 5000 в играх


Топ игр, которые стоят покупки RTX 5000
После нескольких месяцев доступности карт RTX 5000 на рынке можно выделить игры, которые действительно оправдывают их покупку:
Обязательные к покупке RTX 5090:
Cyberpunk 2077 с Path Tracing — тут без флагмана никак
Indiana Jones 4K — нужен запас мощности для стабильных 60 кадров
Alan Wake 2 с максимальным RT — красота требует жертв
Достаточно RTX 5080:
Любые игры в 4K без экстремальных настроек RT
Профессиональный стриминг в высоком качестве
Контент-креация и видеомонтаж
Хватит RTX 5070 Ti:
Marvel Rivals и подобные динамичные шутеры
1440p с максимальными настройками
Большинство игр на Unreal Engine 5
Не стоит переплачивать:
Counter-Strike 2, Valorant, Dota 2
Старые игры без ray tracing
Инди-проекты и казуальные игры
Реальная стоимость владения RTX 5000
Впрочем, помните, что цифры на ценниках — это еще не все расходы. Вот полная картина того, во что обойдется покупка RTX 5000:

Как видите, реальная стоимость владения топовой видеокартой может превышать первоначальную цену почти вдвое. И это не считая морального устаревания. Ведь через 3-4 года даже RTX 5090 рискует перестать быть такой актуальной.
Конечно, это не значит, что старое лучше нового. Тем более, что сейчас цены на новые видеокарты постепенно идут вниз, делая их более выгодным приобретением.
Стоит ли покупать видеокарты RTX 5000
Видеокарты RTX 5000 показывают себя очень по-разному в зависимости от игры. В одних проектах они творят настоящие чудеса. Взять тот же Marvel Rivals, где RTX 5070 легко обходит RTX 4090 по fps. А в других прирост будет настолько мизерным, что удовольствия от покупки вы рискуете не получить.
При этом сценарии, где новые карточки полностью себя оправдывают есть, и их немало. RTX 5090 отлично показывает себя в Cyberpunk 2077 с Path Tracing в 4K, Indiana Jones на максимальных пресетах или Alan Wake 2 с трассировкой лучей. А вот для CS и DOTA она будет откровенно избыточна.
Но если вы как раз собираете ПК для игр, очевидно, что лучше обратить внимание на что-то из нового. RTX 5080 станет золотой серединой для тех, кто хочет играть в 4К без экстремальных настроек, а RTX 5070 Ti идеально подойдет для 1440p с максимальными настройками в большинстве современных игр.
Комментарии (28)
hurtavy
17.07.2025 09:02А ещё кроме "генерации" кадров можно просто дублировать предыдущий, тем самым повысив виртуальный ФПС ещё в несколько раз :) Дарю идею
ShadF0x
17.07.2025 09:02Так это просто Vsync получается - он, когда система до целевого значения монитора не может дотянуть, "роняет" максимальный FPS до ближайшего делителя и повторно отдаёт готовые кадры. То есть на мониторе 60 Гц FPS падает до 30, как раз из-за того, что ГПУ отдаёт тот же кадр дважды.
PrinceKorwin
17.07.2025 09:02А если говорить за игровые ноутбуки, то какие видеокарты имеет смысл рассматривать?
ripandtear
17.07.2025 09:02Сижу на 4080S. Подобные топовые видеокарты за такие деньги полноценно их "отрабатывают" сейчас в 2025 в очень немногих играх. Ну вот например те, где есть трассировка пути:
- Cyberpunk 2077;
- Alan Wake 2;
- Star Wars Outlaws;
- Avatar: Fronties of Pandora;
- Doom: The Dark Ages;
- Quake 2 RTX;
- Portal RTX;
- Half-life 2 RTX;
- Indiana Jones and the great circle;
Возможно что-то забыл. Дальше идут игры "попроще" с вкраплениями технологий трассировки в том или ином соотношении.
Стоит ли за 9 игр платить 100+ тысяч рублей ? - это вопрос. Только ради них наверное такую видеокарту покупать нет смысла, в других играх попроще трассировка не оказывает такого драматического эффекта на итоговую картинку. Но есть пласт современных игр, которые на UE5 без костылей в виде DLSS4 и прочего, работать вряд ли будут нормально.nidalee
17.07.2025 09:02Я сам сижу на 4090 и считаю, что ray tracing - это способ отъема бабла у населения и способ для разработчиков сэкономить время (= деньги), потому что в том же UE5 ray tracing включается просто галочкой в интерфейсе. За такое удобство для разработчика платит покупатель, которому слегка подслащают пилюлю с помощью DLSS и рисовалки кадров.
Рисовалку кадров я неприемлю, просто потому что я прекрасно ощущаю задержку ввода от ее включения. Когда она реально полезна, при менее 60 фпс - она начинает заметно артифачить и к и так дикому времени кадра >16мс прибавляется еще примерно столько же из-за оверхеда DLSS FG. Когда она не нужна - ну, она не нужна.
Ray tracing включаю, если фпс позволяет - если все нормально работает на DLSS Quality или без DLSS вовсе.
Вот DLAA штука приятная, но я ее просто мало где видел, если честно. А в мультипллерных играх заменять dll DLSS боязно, чтобы обновить версию самостоятельно.
ripandtear
17.07.2025 09:02В мультиплеер давно перестал играть практически полностью (очень редко включаю Overwatch 2), а в одиночных генератор кадров работает без проблем и без задержек, которые я мог бы ощутить, но и там динамики понятно, такой нет.
Hu3yP7
17.07.2025 09:02За смену длсс бан вряд ли дадут, если игре не понравится, то она скорее всего просто не запустится. Тем более в Nvidia app это делается, поэтому проблем быть не должно (типа официально же).
MountainGoat
17.07.2025 09:02Были баны, и за простые изменения в тракт, и за одну попытку запустить в Wine, и за неодобренный счётчик FPS. Обычно баны потом откатывали, но отдельные мудаки упирались рогом и продолжали писать что Wine - это страшное оборудование преступников и они де берегут остальных своих пользователей.
Hu3yP7
17.07.2025 09:02Ну с вайном и счётчиками понятно почему, одно не может в античиты, другое слишком сильно себя встраивает в игру. У АМД было подобное с antilag 2 и cs2. А в какой игре нет DLAA?
nidalee
17.07.2025 09:02А в какой игре нет DLAA?
Почти ни в каких нет. Icarus, The Outlast Trials, Outpost: Infinity Siege - это из того, что сразу вспомнил.
А вообще вот
MountainGoat
17.07.2025 09:02Дальше графонистых игр будет больше. А я считаю, что именно в России GPU будут только дорожать. Так что платить 100+ кРуб за 9 игр сейчас стоит для того, чтобы не платить 300+ кРуб за 100 игр потом.
Я два года назад поймал момент падения майнинг-бума, ухватил 4090 с продлённой гарантией, сейчас сижу весь в белом
костюмемайке, зная что до 6000 поколения вопрос полностью закрыт, а скорее всего и до 7000. Кто сейчас думает обновляться, тем тоже надо думать не про сейчас, а про будущее. И уж точно не брать 8Гб.
Hu3yP7
17.07.2025 09:02В Lossless Scaling генератор поинтереснее будет, там можно до определенного FPSа генерировать, а не просто множителем. И даже использовать для генерации 2-ю карту.
rozenkreuser
17.07.2025 09:02Аналогов то нормальных нет, так что если нужна видюха и есть деньги то надо брать
nidalee
5070 и выше брать можно, только учтите, что FPS с FG - это генератор красивых картинок, "под капотом" у вас будет нативный ФПС слабее той же 4090, а значит задержка отклика в миллисекундах тоже выше, плюс оверхед FG.
Я лично пробовал FG 2x - это просто ужасно, задержка становится хуже, чем просто играть в условные 30 фпс, после каждого движения мыши ты реально ждешь - ни в какой Marvel Rivals с таким лагалищем играть, конечно, невозможно. А вот с геймпадом в условный Alan Wake - да, самое то.
Ниже 5070 брать нельзя - против карт с меньше, чем 10 гигами VRAM, в 2025 нужно голосовать рублем. Да, даже в 1080Р.
MountainGoat
Именно в Marvel Rivals отлично игралось с генерацией кадров. Её просто нужно уметь готовить. Правило #1 - фальшивый ФПС никогда не должен превосходить возможности монитора. Если без генерации 90 ФПС, а монитор на 120 - генерацию включать нельзя, будут лаги. Ну или полностью отключать вертикальную синхронизацию, до появления полос на экране.
nidalee
На таких значениях ФПС, генерировать лишние кадры просто нет смысла в соревновательном шутере. Смотрите что я имею ввиду: для шутера важен не FPS, а время отклика (поэтому существуют NVIDIA Reflex и иже с ними) - для шутера важно минимизировать время кадра. Время кадра под капотом из-за включения FG не уменьшается - игровая логика все еще крутится на настоящем ФПС под капотом, значит ваша задержка остается на тех же условных 60 FPS (16мс) даже если вы рисуете 300. Более того: включение FG увеличивает задержку, это не какая-то проблема реализации в конкретной игре или типа того, это просто принцип работы FG:
То есть в самом главном параметре для шутера - времени реакции, вы теряете при включении FG. Что получаете взамен? Более плавную картинку и некоторое количество артефактов. К сожалению, в контексте конкретно шутеров - это не плюс, а минус, о чем я и пишу. Для шутеров FG вреден при любом сценарии, потому что включая FG вы увеличиваете свой input lag.
ZirakZigil
Для хардкорно-соревновательных. В не онлайн шутерах никакой проблемы со стрельбой это не даст. И даже в некоторых онлайн, типа дестини 2 (если она там есть), из-за местного сетевого говнокода локальная задержка находится где-то внизу списка вещей, о которых стоит волноваться.
Lex98
Смысла от сгенерированных кадров в чем-то хоть немного соревновательного ровно 0 из-за принципа его работы. FG берет 1 готовый кадр, потом ждет второй готовый кадр и рисует 1,2 или 3 кадра между ними для красивой цифры фпс. Т.е. вместо того, чтобы отдать уже готовый кадр с новой информацией о том, что вообще происходит, приходится ждать пока там эти кадры не сгенерируются и не покажутся. Для мультиплеера, в котором нельзя предсказать кто, что и куда произойдет это просто дополнительная задержка.
MountainGoat
Как бы да, но не да. Вы описали так, будто генерация кадра - это мгновенный процесс. Но ведь это же много этапов, растянутых во времени, Генерация не ждёт готовый второй кадр, а берёт его задолго до готовности. Затем, пока видеокарта честно строит следующий кадр, генерация в параллель к этому работает. Генерация берёт старый кадр, геометрию нового кадра, высчитывает среднее между геометриями, натягивает текстуры со старого кадра на среднюю геометрию, затем нейронка заполняет оставшиеся после этого дырки, и сразу показывает. Этот процесс занимает меньше времени, чем честная генерация кадра, там более с лучами и прочим.
Если считать время между кадрами без генерации как 100...200...300, то с генерацией будет 100...160(г)...220...280(г)...340. То есть, задержка вывода информации уменьшается, тогда как задержка обработки реакции пользователя оказывается разбитой между кадрами. То есть если игрок нажал выстрел в момент 120, то он будет показан раньше, чем без генерации. А в момент 150 - позже.
А на то, как игра читает ввод мыши, генерация вообще не должна влиять (но тут нельзя полностью исключать элемент рукожопия)
Потому что в паре с генерацией идёт Nvidia Reflex. Это ещё один генератор псевдокартинок, но его все любят. Он ждёт, сколько может, пока идёт генерация кадра, и в последний момент подрисовывает в кадр некоторые элементы, типа вспышек от выстрелов и попаданий, в зависимости от пришедшей к этому моменту информации. Подрисовывает весьма грубо, то есть отражения от вспышек и искры там разные появятся только в следующем кадре. И он работает с генерированными кадрами тоже. Отчего вспышка на остановленном сгенерированном кадре выглядит вообще странно. Но в динамике норм.
Чего генерация совсем не терпит - так это задержек на входе или выходе. Если движок игры тупит и не поставляет вовремя информацию, или если монитор сообщает "помедленнее пожалуйста, я записываю". Вот тут генерация может только пропустить свой кадр целиком со всеми подготовками. Получается провал 100...160...220...340... а то и хуже. Это и есть все те кошмарные задержки и плавание, которые ощущают киберкотлеты, в первый раз включившие генерацию. Парадоксально, но виновато их топовое железо, у генерации свои требования.
ФПС вместе с генерацией должен быть ниже, чем умеет монитор. VSync тут не уместен.
Celahir
Или не будет показан. Кадр с настоящим расчетом у нас будет все равно на условные 20 юнитов позже (200 против 220 с генерацией). Что будет нарисовано на промежуточном кадре неизвестно. Красиво и плавно - да, информативно - нет.
Это при том, что я приобрел себе 5090 из-за объема памяти и производительности. И в том числе, чтобы MFG не включать.
PS. Я тут занимаюсь сбором данных на динамо стендах. Я тоже могу снизить частоту дискретизации, экстраполировать данные между точками и заявить повышенную "точность". Качество реальных данных при анализе только упадет, зато график на презентациях будет плавный.
ahabreader
Это описание так ужасно расходится со словами Nvidia и бенчмарками, что очень хочется знать, откуда оно.
По Nvidia "будущий" кадр готовится целиком (рендерится и апскейлится*) а промежуточный в DLSS3 интерполируется на основе "information from the game motion vectors, the optical flow field, and the sequential game frames [т.е. предыдущего и этого "будущего" кадра]".
С бенчмарками от Techspot это сходится.
Картинки-объяснения (upd)
Если ещё порассуждать о величине задержки
"1 кадр задержки" тут в значении "1/fps", без погружения глубже, без размышлений о конвейерах.
Иллюзия магии ("задержка вывода информации уменьшается") возникает, потому что забывают про апскейл (который работает вместе с фреймгеном) и сравнивают не с DLSS-без-фреймгена, а с нативом - то есть с другим разрешением. Input Latency у Techspot под спойлером растёт относительно DLSS-без-фреймгена, как и должно быть.
Reflex по Nvidia оптимизирует render queue, чтобы кадры не скапливались и поспевали к оптимальному моменту (тут команды от CPU к более удачному моменту отложить, там частоту GPU на мгновение приподнять). Из возможностей изменения картинки заявлены только планы на будущий Reflex Frame Warp примерно как в шлемах.
* на схеме оптический поток работает с апскейленными кадрами.
nidalee
FG не подразумевает апскейл и может быть включен (или не включен) отдельно от него.
ahabreader
Да, впрочем, Techspot смотрели на фреймген в DLSS4 в нативном разрешении - задержка тоже растёт.
Суметь без рендеринга отобразить данные, которые возникли позже последнего честно отрендеренного кадра - это ценная магия, но она ограничивается ещё не вышедшим Frame Warp.
"Reflex Frame Warp ... we explored predictive rendering; instead of always rendering from a strictly player-centered viewpoint, we extrapolate camera movement from user input" - https://research.nvidia.com/labs/adlr/DLSS4/
Думаю, если бы оно работало как "Генерация берёт старый кадр, геометрию нового кадра", то это был бы повод для гордости, сравнимый с Frame Warp (=> были бы публикации) и о нём тоже бы говорилось со словами "predictive rendering", "extrapolate". UPD: также пришлось бы публиковаться, чтобы показать прогресс по сравнению с DLSS3 и конкурентами и чтобы сообщить, что их дважды неверно поняли (опровергуть подчёркнутое): "Jensen says DLSS 4 'predicts the future' to increase framerates without introducing latency (Updated: Nope)" - tomshardware.