
Похоже, что эпоха жалоб на нехватку видеопамяти подходит к концу. Оказывается, NVIDIA, в своей привычной манере "сначала сделаем, потом расскажем", несколько лет тихо работала над новой технологией сжатия текстур. Она способна радикально изменить подход к использованию видеопамяти в современных играх и 3D-приложениях, сократив ее потребление в десятки раз. И хотя пока технология находится в бете, первые результаты тестирования в реальных условиях уже демонстрируют ее огромный потенциал.
Что такое Neural Texture Compression от NVIDIA

В основе технологии, получившей название Neural Texture Compression (NTC), лежит специализированная нейросеть. Она умеет на лету сжимать и распаковывать текстуры, но делает это не так, как традиционные алгоритмы. Вместо простого "утрамбовывания" данных нейросеть анализирует контекст и воссоздает текстуры только там, где они нужны прямо сейчас. Это чем-то напоминает работу человеческого мозга, который может “дорисовать” картинку, даже если видит только ее часть.
Для практического применения этой технологии инженеры NVIDIA разработали три режима работы:
Reference Material. Это обычный режим без использования NTC, когда текстуры воспроизводятся как есть. Здесь всё работает по старинке: максимальное качество, но и максимальный расход памяти.
NTC Transcoded to BCn. Тут нейросеть анализирует текстуры и сжимает их, используя специальные блочные форматы сжатия (BCn). В результате те же самые текстуры занимают значительно меньше места в видеопамяти, хотя и не так мало, как в самом продвинутом режиме.
Inference on Sample. В этом режиме нейросеть работает как умный художник, который держит в памяти только основу картины, а детали прорисовывает на лету, когда они попадают в поле зрения. В результате нагрузка на видеопамять падает до минимума, ведь хранить нужно только те текстуры, которые видны на экране прямо сейчас.
Как снизить потребление видеопамяти на картах NVIDIA
Звучит красиво. А что на практике? Для демонстрации возможностей новой технологии NVIDIA подготовила специальную тестовую сцену – детализированный шлем с множеством сложных текстур, бликов и материалов. Современные игры и приложения часто используют подобные 3D-модели, которые из-за обилия мелких деталей, требующих тщательной прорисовки, серьезно нагружают видеопамять. А все тесты проводились на RTX 4090 в разрешении 4K с включенным DLSS.

Первый кадр воспроизведен совсем без сжатия – это наша точка отсчета. В базовом режиме текстуры занимают 272 МБ видеопамяти, что совсем не мало для одной модели. При этом производительность ожидаемо высокая: средний показатель в 1116 кадров в секунду с редкими просадками до 610 FPS. Такие цифры могут показаться избыточными, но они хорошо демонстрируют, насколько мощной может быть современная видеокарта, когда её не ограничивает объём видеопамяти.
Второй кадр демонстрирует первый режим сжатия, который называется NTC Transcoded to BCn. Тут потребление видеопамяти моментально падает до 98 МБ – экономия 64%. Выглядит впечатляюще, особенно если учесть, что это только начало.
При этом производительность не только не страдает, а даже немного растет: средний FPS поднимается до 1145 кадров, а в самых тяжёлых сценах держится на уровне 586 FPS. Самое удивительное, что на качестве картинки это никак не отражается – невооруженным глазом разницу заметить просто невозможно.
Но настоящую революцию демонстрирует режим Inference on Sample. С ним мы видим всю мощь нейросетей: потребление памяти падает до невероятных 11.37 МБ. Задумайтесь на секунду – это 95.8% экономии по сравнению с исходным размером!
Сжатие текстур NVIDIA и падение FPS
Конечно, столь агрессивная оптимизация не может пройти совсем без последствий. Мы видим, что средний FPS опускается до 968 кадров, а в сложных сценах – до 502. Однако эти потери выглядят совершенно несущественными, учитывая масштаб экономии памяти и тот факт, что даже минимальные показатели всё равно остаются на уровне, недостижимом для большинства современных мониторов.
При этом время, которое нейросеть тратит на сжатие, составляет от 0.08 миллисекунд в стандартном режиме до 0.18 мс при использовании максимального сжатия. Это примерно в 2000 раз меньше, чем требуется для мигания человеческого глаза. То есть мы видим, что ИИ выполняет поистине титаническую работу.
Технология использует специальные нейросетевые модели, оптимизированные для работы непосредственно на тензорных ядрах видеокарты. Это позволяет достигать феноменальной скорости обработки данных без существенной нагрузки на основные вычислительные блоки GPU. В результате мы получаем практически мгновенную декомпрессию текстур "на лету" и великолепную производительность при минимальном использовании видеопамяти.
Сжатие текстур и RTX 4090

Neural Texture Compression показывает, как современные технологии могут решать, казалось бы, неразрешимые проблемы. Сжатие текстур в 25 раз при сохранении качества картинки и производительности – это именно то, чего давно ждала игровая индустрия. Круче только то, что технология работает на уже существующем оборудовании и не требует специальных доработок.
Несмотря на то что NVIDIA уже выпустила RTX 5000, она продолжает развивать технологии, которые расширяют возможности и более возрастных видеокарт. Такой подход определенно заслуживает уважения и доказывает, что даже в 2025 году можно и нужно собирать ПК на карточках 4000-й серии, не переживая об их жизненном цикле.
Да, пока что ни одна известная нам игра не поддерживает NTC, поскольку разработка находится в стадии бета-тестирования. Однако нет сомнений, что в обозримом будущем NVIDIA доработает свою новую технологию и выпустит ее в свободное плавание. Разработчики почти наверняка подхватят идею сжатия текстур и начнут ее массовое применение. Осталось просто немного подождать.
Комментарии (27)
andersong
18.02.2025 08:13Опять улучшения в графоний. Вот бы ИИ зарядить, чтобы сожетку проработать, играбельность, вот это все.
Chaos_Optima
18.02.2025 08:13Уже есть работы над сеткой для ИИ противников
andersong
18.02.2025 08:13Это да, самое простое. Я имел ввиду в исходных данных указать данные: вот в этой игре людям нравится эти моменты, в этой другие, данные по человеческой психологии, вот это все, чтобы нейросеть родила то, что человеческому разуму не под силу, вот прямо чтоб откровение)
Spyman
18.02.2025 08:13Вообще генерация текстур казалось лежала на поверхности т.к. текстура почти всегда это просто паттерн, и сгенерированный он может выглядеть даже лучше, т.к. не будет явных повторов.
Но не приведёт ли это к тому, что каждый раз разворачиваясь на 360 картинка будет выглядеть иначе т.к. все текстуры перестроились иначе.
Хотя если они будут строиться относительно некоторого константного seed - то звучит как прорыв.
Metotron0
18.02.2025 08:13Вспоминаю технодемки на условные 640 кб, которые создавали сотни мегабайт временных файлов и выдавали умопомрачительные 3D-сцены, всегда одинаковые.
yrub
18.02.2025 08:13и в чем выгода? память довольно дешевый компонент, упора в нее нет, а вот то, что игры выходят плохо оптимизированными и без этого сжатия дают слабый fps без каких-либо излишеств на экране - это типичная история сегодня. Эти RT ядра и так перегружены сегодня и не вывозят ray tracing
mynameco
18.02.2025 08:13пропускная спосоность шин. и проблема распараллеливания на несколько процов и разбиение кадра на разные процы. им нуны общие текстуры и их приходится либо гонять туда сюда либо дкблировать все. поэтому всяки кросфая и се эл ай умерли не родившись.
qw1
18.02.2025 08:13и в чем выгода?
В сегментации рынка. Алгоритмы для обучения нейросетей хотят много памяти, реальной. Карты с большой памятью можно продавать за 100к долларов, и всё равно купят. С другой стороны, геймеры ноют, что им в новых играх не хватает 8-16 ГБ. Но если геймерам дать больше, эти карты скупят под профессиональное применение. Вот они и выкрутились - нашли, как успокоить геймеров, и не порушить себе продажи про-версий.
NickDoom
18.02.2025 08:13Что-то мне подсказывает, что нормальный жпег будет всяко не хуже, а распаковываться в каждый кадр будет быстрее, чем вся эта нейрогенерация…
Или даже, может быть, жпег-текстура будет рендериться в своё место сцены быстрее, чем читается несжатая, потому что «кыпыцэнты» умножать — быстрее, чем читать 100500 значений из и без того выжатой до упора шины памяти.
maxcat
18.02.2025 08:13А разве видеокарты понимают джипег? Он же в видеопамяти разворачивается в то, что не копейки весит. А ещё его загрузка долгая
Поэтому джипег для игр используют редко, чаще используют специальные форматы, например, dds
Metotron0
18.02.2025 08:13Когда ждать это чудо в драйверах под Линукс? Или это не на уровне драйверов, а на уровне игрового движка? Они дадут разработчикам какие-то библиотеки с нейросеткой внутри?
RolexStrider
18.02.2025 08:13С нетерпением жду ответа от AMD. А то при всех их (для меня) достоинствах - вот сейчас даже ROCm нормально с LM Studio работает (правда только на картах с архитектурой RDNA2/RDNA3), потребление памяти в играх практически всегда процентов на 5-10 выше чем у NVidia при аналогичных настройках.
maxcat
18.02.2025 08:13AMD придется чем-то ответить, ведь их железо стоит во всех игровых устройствах. А у нвидии вообще нет таковых (кроме свича). Кстати, у нвидии это в свич 2 будет очень полезно, если там будет стоять нвидия и нинтендо опять зажмотит память.
Ну и да, очень сильно надоела монополия нвидии.
Такие технологии должны делаться сразу на уровне Dx и Vulkan, чтобы не зависит от вендора и сразу работать везде (в том числе на NPU)
qw1
18.02.2025 08:13В dx/vk перейдёт через несколько лет, когда концепция докажет свою жизнеспособность и стабилизируется. Вспомните, даже банальная растеризация треугольников с текстурированием сначала была в проприетарных API (3dfx - своё, s3 virge - своё).
MonkAlex
Снова плохие новости. Это как хвалить DLSS, в котором за движением остается тень, зато фпс повыше.
Chaos_Optima
Тень остаётся не из-за DLSS а из за кучи темпоральных техник, тот же люмен в 5 анриле использует темпоральные накопления для GI ну и плюс TAA, короче дело не в DLSS
MonkAlex
Выключение DLSS убирает эту "тень" следующую за неожиданными движениями.
ZirakZigil
Можно список игр? Я везде длсс включаю, и как-то лишь в единицах шлейфы реально заметны при обычной игре, а не хантинге.
MonkAlex
Дело не в конкретной игре.
DLSS если в игре есть и включён, то дальше магией занимается уже видеокарта. Шлейф виден на новых версиях, где до 3 фейковых кадров. Если видеокарта не угадала, куда будет выполнено движение - будет шлейф. Ну т.е. в динамике это будет чаще, в играх-кино - реже.
ZirakZigil
А, вы про фреймген. Камень в огород нвидии за то, что они разные технологии под одним названием продвигают. Я имел ввиду dlss, который сеточный апскейл.
MonkAlex
Да, апскейл норм, потому что он на старый добрый ТАА в целом опирается и это неплохо. Вот фейковые кадры пока сомнительны, на мой взгляд.
qeeveex
В киберпанке если стоять на месте и смотреть за проезжающими авто - будет шлейф.