Программистка, косплеер и техно-энтузиаст из Нью-Йорка установила и запустила Crysis 3 на NVIDIA GeForce RTX 3090. Штатных 24 ГБ памяти видеокарты хватило с лихвой.
Геймерша использовала программное обеспечение VRAMdrive под названием GPU Ram Drive.
Она создала раздел NTFS объемом 15 ГБ в памяти видеокарты. Затем Strife212 установила и запустила из этого раздела Crysis 3.
Strife212 пояснила, что игра стабильно работает в разрешении 4К. Оказалось, что даже с очень высокими настройками Crysis 3 внутри GeForce RTX 3090 выдает хороший показатель FPS (Frames Per Second) — 75 кадров в секунду. По словам Strife212, сама игра загружается очень быстро, но видео процесса или его сравнение с другими вариантами загрузки она не предоставила.
По данным GPU-Z общее использование VRAM составляет 20434 МБ, а нагрузка на RTX 3090 составляет от 40% до 80%.
Объем видеопамяти в GeForce RTX 3090 составляет 24 ГБ (24 576 Мбайт), разрядность шины 384 бита, пропускная способность на контакт составляет 19500 Мбит/с. Чипы памяти GDDR6X SDRAM (MT61K256M32JE-21) размещены в 24 микросхемах по 8 Гбит на обеих сторонах PCB (по 12 штук с каждой стороны платы).
Согласно описанию GPU Ram Drive на GitHub, созданный с помощью этой программы том медленнее оперативной памяти, но он работает быстрее обычного HDD. Установленной игре для работы все равно нужно обращаться к ОЗУ. Вобавок после каждого выключения ПК данные из VRAM стираются, поэтому игру придется переустанавливать на видеокарте после каждого выключения компьютера.
См. также:
- «Внутри чипов памяти GDDR6X на GeForce RTX 3080 температура превышает 100 градусов»
- «Добавление термопроводящей прокладки на обратную сторону платы снизило температуру чипов памяти в RTX 3080 на 8 градусов»
- «В первый день продаж цена GeForce RTX 3080 из-за дефицита взлетела до $2500, NVIDIA извинилась»
- «NVIDIA представила новую линейку видеокарт на Ampere»
- «Анонс Nvidia Ampere – Как Хуанг всех приятно удивил»
alex6999
Поясните, а зачем? Зачем помещать игру на виртуальный диск внутри видеокарты?
Я сомневаюсь что текстуры будут грузится напрямую, минуя процессор.
Что такого культового в кризисе 3?
Когда-то я в него поиграл часик-другой.
anger32
Просто, теперь журналистов насилуют не только учёные.
Тупо ради скорости подгрузки в RAM. Вот только фигня в том, что если бы вирт был тоже в RAM, не пришлось бы перекачивать через многострадальную шину PCI весь этот фарш. А так трафик ходит и туда и сюда, причём не удивлюсь, если объёмы сопоставимы. Хотела как лучше, а…
P.S. Риторически: геймерша не упомянула, что нужно игру переставлять после ребута?
Interreto
Я не знаю что за прога у геймерши, но в проге которой пользовался я имелся ф-нал зеркала на винт., так что после ребута у тебя восстанавливались данные.
anger32
Вполне вероятно горячий резерв есть и тут, но как это поможет в кейсе, когда я хочу быстро включить девайс и с ходу начать играть? Содержимое HDD/SSD все равно придется подгружать в память, причем сначала в VRAM, а потом оттуда по PCI в RAM.
HardWrMan
Трафик может никуда не ходить с новой обьявленной технологией RTX IO вся подгрузка сократится до 0.
Dim0v
Дело в том, что "объявлена" — это как бы исчерпывающее описание состояния технологии и ее доступности на сегодняшний день. Есть только этот слайд и обещание запилить поддержку технологии в DirectX.
Так что как минимум в данном случает, ни о каком RTX IO речи не идет и идти не может.
Во-вторых, даже если бы RTX IO был доступен, то я очень сомневаюсь, что протечка (или даже пробоина) в одной абстракции (nvme диски) работала бы так же хорошо с абсолютно другой абстракцией (ram/vram диски).
anger32
В чем прелесть нестандартизованных API, так это в необязательности их применения. Особенно в приложениях/играх 2012 года выпуска.
Про новые приложения тоже вопрос, так как API проприетарное и не факт, что другие вендоры поддержат. Но задумка правильная, хорошо, если выстрелит.
up40k
А есть какие-то подробности про DirectStorage API, на котором эта технология основана? Мне кажется, без серьезных изменений в железе (вследствие переделки всех уровней абстракции доступа к данным) не обойдётся. И с точки зрения безопасности всплывает куча нюансов.
anger32
Ограничить применимость технологии девайсами собственного производства (какими-нибудь nvidia storage ?) и вопрос безопасности отпадает. Проприетарные технологии тяготеют к подобным решениям.
Am0ralist
DanilinS
И что?
У меня например 32 гига оперативки. Если я в ней RAM-диск сделаю — разница будет?
Смысл организации подобного RAM-диска в видеопамяти?
house2008
У меня IDE и проекты на RAM диске, индексация проектов и отзывчивость IDE стала намного лучше, синк с обычным диском rsync + cron.
drWhy
Контроллер памяти в процессоре. Исключаем медленную по сравнению с GDDR6X DDR4 и её контроллер из передачи трафика, не относящегося к процессору. Почему бы не быть разнице?
DanilinS
Не все так однозначно. Ибо контроллер памяти GPU заточен под максимальную производительность канала GPU-GDDR6X. А насколько хорошо это оптимизировано под передачу данных с GDDR6X на CPU — неизвестно. Скорее всего скорость там будет очень резаться. И плюс на пути будет шина PCI Express 3.0 (x16). А это дополнительная задержка, тайминги и т.д. Да и загружена она бывает временами достаточно сильно.
khajiit
Осталось перестать сжимать ресурсы игры и найти видюшку с 80?1024 ГБ видеопамяти?
anger32
Не понимаю почему эти вопросы адресованы ко мне. RAM диск в GPU имел бы смысл только при исключении из цепочки VRAM -> RAM -> VRAM -> GPU второго элемента, а это неосуществимо лишь организацией файло-помойки в VRAM. Отсылок же к неким API я не вижу и даже не могу представить в рамках актуальных подходов, так как тот же OpenGL[ES/...] и Vulkan это в первую очередь CPU-side API, а уже во вторую интерфейс к оборудованию.
IamKarlson
because I can