По мере того как текущее поколение видеокарт NVIDIA GeForce RTX 4000-й серии перестает впечатлять своей производительностью, взгляды энтузиастов и профессионалов постепенно обращаются к будущей линейке GeForce RTX 5000. Несмотря на то, что официальной информации от NVIDIA на этот счет пока нет, земля полнится слухами и предположениями о характеристиках и возможностях грядущего поколения графических ускорителей. В результате прогнозов и утечек образовалось уже достаточно много, чтобы по крайней мере попробовать составить картину того, чего стоит ожидать от новых видеокарт.
Когда выйдет GeForce RTX 5000
Изначально выход видеокарт серии GeForce RTX 5000 ожидался не ранее середины 2025 года. Однако в последнее время все чаще проскальзывает информация о возможности более раннего релиза. Ключевым фактором, способным повлиять на сокращение сроков подготовки новой линейки, называют усиливающуюся конкуренцию со стороны AMD, которая в последние годы демонстрирует впечатляющий прогресс как в настольном, так и в мобильном сегменте GPU.
Успех архитектуры RDNA и ее итераций заставляет NVIDIA более агрессивно подходить к разработке и выпуску новых продуктов. Чего только стоит новая iGPU Radeon 890M, которая оказалась мощнее ноутбучной версии RTX 3050. Страшно представить, что “красные” предложат в сегменте дискретных видеокарт.
Если слухи верны, и NVIDIA действительно готовит ускоренный выход RTX 5000, это может означать следующее:
Компания уверена в значительном прогрессе своих технологий и готова представить существенный прирост производительности раньше изначально планируемого срока.
NVIDIA оценивает потенциал будущих продуктов AMD (предположительно, серии Radeon RX 8000) как серьезную угрозу своему доминированию на рынке высокопроизводительных GPU.
Компания может пойти на определенные компромиссы в плане энергоэффективности или технологического совершенства ради более раннего выхода на рынок.
Но даже при таком раскладе ожидать выхода новых видеокарт раньше конца 2024 - начала 2025 года не стоит. Разработка и производство столь сложного продукта требует значительного времени, а NVIDIA просто не может позволить себе выпустить сырой и непригодный к использованию продукт.
Архитектура Blackwell: эволюция или революция?
Согласно имеющейся информации, серия GeForce RTX 5000 будет базироваться на новой архитектуре под кодовым названием Blackwell. Это продолжение линейки архитектур NVIDIA, названных в честь выдающихся ученых - после Turing, Ampere и Ada Lovelace настал черед увековечить имя Дэвида Блэквелла, известного американского математика и статистика.
Хотя детали архитектуры Blackwell пока держатся в секрете, можно предположить, что она будет развивать идеи, заложенные в Ada Lovelace, с акцентом на дальнейшее улучшение производительности в сценариях с трассировкой лучей и использованием искусственного интеллекта для улучшения качества изображения.
Ожидается, что Blackwell принесет следующие улучшения:
Увеличенное количество CUDA-ядер, RT-ядер (для трассировки лучей) и тензорных ядер.
Повышенные тактовые частоты.
Улучшенная энергоэффективность.
Использование нового технологического процесса.
Долгое время особый интерес вызывали слухи о возможном использовании в RTX 5000 мультичиплетного дизайна. Однако, согласно последним данным, топовый графический чип GB102, который ляжет в основу видеокарт нового поколения, будет иметь монолитную структуру. Он, по слухам, будет работать на базовой частоте почти 2,9 ГГц, что является значительным шагом вперед по сравнению с предыдущими поколениями.
Производительность RTX 5000: ожидаемый квантовый скачок
Хотя конкретных данных о производительности RTX 5000 пока нет, инсайдеры рассчитывают на значительный прирост по сравнению с текущим поколением. Наиболее интересная информация касается флагманской модели - предполагаемой GeForce RTX 5090. Согласно слухам, эта видеокарта может оказаться примерно в 1,7-2 раза мощнее нынешней RTX 4090.
Такой прирост производительности может быть достигнут за счет следующих улучшений:
Увеличение количества ядер: ожидается 192 потоковых мультипроцессора и 24 576 ядер CUDA.
Повышение пропускной способности памяти.
Увеличение объема кэша.
Рост тактовых частот: базовая частота составит 2,9 ГГц.
12 кластеров GPC (Graphics Processing Clusters) по 8 TPC (Texture Processing Clusters) в каждом.
Энергопотребление и эффективность: баланс мощности и экологичности
Одним из ключевых вопросов, связанных с выходом RTX 5000, является энергопотребление. Текущее поколение флагманских видеокарт NVIDIA уже вплотную приблизилось к пределам возможностей стандартных блоков питания и систем охлаждения в персональных компьютерах. RTX 4090, например, имеет заявленное энергопотребление 450 Вт.
Источники утверждают, что NVIDIA стремится сделать серию RTX 5000 более энергоэффективной. Это критически важно не только с точки зрения удобства использования и совместимости с существующими компонентами ПК, но и в контексте растущего внимания к экологичности высокотехнологичных продуктов.
Достижение повышенной энергоэффективности при значительном росте производительности - сложная задача, которая потребует инновационных решений:
Использование более совершенного техпроцесса для производства чипов, возможно, 4-нм или даже 3-нм.
Оптимизация архитектуры для более эффективного использования энергии.
Внедрение новых технологий управления питанием на уровне чипа.
Возможное использование новых материалов в конструкции GPU для лучшего теплоотвода.
Если NVIDIA удастся сохранить энергопотребление флагманской модели RTX 5090 на уровне, близком к RTX 4090, при заявленном приросте производительности, это будет считаться большим успехом. Однако, по другим данным, мы увидим дальнейший рост TDP топовых видеокарт, и в случае с RTX 5090 это значение может составить 500-600 Вт.
Из-за этого, по слухам, NVIDIA рассматривает возможность использования нового 16-контактного разъема питания стандарта PCIe 6.0, дабы тем самым улучшить надежность подключения после проблем с разъемами 12VHPWR у RTX 4090.
Память и пропускная способность: новые горизонты
Значительное увеличение пропускной способности памяти, упомянутое в различных источниках (до 52% по сравнению с RTX 4090), указывает на возможное использование новых типов памяти:
Использование памяти стандарта GDDR7, который уже сертифицирован.
Расширение шины памяти для увеличения пропускной способности до 448 бит.
Увеличение объема памяти также вероятно, особенно для флагманских моделей. Если RTX 4090 оснащена 24 ГБ GDDR6X, то RTX 5090 может получить 28 ГБ или даже 32 ГБ. Это особенно важно для профессиональных приложений, работы с высокими разрешениями и сложными текстурами в играх.
Кроме того, с каждым поколением NVIDIA представляет новые технологии, улучшающие качество изображения и производительность. Поэтому вследствие значимого аппаратного апгрейда вполне можно ожидать дальнейшего развития решений, подобных DLSS. В частности, возможно появление DLSS 4.0 или аналогичной технологии с еще более впечатляющими результатами.
А, учитывая растущий интерес к ИИ-технологиям, можно ожидать, что NVIDIA наверняка усилит возможности своих GPU в этой области. Это может включать увеличение количества и эффективности тензорных ядер, а также новые программные инструменты для разработчиков.
Сколько будет стоить видеокарта RTX 5090
Теперь что касается цены. Учитывая предполагаемый значительный прирост производительности и использование передовых технологий, можно ожидать, что цены на топовые модели RTX 5000 будут заоблачными. Различные источники не называют точных цифр, но уверяют, что ориентироваться следует примерно на 2000-2500 долларов.
Такая ценовая политика может вызвать неоднозначную реакцию у потребителей, особенно учитывая общую экономическую ситуацию. Однако NVIDIA, вероятно, будет позиционировать топовые модели RTX 5000 как премиальные продукты для энтузиастов и профессионалов, готовых платить за максимальную производительность.
А, чтобы удовлетворить менее притязательных пользователей, еще до выхода RTX 5090 компания NVIDIA рассчитывает запустить продажи RTX 5080. По слухам, она будет иметь производительность, сопоставимую с RTX 4090D, которая продается в Китае, но при этом ее цена окажется куда гуманнее. Инсайдеры утверждают, что 80-ку можно будет приобрести за 1000 долларов с небольшим. Это куда более интересное предложение, и, очевидно, именно оно имеет все шансы стать бестселлером.
Комментарии (65)
MountainGoat
12.09.2024 08:08+2Тем временем AMD объявила, что не будут делать топовые видеокарты, а сосредоточатся на мобильных.
Fedorkov
12.09.2024 08:08+1Очень странно с учётом того, какие сейчас развергаются бездны спроса со стороны машинного обучения.
nidalee
12.09.2024 08:08+4AMD в машинном обучении практически не представлены, портируют для них все модные штуки просто постольку-поскольку. Мне кажется, что у AMD как раз был бы шанс вырвать узкую нишу "домашнего ML" у NVIDIA, выпусти они на рынок карточку с 32-48ГБ VRAM, пусть и не особо мощную. Даже на уровне 4060-4070 было бы хорошо - пофиг, что не особо быстро работает на 24ГБ и меньше, главное, что лезет больше 24 при необходимости. Но они умыли руки.
Fedorkov
12.09.2024 08:08+1Тут нет какого‑то сетевого эффекта, который бы забетонировал монополию CUDA. Красным достаточно своими силами довести до ума поддержку ROCm в TensorFlow и PyTorch, и всё — кусок рынка их.
nidalee
12.09.2024 08:08+2NVIDIA быстрее, под них делается в первую очередь, с ними нет нет проблем (в целом и из-за кривого портирования в частности). Ничего из этого AMD изменить не может, но могут доложить памяти. Не стали.
MountainGoat
12.09.2024 08:08+5Вместо этого их юристы рассылают угрозы энтузиастам, которые пытаются что-то сделать. Так что у монополии CUDA железобетонная причина: тупость.
saege5b
12.09.2024 08:08+1Это надо библиотеки знатно перетряхивать, а у АМД столько знатных математиков нет. Программистов тоже.
Loggus66
12.09.2024 08:08AMD не прекращают бороться за рынок ML. https://www.tomshardware.com/pc-components/gpus/amd-deprioritizing-flagship-gaming-gpus-jack-hyunh-talks-new-strategy-for-gaming-market
AMD в машинном обучении практически не представлены
TH: Okay, for the data center, you're still planning for King of the Hill?
JH: Of course, we have to because that’s performance-per-dollar. Even Microsoft said Chat GPT4 runs the fastest on MI300
Ну дела.
nidalee
12.09.2024 08:08MI300 это, конечно, хорошо. Но если ваши библиотеки не могут покрутить "с пеленок" дома, если за пределами облаков посмотреть на архитектуру нельзя, то получается что вы себя обрекаете быть узкоспециализированной штукой для очень малого количества людей.
Не зря же к офисам и прочим адобам стараются приучать еще в школах и ВУЗах - чтобы работяги потом автоматически выбирали то, с чем уже имели дело.
Ну а быть молодцом где-то там в одном (условно) здании с кучей суперкомпьютеров - ну ок...
LeToan
12.09.2024 08:08+2Вроде не так, на среднем классе и широком охвате, в "народный" сегмент целят.
Norobe
12.09.2024 08:08+5Чувствую что Nvidia так и продолжит игнорировать VR... 4070Ti, 12GB VRAM для ВР совсем не хватает чтобы рендерить картинку в нативном разрешении без апскейлинга для того же Quest 3, не говоря уже о Pimax Crystal Light. Сейчас 16ГБ это минимум для симов. С другой стороны есть AMD, но их дрова это танцы с бубном.
xsevenbeta
12.09.2024 08:08+2При том, что vr это то самое место, где вся эта гигантская производительность бы пригодилась и где сейчас даже 4090 вытягивает с определенными компромиссами.
nidalee
12.09.2024 08:08+3VR игнорирует в первую очередь потребитель. Если бы на VR был спрос, для него делали бы железо. Но в данный момент VR это аттракцион, как какое-нибудь 3D ТВ лет 5-10 назад. И траектория у него сейчас такая же.
Norobe
12.09.2024 08:08+3VR только набирает популярность, Meta уверено движется к аудитории в 100М но это всё автономки с графикой как в играх 15ти летней давности и очень большим апскейлингом с мыльной картинкой. ПК VR умирает, потому что железо что его тянет стоит слишком дорого для среднего обывателя. Для себя, последние 4 года я играю в ВР игры гораздо больше чем плоские. Библиотека ВР достаточно большая, всегда можно найти что-то стоящее, я бы не слушал тех кто говорит обратное.
nidalee
12.09.2024 08:08+5VR только набирает популярность
Не знаю, что там набирает популярность... Как в 2020 болтался ниже 2%, так и сейчас болтается. Последний показатель "Steam users with VR Headsets" - 1.69% (-0.04%) по сравнению с 1.91% в апреле 2020, когда эта строчка появилась.
Meta уверено движется к аудитории в 100М но это всё автономки с графикой как в играх 15ти летней давности
Ну это мобильный гейминг на стероидах. Как я и говорил, аттракцион. Из "постоянного" в VR только VR Chat да Beat Saber. Все остальное щупается месяц (в сумме) и убирается в долгий ящик. Я свой Quest (1 или 2, не помню уже) доставал последний раз года два назад.
ПК VR умирает, потому что железо что его тянет стоит слишком дорого для среднего обывателя.
Разработчики просто не хотят тратить на него время. VR нормально и без особых усилий портируется только на симуляторы, в том числе порнуху (ничего против не имею, если что). Вот там да, буквально каждую неделю что-то выходит. Из больших игр чтобы что-то поддерживало VR я даже и не слышал со времен Alyx. В основном он везде отваливаются, когда разработчики теряют интерес: например, в Phasmophobia.
Norobe
12.09.2024 08:08+1Последний показатель "Steam users with VR Headsets" - 1.69% (-0.04%) по сравнению с 1.91% в апреле 2020, когда эта строчка появилась.
Ну вы по сути подтвердили то что я сказал выше о том что весь рынок ВР переходит от ПК на автономки после популярности Quest 2, та же тенденция с портативками, с выходом SteamDeck (упустим Нинтендо) их популярность растет как на дрожжах. Похоже современный обыватель хочет получить всё в одном заплатил при этом минимум, даже если придётся пожертвовать качеством. Важен ещё юзер фрикшн, всё что требует более пары кликов для запуска игры вызывает у них проблемы...
Из "постоянного" в VR только VR Chat да Beat Saber. Все остальное щупается месяц (в сумме) и убирается в долгий ящик.
Pavlov, Contractors, Contractors showdown, VAIL, Red matter, Asgards wrath, Medal of honor, Assassins Creed Nexus, Blade and Sourcery продолжать можно долго. VR Chat сам по себе не игра а метавселенная по типу Roblox, контента там больше чем в сотни играх вместе взятых, хочешь пошел играть с друзьями в хоррор квест, не нравится такое, можно сходить в кино, караоке, amongus, prompt hunt, всё перечислить нереально в формате одного комментария. Потому и стабильный онлайн в 100к (а в пиках и до 500к) там вполне оправдан.
Разработчики просто не хотят тратить на него время.
Аудитория кратно меньше, разраборка под ВР более сложная, требуется постоянно переключатся между монитором и ВР даже для того чтобы сверить цвета или масштаб потому что на плоском мониторе всё выглядит совершенно иначе (разработки ВР думаю понимают эту боль). Потому без дотаций разработка ААА проектов на нынешней стадии невыгодна.
Denis_Andreevich
12.09.2024 08:08Играю на XBox и Nintendo Switch. Для всего остального есть Mac mini M2 и Mac Pro M2.
Tsimur_S
12.09.2024 08:08А необходимость в этом есть для геймеров? Насколько я помню 4090 вполне тянет 4к со всеми рейтрейсингами в 60-70фпс. А с длсс там должно быть под сотню. Зачем нужен 1.5х буст?
Для обучения современных llm же нужно под сотню гигов памяти на видеокарте. В общем ценность продукта непонятна.
AuroraBorealis
12.09.2024 08:08+9Для обучения - Hopper. Все эти 5090 - все-таки масс-маркет для развлечений. Чем загрузить такую производительность - найдут. Придумают какой-нибудь шутан от первого лица, где будет 5k@120fps@120Hz и люди купят. Для игр нужны не видеокарты, а гейм-дизайнеры, сценаристы и отсутствие маркетологов
Tsimur_S
12.09.2024 08:08+3Для обучения - Hopper.
Hopper не для простого люда. Если раньше можно было покупать топовый Титан с отмазкой "мне для обучения нейронок" то сейчас это не актуально.
Придумают какой-нибудь шутан от первого лица, где будет 5k@120fps@120Hz и люди купят
Это все есть и сейчас, нужно это почти что никому. Продать 2k->4k и 60fps->120fps еще можно. Удачи продавать 4k->8k. Пока VR не дозреет тут выжженное поле.
Для игр нужны не видеокарты, а гейм-дизайнеры, сценаристы и отсутствие маркетологов
Все нужно. В киберпанк всяк приятнее играть с ртх и на ультра с 70фпс а не с 20.
AuroraBorealis
12.09.2024 08:08+1Удачи продавать 4k→8k
Да без проблем - придумать новый киберпанк, продать его, даже саму игру можно и не делать, как последние лет пятнадцать. Только написать, что best viewed at 8k
Hopper не для простого люда.
NVidia в принципе мечтает забыть о простом люде, зачем, если H100 генерирует 72% выручки, а весь про сегмент - 91% в сумме.
Tsimur_S
12.09.2024 08:08Да без проблем - придумать новый киберпанк, продать его, даже саму игру можно и не делать, как последние лет пятнадцать. Только написать, что best viewed at 8k
Без проблем не получится потому что технологии не масштабируются линейно в плане стоимости и потребностей. Примеры: достаточно быстро произошел апгрейд Ethernet 10мбит->100мбит->гбит а дальше все, 2.5 с трудом проникает в премиум сегмент. 10гбит консьюмерские устройства так и не получили. Аналогично cd -> dvd -> blue-ray.
А причина проста, возьмем 100 мбит eth как точку отсчета, из ста человек примерно 90 условно готовы доплатить 10% к стоимости устройства за 1гбит, 50 человек готовы доплатить 30% за 2.5гбит и 1-10 готовы доплатить 50% за 10гбит, ну им просто не нужны такие скорости. И вот тут экономика разваливается потому что невозможно при таком малом количестве желающих сохранить эти доплаты в вышеописанных рамках, только за оверпрайс.
Аналогично и разрешение видео, для многих уже составляют проблему отличить QHD от 4k а 4к от 8к на мониторе и подавно не отличат. То же самое и с частотой, 30fps->60fps заметят почти все, 60fps->120fps немногие, 120fps->240fps почти никто. Это будет сродни аудиофилам прогревающим кабели за $1000. А бизнес на таких аудиофилах хоть и возможен но не в области суперсовременных чипов, там нужна именно массовость.
Вот и получается что 40xx карты почти сожрали рынок игровых видеокарт закрыв потребности 4к@60fps. Тут нужно фиксировать производительности на этом уровне и врываться на рынок с продуктом дешевле nvidia. Жаль что у AMD и Intel лапки.
NVidia в принципе мечтает забыть о простом люде, зачем, если H100 генерирует 72% выручки, а весь про сегмент - 91% в сумме.
Не зачем в том то и суть.
nidalee
12.09.2024 08:08+1Вот и получается что 40xx карты почти сожрали рынок игровых видеокарт закрыв потребности 4к@60fps.
4090 не закрыла потребности 4K@60fps, потому что в ряде игр без DLSS оно не может в 60 стабильных FPS на максимальных настройках. Это уже не говоря о том, что 4K бывает и больше 60 гц. :)
Tsimur_S
12.09.2024 08:08+14090 не закрыла потребности 4K@60fps, потому что в ряде игр без DLSS оно не может в 60 стабильных FPS на максимальных настройках.
Без длсс обязательное требование?
Это уже не говоря о том, что 4K бывает и больше 60 гц.
Бывает, об этом в комментарии тоже написано.
nidalee
12.09.2024 08:08+1Без длсс обязательное требование?
Ну в целом, конечно, желательное. Причем черт с ним с апскейлером, уже ведь и его мало, теперь frame gen-ом приходится рисовать то, чего нет - вот это печально, на карте за 2000 баксов-то.
wataru
12.09.2024 08:08+20Насколько я помню 4090 вполне тянет 4к со всеми рейтрейсингами в 60-70фпс
Вы недооценивате размер болта, который разработчики AAA игр кладут на оптимизацию. Особенно тяжко становится с рейтрейсингом. Многие из современных тайтлов не тянут 60fps даже fullhd даже на самой топовой видяхе.
n3td0g
12.09.2024 08:08Ну с трассировкой это в целом логично, особенно в играх типа Alan Wake 2, где даже в отражении видимо влияние переотраженного света на объекты. Выглядит красиво, но требует тяжёлых расчетов и очень чувствительно к разрешению.
Нужно ли это конкретному игроку - отдельный вопрос, но в целом не всегда дело в оптимизации, ибо трассировка как раз идёт в паре с тем же DLSS.
Но да, хватает и проектов с просто ужасной оптимизацией, но что интересно, у них чаще проблемы из-за CPU в первую очередь, а не GPU (особенно если игра на UE).
Neikist
12.09.2024 08:08+1Есть VR. Есть всякие 100+гц 4к мониторы для ценителей. Ну и игры все жиреют. Вуконг вроде как даже на 4090 не может на 4к 60 fps вытянуть, как слышал.
xsevenbeta
12.09.2024 08:08+2А необходимость в этом есть для геймеров? Насколько я помню 4090 вполне тянет 4к со всеми рейтрейсингами в 60-70фпс.
Необходимость будет всегда. Так как графика в играх это всегда огромное количество приёмов, ухищрение и триков - которые используют для имитации чего-либо (света-тени-отражений-физики, в общем реальных эффектов). Это повышает производительность и даёт желаемые 60-90 фпс, но сказывается на картинке и реализме. Повышение производительности позволяет где-то совсем отказываться от имитации, либо создавать более умелые имитации.
Fedorkov
12.09.2024 08:08+1сказывается на картинке и реализме.
А главное — на трудозатратах.
PowerMetall
12.09.2024 08:08Именно
Зачем мучиться и пытаться урвать еще хотя бы чуть-чуть оптимизации, триков, ухищрений, тратя на это время (и зарплату) разрабов.
Проще прописать в системных требованиях "Рекомендуется RTX 9990 Ti Super, Intel Core i19 8 Gghz / Ryzen 99989X Thread Ripper, RAM 256 GB" - и всё, задница прикрыта )))
Ситуация на самом деле весьма похожа на то что творится сейчас в WEB разработке (сам оттуда) )))
qw1
12.09.2024 08:08Проще прописать в системных требованиях "Рекомендуется RTX 9990 Ti Super, Intel Core i19 8 Gghz / Ryzen 99989X Thread Ripper, RAM 256 GB"
Как отбивать затраты? Купят это два фрика с таким железом. А третий, у которого есть это железо, скажет "не мой жанр, жду другую игру".
wataru
12.09.2024 08:08+2Как отбивать затраты?
Такое ощущение, что эта часть вообще современным AAA студиям не интересна. То ли они инвесторские деньги жгут, то ли это очень хитрая схема отмывания денег, но постоянно принимаются решения, которые могут только снизить популярность игр. Та же повесточка, например.
Javian
12.09.2024 08:08Действительно местами напоминает комедию "Миллионы Брюстера" - требуется потратить деньги максимально быстро с заведомым убытком.
Fedorkov
12.09.2024 08:08Как будто это что-то плохое.
Если инди-одиночка сможет позволить себе графику уровня AAA, отрасль от этого только выиграет.
MountainGoat
12.09.2024 08:08+1Рейтрейсинг сейчас - это коллекция бешеных компромисов, которые в итоге приводят к мыльности. Очень даже есть куда расти - в сторону чётких текстур, нерасплывающихся мелких объектов, и света, не отстающего от его источника на секунду-две.
Я вам приведу видео. Тут человек нахваливает новый AI-denoise в DLSS3.5. Стало действительно намного лучше, но так же видно, насколько ещё есть куда расти. И все перечисленные им проблемы можно решить тупо брутфорсом, увеличив плотность лучей.
Vassilij
12.09.2024 08:08Геймеры, архитекторы - это понятно. Но что делать с гарантией? Любой официальный сервис откажется от возможного гарантийного ремонта, поставив клеймо "майнер". И ведь не доказать никак. К слову, вот пример одного из кучи сайтов с анализом прибыльности майнинга например для RTX 4090 https://2cryptocalc.com/ru/what-to-mine-with-4090 До сих пор гемор у рядовых пользователей из-за этого. Б.У. может быть подпалена, новая - без гарантий....
Moog_Prodigy
12.09.2024 08:08+2Б.у. асик стоит копейки, а майнит как 4090. И выкинуть не жалко (мощный БП и кулеры с корпусом могут всегда пригодиться). Использовать видеокарты для майнинга сейчас - это как топить печку деньгами.
konst90
12.09.2024 08:08По российским законам в пределах гарантийного срока доказывать должны не вы, а продавец/производитель/импортер.
Но сейчас конечно проблема с тем, что через время после покупки продавец может просто пропасть, особенно при сером импорте.
MountainGoat
12.09.2024 08:08Да и срок гарантии 2-3 года на видяхи, за доплату - 5.
PowerMetall
12.09.2024 08:08Да и срок гарантии 2-3 года на видяхи, за доплату - 5
Там, если условия этой, так сказать "доп гарантии за доплату" почитать, особенно мелкий шрифт, внезапно выясняется что это никакая и не гарантия вовсе... )))
DarthVictor
12.09.2024 08:08+1Из-за этого, по слухам, NVIDIA рассматривает возможность использования нового 16-контактного разъема питания стандарта PCIe 6.0
Взяли бы сразу CEE 7
Hlad
12.09.2024 08:08Я так понимаю, на выпуск чего-то для казуальных геймеров обе компании положили огромный болт. Сделали бы видюху баксов за 150, и потреблением ватт в 40-50...
DarthVictor
12.09.2024 08:08+2потреблением ватт в 40-50
Потребление в 40-50Вт - это уровень встроенного видео даже на самых новых техпроцессах. Собственно описанная вами ниша теперь ими и занята. А с пиковым потреблением от 160Вт и ценой от $200 продаются карточки прошлого поколения, которые никто не снимал с производства - 6600XT и 3050 8GiB.
Hlad
12.09.2024 08:08Честно говоря, не ожидал, что встроенное видео столько потребляет. Это многое объясняет...
charypopper
12.09.2024 08:08+1я нашел Palit GeForce RTX 3050 KalmX, с пассивным охлаждением и потреблением в 70 Вт, правда в половину дороже от указанной цены, но продукт достаточно интересный
ZirakZigil
12.09.2024 08:08+1Меньше частота, меньше вычислительных блоков, меньше памяти чем у обычной 3050. А она правда интересная в свете совсем скорого выхода lunar lake?
charypopper
12.09.2024 08:08наверно если есть возможность подождать выхода и сравнить - то лучше подождать и тогда уже принять решение
Zoizenhofer
12.09.2024 08:08Успех архитектуры RDNA и ее итераций заставляет NVIDIA более агрессивно подходить к разработке и выпуску новых продуктов.
А их совместный успех заставляет разработчиков более агрессивно забивать на оптимизацию. Я могу ошибаться, но со времён тысячной серии росли только требования к объёму видеопамяти, и никаких прорывных технологий не случилось. Сам сменил 1060 3g на 3060ti только в этом году потому что захотелось и отчасти из-за видеопамяти. Не заметил никаких изменений кроме того, что счётчик фпс стал показывать 100 вместо 70 (условно) и в новых проектах можно ставить максимальную дальность отрисовки (что опять отсылает нас к оптимизации). Однако, необходимость в чем-то более модном для рядового пользователя находится уже на уровне необходимости в айфоне новейшей модели.
Alexsey
12.09.2024 08:08Однако, необходимость в чем-то более модном для рядового пользователя находится уже на уровне необходимости в айфоне новейшей модели.
Вы сами себе противоречите. Необходимость в чем-то более модном для рядового пользователя как раз таки и исходит из агрессивного забивания разработчиков на оптимизацию. У меня на 3090 демо версия Final Fantasy 16 без апскейла с трудом 60 фпс тянет на 1440p не зависимо от настроек. На 3090, Карл - видеокарте, которая была топовой еще пару лет назад. Учитывая что у меня монитор 180гц есть некоторое желание хотя бы 120 фпс видеть с такой конфигурацией.
PowerMetall
12.09.2024 08:08не зависимо от настроек
Хмм... У меня такое было в Детройт помню, на старом моём компе. Я блин ВСЁ перепробовал, даже на ультра-низкие сбрасывал, толку - ровно ноль. Как дико фризило - так и фризить оставалось, причем не микро-фризы, а прямо на несколько секунд. И так каждые секунд 10.
В итоге сменил проц с 4 ядра 4 потока на 4 ядра 8 потоков - и всё забегало на максимальных
Возможно и кеш в проце зарешал, не разбирался уж, но склонен на потоки грешить. Сменил с i5 3-го поколения на i7 того же поколения (1155 вечен, хех, как в своё время 775 )))Зато дало стимул к смене моего старичка ))
ZirakZigil
12.09.2024 08:08+2которая была топовой еще пару лет назад
Пару лет назад топовой стала 4090, вашей уже 4 года на днях исполнится. А вообще, то, что спустя 4 года почти-флагман осиливает замахивается на 1440/60 без апскейла говорит о том, что мощность растёт быстрее требований. Условная 680 — топ 2012 — в 2016 даже в самых влажных фантазиях не могла обеспечить в новых играх подобную производительность. Да что там, чтобы в условный воч догс 2 поиграть в 1440/60 даже gtx 1080 того же года не хватило бы.
Так что тут радоваться надо, а не сокрушаться.
obabichev
Я недавно еле впихал 4070 в корпус ПК (и надеюсь, что ее хватит на следующие лет 10 с учетом, что я прохожу игры 8-10 летней давности, а она тянет то, что есть на рынке сейчас) и выглядит так, что с ростом их габаритов, скоро не видяха будет вставляться в комп, а комп вставляться в видяху...
Javian
От NVIDIA привычно ожидать отвал видеочипа раньше 10 лет.
yoz
У меня 1070 доработала без проблем до замены на 4070ti. После чего была продана и может дальше работает.
PowerMetall
Удваиваю. Мои1060 пара штук работали, работают, и будут работать у нетребовательных приятелей из глубинки. Но то Pascal, его чтоб убить - ещё постараться надо ))
Javian
У меня Gainward Geforce GTX 570 platinum лет 10 стояла как заглушка - редко что на ней запускал, пока в один момент не начались синие экраны из-за драйвера видеокарты. GPU-Z показал, что объем видеопамяти стал 0 Мб.
Raf9111
Я недавно взял 4090 которая по габаритам прилично меньше прошлой 4080, которая была прилично меньше прошлой 7900хт, так что тут все зависит от модели насамом деле. 4070 вообще не большие же, не знаю откуда там браться размеру если куллера мизерные?