Сегодня у нас в гостях две 980 Ti в SLI, одна GTX 1070, много грязных ругательств, 4k2k и вопросы «как такое может быть». В общем, всё как всегда, будет интересно, заглядывайте под кат.
Матчасть: Maxwell и игра на все деньги
Архитектура NVIDIA Maxwell на момент выхода приятно удивила соотношением производительности, теплоотдачи и цены. В то время казалось, что ближайшие год-два нас ждёт застой, и даже два скандала на тему GTX 970 (сначала с «нехваткой» памяти, затем — с криво указанными спеками в отношении ROP’ов) не помешали стать ей одной из самых популярных видеокарт в пользовательских сборках ПК. Отличная производительность в 1080p, позволяющая играть на максимальных настройках, хорошая — в 1440p, дающая доступ к высоким настройкам, да и 4k2k был вполне играбелен, если вы были готовы пожертвовать качеством пост-обработки вроде самозатенений и всяких дорогих штук типа волос от NVIDIA HairWorks или размытий изображения.
Переплачивать за 980-ю в отсутствие 4k2k было занятием… не самым полезным, разница в цене не покрывала разницы в производительности, а вот 256-гиговый SSD под игрушки за те же деньги можно было и прикупить. Топ-сегмент почти полностью был оккупирован 970-ми от разных вендоров.
Примерно то же самое было и с флагманскими сборками, только вместо 970-й и 980-й были 980 Ti и GTX Titan X. На стороне второго было вдвое больше памяти и чуть более производительная начинка, но утилизировать всю эту мощность в играх было проблематично: Titan как был уделом VR-энтузиастов, разработчиков игр и просто людей, у которых много лишних денег, так и оставался: за 980 Ti просили 650 баксов, а за Titan X — сразу тысячу. А разницы в реальных юзкейсах было в лучшем случае процентов 10.
И если у вас было совсем много денег, то проще уж было потратить 1300 долларов на две 980 Ti, чем брать один Titan, который ещё найти надо было. Проще-то оно проще, но… Тут уже начинаются заморочки. Если «мамка» старая, а видеокарты с «высоким» охлаждением (выше двух слотов) — SLI банально может не влезть. Блок питания соответствующий вынь да положь. Все остальные слоты расширения, скорее всего, придётся забыть… В общем, нюансов масса. Тем не менее, так получилось, что у меня была и подходящая материнская плата, и возможность достать две 980 Ti, и то самое удачное время, когда на столе стоит 4k2k монитор, а рядом — коробка с GTX 1070. Настало время устроить рок в этой дыре? :D
Матчасть 2: Pascal и смерть всему живому
С выходом первых бенчмарков видеокарт на архитектуре Pascal блогосфера, журналисты и железячные издания сначала глубоко вдохнули, а потом не поверили своим глазам. Мало того, что Maxwell прожил всего одно поколение ускорителей, а не два (стратегию «тик-так», внедрённую в своё время Intel’ом, успешно переняли многие производители), так ещё и Pascal просто наголову разбил все прошлогодние решения, а с выходом бюджеток (типа той же 1060), потопил ещё и Б/У-рынок железа. Кому нужна 970-я на гарантии и с 30-40% скидкой, когда можно месяцок подкопить и взять 1060, которая быстрее во всём, имеет больше памяти, поддерживает новые технологии и будет новенькой, с завода? Вот и пристраиваются старые видеокарты по знакомым, за бесценок, либо во вторые компы дома. Да, NVIDIA сразу заявила (и не соврала), что GTX 1070 будет быстрее, чем 980 Ti, а 1080 обойдёт и Titan X прошлого поколения, при том что сами чипы относятся к консьюмерской, а не просьюмерской линейке, и по цене являются заменой «обычным» 970 и 980 соответственно.
Само собой, журналисты от мира железа наделали бенчей, 1070 победила 980 Ti, и мир-дружба-жвачка, но… тут-то у нас две 980 Ti. И запахло жареным!
Железо и спецификации видеокарт
Итак, тестовый стенд. Железки не самые новые, но в грубой силе им до сих пор не откажешь.
CPU: Core i7-3930k @ 3.2 Ггц
SandyBridge-E — не самая новая архитектура, но у 3930 шесть ядер, разблокированный множитель, огромный кэш и 40 линий PCI-Express. Старый конь борозды не испортит;
Материнская плата: Asus Sabertooth X79
До 128 Гб оперативки, 2 полноскоростных PCI-Express’а, позволяющие поставить трёхслотовые видеокарты, очень злые цепи питания… В общем, отличная мамка с сокетом 2011;
SSD #1: 80 ГБ Intel 320
На этом старичке стоит только система, на результативность тестов он влиять не должен;
SSD #2: 480 ГБ Kingston OC400
Качественный диск, рассчитанный на установку в сервера и рабочие станции;
Видеокарты #1: Palit JetStream GTX 980 Ti x2
2 штуки NVIDIA GTX 980 Ti в SLI, режим автоматический;
Видеокарта #2: Palit GTX 1070 GameRock Edition
NVIDIA GTX 1070 с кастомной системой охлаждения и повышенными частотами.
Пару слов о мониторе
В качестве тестового стенда сегодня выступает Philips 241P6VPJKEB. Этот монитор относится к «бизнесовой» линейке, но формально я бы назвал его вариантом для рабочих станций. В дизайне — здоровый минимализм, из фишек — датчики освещения, встроенный звук, USB-хаб и поворотный механизм, а характеристики… Ну, давайте об этом чуть подробнее.
Построен данный дисплей на базе 24-дюймовой матрицы с разрешением 4k (3840?2160 точек). Матрица сама по себе восьмибитная, но контроллер позволяет отображать до 10 бит на канал, смешивая цвета из соседних кадров (FRC, он же frame rate control, если английского не боитесь — здесь ещё многое рассказано). По факту, большинство дешёвых мониторов таким занимаются для отображения 8 бит (а матрицы реально 6-битные). Присутствует заводская калибровка под SRGB (неплохая, надо признать), но калиброванные цвета несовместимы с работой датчика освещения.
По таблице базовых измерений можно было бы сказать: вон, смотри, какая ужасная Delta E. Нормальная. Во-первых, монитор не относится к линейке для профессиональной работы с графикой. Во-вторых, это заводская sRGB калибровка. В отсутствие профинтересов пользователя должно волновать три вещи: равномерность цветовой температуры в зависимости от яркости, равномерность отображаемой гаммы и фликеринг подсветки. С первым проблема вот в чём: в 90% случаев используются синие светодиоды с жёлтым люминофором. В зависимости от яркости подсветки и того, насколько закрыт ЖК-затвор, проницаемость полученного «типа белого» спектра разная. Второй аспект, страдает от того том, что характеристики самой матрицы крайне нелинейны, и чем точнее LUT монитора преобразовывает входящий сигнал — тем более линейный и правильный итог получится при измерениях.
Вот цветовая температура:
На нижние 10% (как и на верхние 10%, впрочем, тоже) можно почти не смотреть, там и измерить проблемно, и описанные выше особенности получения «белого» света вносят свои погрешности. На оставшихся же 80% охвата, основной рабочей области — температура чуть завышена от «номинальной», но стабильна.
Гамму в ярких оттенках несколько «плющит», но там из-за нелинейности величины и не очень актуального диапазона это заметно не будет.
Цветовой треугольник неплохо сочетается с теоретическим sRGB: небольшие излишки в жёлто-зелёную часть спектра и провал в синюю — заслуга подсветки. В целом — заводские настройки sRGB на 90% лучше того, что есть у обычных мониторов в данном ценовом диапазоне. А кому нужна калибровка и прочие точности, сами понимаете, либо потратят втрое больше на монитор, либо закажут калибратор и доведут эту модель до полного покрытия.
Сам по себе дисплей порадовал качеством картинки, высокая плотность точек + качественная матрица дают о себе знать, однако пока не радует продуманностью конструкции. До тех же HP или DELL с нормальным расположением портов, продуманным меню, которым можно пользоваться, не сверяясь постоянно с «легендой» пока не дотягивает. Порты подключения сигнальных кабелей в одном месте, вход для USB-кабеля — в другом, да ещё и мой Type-B кабель некисло так выпирал из-за рамки…
Примерно та же болезнь и у остальных портов: разбросаны по поверхности монитора, в итоге даже скоба для кабель-менеджмента не поможет вам навести порядок: все провода тянутся в разные стороны и создают неопрятную «бороду» под монитором.
Как по мне, внимания к деталям не хватает, совсем не Apple. С другой стороны, у Apple нет 4k2k-мониторов в такой диагонали, а если бы и были, то цена бы не порадовала никого. Расклад простой: да, юзабилити на тройку. Но монитор берут в большинстве своём не для того, чтобы настраивать, а для работы. А здесь для этого всё есть. Заводская калибровка под sRGB обеспечивает 99% охват и приемлемую точность. Если вы не занимаетесь работой с фотографией / видеомонтажом — к вашим услугам ручная подстройка, сделаете изображение чуть теплее, включите датчик освещения, глаза уставать не будут. Маттирование очень аккуратное, от кристаллического эффекта и шумов плакать не хочется. Правда, здесь свою роль играет ещё и очень высокая плотность точек: шрифты получаются точёные, с естественным сглаживанием границ, очень аккуратные и визуально приятные.
Если вы хотите 4k, и нет места под 27-32 дюймовые модели — вас не вряд ли смутят такие мелочи, как не самое удачное расположения кабелей или чудаковатое меню. Один раз настроили и забыли, а вот картинка ещё долго будет радовать глаз.
Результаты: очевидные и не очень
Итак, 980 Ti в SLI, свежий DOOM на ультра-настройках, свет потушен, звук погромче… чёрт, как же он красив. И выдаёт от 40 до 55 FPS. И это в 4k, да со сглаживанием! В статике не впечатляет, но в динамике — дух захватывает.
Новый NFS (не такой уж и новый, но всё же) на движке FrostBite 4 выдаёт потрясающую, реально потрясающую картинку в динамике. Чёрт, да он и в статике неплох, если выбрать удачный ракурс.
Конечно, кое-где декорации просто не рассчитаны на то, чтобы на них смотрели в упор, и в статике выглядят максимум «средненько», но на ходу… Нет, это реально один из самых зрелищных автосимуляторов на данный момент. Стабильные 60 кадров в секунду (упёрлись в vSync), просадки в основном возникают из-за нестабильного интернет-соединения или при пересечении двух активных гонок с 5-10 участниками. Как-никак 20 машин в кадре, да ещё и с кучей сложного света и отражений… А картинка всё же хороша!
UPD: не знаю, что там сломали EA или Nvidia, но буквально вчера система с двумя 980Ti не смогла выдавить из себя больше 50 FPS, реальные были около 35-40 + постоянные вылеты приложения. Sad, but true.
Ладно, идём дальше. Forza Motorsport 6: Apex, доступная в Windows Store…. Не поддерживает SLI вообще. Одна видеокарта просто пинает болт. Как результат — просадки до 25 FPS, к тому же модные «пользовательские» раскраски, загружаемые из интернета, имеют привычку «исчезать» в зависимости от дальности прорисовки. Низачот.
Что там есть ещё сурового? GTA V? От 40 до 50 FPS, сильно зависит от обстановки, иногда бывают микрофризы или просадки FPS до 25 буквально на доли секунд. Видимо, дело в SLI.
Witcher 3 со всеми DLC, локация Туссент. Обилие травы вызывает просадки FPS даже на серьёзных конфигах, а у нас тут всё супер-серьёзно. Если честно, создатели ведьмака просто забили на оптимизацию топовых настроек. Минимальные и средние подкрутили, чтобы играть можно было и на сравнительно старых машинах, а высокие и ультры…
В общем, что она 980 Ti, что две — смысла не особо много. FPS плавает от 25 до 60 в зависимости от происходящего на экране, работы NVIDIA HairWorks (эту фичу вообще лучше выключать) и положения звёзд на небе. Вряд ли вычислительной мощности двух почти топовых видеокарт актуального для игры поколения было мало.
Выключаем компьютер, снимаем пару видеокарт, ставим GTX 1070, обновляем драйвера, проверяем, чтобы всё работало…
Конкретно у меня был вариант GTX 1070 GameRock от Palit, 1080 и 1070 внешне отличаются чуть менее, чем никак (наклейками). Чисто теоретически, линейка GameRock рассчитана на моддеров и любителей настраиваемых подсветок: родной софт должен уметь перекрашивать светодиодную полосу на борту. Я такой фигнёй не занимался, меня больше интересовал перфоманс.
Итак, DOOM. Те же самые 45-55 FPS, но без рывков, намного плавнее и равномернее. Если FPS проседает, то только от количества противников, а не скачкообразно, при появлении спецэффектов или резких движениях / по рандому. Со включённым API Vulkan счётчик FPS замирает на 60 и не двигается. WIN.
NFS выдаёт 45-60 кадров в секунду, просадки всё также обусловлены либо другими игроками, либо проблемами с соединением: игра-то сетевая. В целом, конечно, FPS чуть меньше, чем у спарки, но игра портирована с консолей, на которых вообще стабильные 30 FPS в последних тайтлах — предел мечтаний, да и он не особо соблюдается, на PS4 я видел откровенные лаги при групповом дрифте, а графика и рядом не валялась с ПКшной.
UPD: c последними драйверами и недавними изменениями одиночная карта выдаёт более стабильный результат без вылетов, чем две 980Ti в SLI.
Forza 6: Apex, само собой, идёт лучше на 1070 просто потому, что 1070 быстрее, чем 980 Ti, а игра не умеет работать со SLI. Ниже 45 кадров в секунду ничего не было, выше 60 не давала работать VSync (120-144 Гц 4k2k пока не распространены), а наблюдать разрывы кадров не хотелось.
Минус Forza 6 даже не в том, что игра сырая, а в том, что в ней нечего делать. Короткая кампания, пара гонок «сезонного» характера и всё. Контента мало: ни трасс, ни машин, на которых хотелось бы прокатиться. Надеюсь, со временем поправят.
GTA V выдавала от 45 до 57 FPS в реальных юз-кейсах и до 60 в кат-сценах, в статике и в помещениях — нагрузка в таком случае ниже.
Witcher — ещё одна игра, где грубая сила 980 Ti в SLI таки-додавила дерзкого новичка, выше 40 FPS в таком режиме GTX 1070 выдать не могла. Впрочем, минимальный FPS также был выше, просадок и некомфортных лагов не было, а основной залог приятной игры с такой динамикой даже не столько высокий FPS, сколько равномерный. Так что тут «морально» победила одна видеокарта.
Виновники такого результата на картинке: большие объёмы растительности и очень много анимаций окружающего мира.
Почему это происходит?
В бенчмарках и на демо-стендах у журналистов 1070 показывает превосходные результаты, но обходить 980 Ti в SLI?.. Впрочем, ответ на этот вопрос я уже дал. Ключевое слово — демостенд. Для испытаний используют железо, которое позволяет минимизировать влияние производительности других компонентов на тестируемый объект. Если тестируют процессоры — ставят флагманское видео и топовую память. Тестируют диски — подключают одинаковыми кабелями, идентичное железо, максимально сферические условия в вакууме. Ну а игровые тесты и тесты видеокарт, как вы уже догадались, производят на свежих железках топового уровня, если это не статья про сборку ПК в целом. Для игрушек моего процессора хватает с головой, даже самые первые i7 ещё на сокете 1366 с архитектурой Bloomfield и древней памятью DDR3 1333 Мгц уступают в игровых тестах от 10 до 25% флагманским i7-6700k, которые обладают и более высокой производительностью ядра на такт, и более высокой тактовой частотой, и скоростной памятью. Собака зарыта в штуке, которая называется API overhead.
Процессорозависимость и API overhead
Если объяснять очень грубым языком и не вдаваться в то, как видеокарта рисует кадр «послойно», то каждый раз, как видеокарте требуется что-нибудь нарисовать: взять модель, натянуть текстурку, посчитать шейдер, кое-кому надо сказать видеокарте, что ей делать. Этот кое-кто — центральный процессор. Так как 90 (если не 99%) ПК-гейминга завязано на Windows, то в большинстве случаев для актуальных на 2015-2016 год игр используются высокоуровневые библиотеки типа DX10 / DX11 или OpenGL.
Они позволяют проще и быстрее работать с 3D с точки зрения разработки, накладывает определённые ограничения и сопутствующие расходы: вы простым языком говорите видеокарте что делать, она делает.
На консолях же разработчики могут писать код намного более низкоуровневый, добиваясь от достаточно слабого железа неплохих результатов простым снижением накладных расходов на отрисовку. Разработка становится сложнее, реализация кода привязана к одному железу, но для консолей это не особо имеет значение — ни выбирать настройки графики, ни учитывать разное железо (буквально до текущего поколения) разработчикам не надо было.
Эти самые накладные расходы растут с количеством спецэффектов, разрешением картинки, разными инструментами постобработки и так далее. Даже «незначительная» с точки зрения прямой нагрузки на вычислительную мощность настройка Ambient Occlusion может привести FPS из комфортной зоны в некомфортную, потому что видеокарта не отдаст вам кадр, пока не прорисует тени, которые объекты отбрасывают сами на себя. А эти тени рассчитываются через упрощённую трассировку лучей, которая требует достаточно много вызовов и скорость алгоритма сильно зависит от разрешения картинки.
Так вот. Во-первых, эти вызовы на отрисовку не очень хорошо параллелятся. В некоторых случаях в бенчмарках асинхронные запросы работают даже хуже, чем синхронные и однопоточные. Во-вторых, у большинства пользователей не то что «огражданенный» старый Xeon, консьюмерский i5 стоит. Без разгона. А то и вообще восьмиядерник от AMD с тухлой производительностью на ядро.
Минутка нестареющего юмора про эффективность «камней» от AMD
То есть связка из двух 980 Ti в SLI страдает в играх на 4k разрешении банально по причине высоких накладных расходов: в некоторых игрушках они не успевают получать команды в должном количестве, загружены на 50-80%, да ещё и вынуждены регулярно синхронизовываться для совместной работы и правильного отображения картинки. Как вы понимаете, накидать задач одному исполнителю несколько проще, чем двум, которые ещё и договариваться между собой должны, кто что делает. Отсюда и микрофризы, и такие результаты производительности на реальном железе, а не на вылизанных демо-стендах, где подобный «голод» постарались сократить до минимума, используя флагманские консьюмерские i7 с бешеными частотами одного ядра. Впрочем, выход есть.
Как дальше жить
Ну, во-первых, не брать вторую 980 Ti: видеокарта не маленькая, горячая, требует дополнительных ~300 Ватт питания (да, в спеках указано 250 Вт, но почти все не-референсы обладают улучшенным радиатором и повышенными частотами не просто так). Во-вторых, грядёт эра DirectX 12 и API Vulkan, которые кардинально снижают подобные «тупняки», обеспечивая просто драматический прирост в производительности (прирост может быть пятикратным):
Из всех игр на текущий момент, если мне память не изменяет, Vulkan нормально работает только у DOOM. А тайтлов с полной поддержкой DX12… В общем, к моменту, когда это станет мэйнстримом, 980 Ti вряд ли будет ещё актуальна. А от пары видеокарт через год вам будет очень сложно избавиться — потеря в цене, да новые поколения, сами понимаете…
GTX 1070 в данном случае жрёт меньше, обладает запасом памяти и не такая горячая. Так что если вы до сих пор думаете, брать вам вторую 970 / 980 / 980 Ti в связку к первой, или просто продать свою видеокарту, доложить немного и купить текущее поколение — просто берите одну, но свежую. В текущих играх результат будет лучше (архитектура Pascal творит чудеса, к ней мы ещё вернёмся), в перспективных, за счёт более высоких частот и авторазгона, думаю, будет паритет. API Overhead, конечно, сильно влияет на производительность текущих игр, но и о улучшениях железа на низком уровне и уменьшении накладных расходов даже на уровне железа не стоит забывать. В общем, о магии Pascal’ей и перспективах игростроя — в следующий раз. Продуктивной вам недели.
Комментарии (76)
Barafu
23.10.2016 18:05+1У меня GTX 970 и все игры прекрасно работают в 4K со сглаживанием 2x или FXAA, а большего на 4K и не нужно, если в лупу не разглядывать. А разгадка — GSync. Традиционный V-Sync это потеря кучи производительности на ровном месте.
Alaunquirie
23.10.2016 18:43На каких настройках? Можно пруф, скажем, ведьмака на ультре с хотя бы стабильными 30 FPS?
Barafu
23.10.2016 20:37Ведьмака не имею. Overwatch на максималках выдаёт 45-50. Метро на максималках, кроме выключенной воды, скачет 35-60. Вообще в каждой игре есть настройка, которую если выключить при остальном на максимуме, легко получить +10 fps. No Mans Sky на максималках даёт не больше 20 fps. Потому что быдлокод никто не отменял.
Что ещё в пример бы привести. Call of Duty-free тоже работал любой.Arf
23.10.2016 22:49+1Ну тут интересны в первую очередь тяжелые тайтлы, типа того же ведьмака, battlefield 1, возможно doom.
Метро чуть устарел, CoD тоже, у овервоча во первых не передовая графика, а во вторых очень хорошая оптимизация которой не могут похвастаться наверное 90% рынка, конкурент разве что гта5 запускающийся на пентиум 4.
Garbus
24.10.2016 04:56Вот никогда не понимал, отчего низкий fps на задранных в максимум настройках, это обязательно «быдлокод» и «никакой оптимизации»? Помнится во времена FarCry1 было нормой выдавать что-то около 15-20fps на топовом железе на ультра настройках. И все нормально воспринимали это как некий «задел на будущее», когда на новой видеокарте через пару лет можно было пройти то же самое, но красивее.
Про баги конечно отдельная песня, тут криворукость проявляется тем сильнее, чем быстрее пытаются выпихнуть, даже сырой проект. А уж с развитием интернета, вагончик патчей уже после запуска вообще норма.Arf
24.10.2016 07:15+1Ключевой момент — насколько графика соответствует запросам к железу. В случае NMS — требования явно завышенные. Ну и как бы времена уже другие, актуальное железо по отношению к актуальному же ПО/играм куда мощнее чем тогда, тот самый задел есть прямо сейчас при покупке топовых и околотоповых решений.
Garbus
24.10.2016 10:12Мне отчего то кажется, много проблем вылазит в попытке сделать игру сразу под все платформы, да еще и побыстрее, без особой оптимизации движка под игру. Да и не поражают нынче высокие настройки по сравнению со средними, оттого и разочарование.
Barafu
24.10.2016 10:05FarCry для своего времени был невероятно красив. NMS же для своего времени невероятно уныл, хоть на каких настройках. Нет ощущения, что за потреблённую производительность игра делает что-то классное. Просто становится огромной детализация некоторых объектов, что, на фоне других, менее детализованных объектов, ничего не даёт.
Djeux
24.10.2016 09:22У меня 980 GTX, для меня «прекрасно работают» это 60 FPS стабильно.
Прекрасно работают только игры 2-3 годичной давности, при этом тот же ведьмак больше 40 фпс ну никак не мог выжать. Всё же для комфортной игры в 4K во все современные игры надо как минимум 1080.
DOOM на высоких (не на ультра), все же 50+ фпс держал к счастью.
Совсем сломанные игры ввиде Mafia 3, которые 60 даже на Titax X SLI не держат не учитываем.Barafu
24.10.2016 11:06У вас монитор с G-Sync? Это сейчас главное, не видеокарта. При G-sync даже 40 fps выглядят совершенно плавными и гладкими.
Djeux
24.10.2016 11:09Нет, G-synca нет, и V-Sync так же выключен. Дело не в плавности, а частоте кадров, будь хоть 30 фпс с Г-синком, картинка будет хуже чем 60 FPS безовсяких синхронизаций.
Fagot63
23.10.2016 20:44Я могу понять 4к экран 24", т.к. на 2к 24" экране вполне можно рассмотреть пиксели и лесенки. Но чего я никак не понимаю, так это «экран 5.1», разрешение 2560x1440"
NET_KOT
23.10.2016 20:54-1Я могу понять 4к экран 24", т.к. на 2к 24" экране вполне можно рассмотреть пиксели и лесенки.
С лупой, что ли, монитор разглядываете?Nihonjin
23.10.2016 21:242k не сильно больше FullHD. У меня же на 23'' FullHD мониторе эти пиксели с расстояния в 50 см. очень хорошо видны, особенно после Retina дисплея моего MacBook Pro.
vc9ufi
24.10.2016 11:58телефоны в несколько раз ближе держат
Fagot63
24.10.2016 13:30На своем телефоне с 5'' IPS 1280*720 с расстояния в 10см разве что пиксели становятся видны. На зрение не жалуюсь. При разрешении в четыре раза большем, пиксели реально разглядеть только под лупой. Нормальное расстояние до экрана смартфона 30-40см.
cyberly
24.10.2016 14:08Смотрите, среднее угловое разрешение человеческого зрения — 1 минута (0.02 градуса). Берем синус и умножая на расстояние до экрана, можем получить размер пиксела на границе «различимости». Для 10 см получается зерно 0.029 мм. Диагональ вашего телефона — 1755 пикселов. Умножаем одно на другое, получается, что для такого расстояния пиксели могут быть различимы для диагонали больше 50мм (2 дюйма). У вас 5, значит, чтобы пикселей не было видно, смотреть на него надо с 25см. Итого, HD и FHD (для экранов чуть больше вашего) — адекватное разрешение экрана для телефона, но если цель — экран с неразличимыми пикселями, оно не более чем минимально достаточное. Большее разрешение вполне имеет смысл, если держать телефон ближе или чтобы просто иметь запас (для 2K по сравнению с FHD он будет всего-навсего в 1,5 раза, для 4K — в 2).
Fagot63
24.10.2016 14:40Вот за что я люблю ГТ. Я в принципе не против FHD экранов на смартфоне, т.к. косвенно они подталкивают развитие VR.
mark_blau
24.10.2016 16:26FHD – мало, нужно UHD, 4k, 100-140Hz, и не в телефоне, а сразу в шлеме.
Я смотрел на 2k смартфоне в гугловской картонке: пиксели мелкие, но видны.Fagot63
24.10.2016 17:26Так откуда по вашему экраны в VR шлемах. Сам жду появления 4к ВР шлема с нормальной поддержкой игр и собственно игры к нему.
Crazybot
24.10.2016 13:23Это задел на VR и Google Cardbox. Там через лупу приходится на телефон смотреть, вот и делают такое адское PPI.
Alex_ME
23.10.2016 21:31+3Минутка нестареющего юмора про эффективность «камней» от AMD
Ну вот немного обидно. Несмотря на то, что вишера на первый взгляд серьезно уступает современным интеллам, она очень долго держала лидерство по соотношению цена\качество. Сколько раз уже хоронить пытались, да все не выходило — сборки на AMD FX 8… выходили дешевле и довольно пригодными для игр. Но, конечно. не с двумя титанами.
Alaunquirie
24.10.2016 01:52И в реальных юз-кейсах игр всё равно сливали Core i3 там, где авторы игрули не смогли в многопоточный код. :( Да и в целом часто сливали. А цены были на них… ну, приличные, надо сказать.
gh0n3t
24.10.2016 01:56+1Почему не выходило похоронить фх8? Вы заблуждаетесь. i3 6100 похоронил фх в плане игр. За что платишь, то и получаешь!
Alex_ME
24.10.2016 09:09Ну так я и не зря сказал в прошедшем времени. i3 skylake стал более оптимальным выбором, а в предыдущих покалениях все было не так однозначно.
a553
23.10.2016 23:39Не понравилось. Никаких скриншотов настроек, потреблений видеопамяти, загруженности и частот процессоров. 3,2 GHz – это ведь шутка, верно? Если да, то ваш «крутой шестиядерный проц» сильно тормозит видеокарты. Да ещё и сольный гибкий мост, вы серьёзно?
Alaunquirie
24.10.2016 01:53По базе у i7-3930k на 6 ядрах и 12 потоках — 3.2 GHz, авторазгон до 3.8 GHz.
a553
24.10.2016 02:47Мне всё ещё сложно поверить, что ваш 3930 работает на стоковой частоте, но раз так, то вы можете выкинуть все ваши измерения FPS вот прямо сейчас. :)
Alaunquirie
24.10.2016 11:23У большинства юзеров обычные процессоры, не имеющие приставки -k, поэтому и бенч проводился именно без разгона. Я свой камень не гоню ещё по одной причине: смерть 2011 проца заставит искать очень дорогую и редкую замену или менять всё железо сразу. Пусть поработает ещё пару лет, не готов я сейчас выложить полтора килобакса на бессмысленный апгрейд.
Alaunquirie
24.10.2016 02:00И кстать, по поводу гибких мостов: двойные мосты умеет только 10хх поколение, как и жёсткие мосты. У 9хх и младше гибкие коннекторы и 0 (нулевая) эффективность второго моста, он нужен только для three-way SLI. Учите матчасть.
a553
24.10.2016 02:46Они все работают на разной частоте и их возможно насытить. Инфа от самой инвидии, независимые бенчмарки.
Alaunquirie
24.10.2016 11:21Оукей, повторю тесты с одним, двумя гибкими и одним мостом от 1080. Если найду подходящий по длине.
Gallifreian
23.10.2016 23:46основной залог приятной игры с такой динамикой даже не столько высокий FPS, сколько равномерный
+1. Играл с 16 FPS на не средних-высоких настройках, дискомфорта не было (GTX675MX).
За статью спасибо, сделал пометку «TITAN крут» в голове.Anarions
24.10.2016 02:47Я тоже играл ведьмака на 25 фпс, и тоже «дискомфорта не было», а потом постаивил gtx 1060 и взглянул на то же самое в 60 fps, разница разительная.
Nekto_Habr
24.10.2016 12:11Пока не откроешь этот ящик пандоры качественной графики — думаешь, что в играх главное это интересный геймплей. Прошел море игрушек на самых ужасных настройках, было весело, на проседания и вообще низкий фпс было наплевать, не говоря о совершенно размытых текстурах и гигантских пиксельных лесенках. А потом купил геймерскую видеокарту и понял, что красивая картинка — тоже важна для души.
Примерно то же самое было, когда попробовал смотреть фудд-хд видео вместо 480х320. И нечто похожее — когда попробовал смотреть видео 60фпс.
В общем, чем дольше противишься искушениям, тем целее кошелек, крепче нервы и больше свободного времени (которое потом тратится на поиск качественного контента).
ExtenZ
24.10.2016 12:36Можно поточнее модель 1060? С 3 или 6 гиг память?
Alaunquirie
24.10.2016 12:37Для 1080р разрешения пока достаточно 3Gb, выше — если планируете остаться надолго / апгрейд до 1440р или VR базовый потыкать.
ExtenZ
24.10.2016 14:44Просто смотрел разницу в цене, да и потом продать легче будет
спасибо, будем копить до ВалентинДень
mypomacca
24.10.2016 12:36Выдавил на своем ноуте (gtx 850m) в Ведьмаке 35-40 fps на средних настройках, некоторые функции отключил, ибо если выставить параметр (низко-отключено) никакой разницы в графике не увидел, тени на средних (на низких ощутимо падение качества картинки), волосы отключил, сглаживание 4х.
Anarions
24.10.2016 21:06Да, нормальный фпс куда важнее топовой графики, но играть «на средне-высоких на 16фпс» это издевательство. Лучше выкрутить всё в минимум и увидеть нормальные 40
mypomacca
25.10.2016 02:19Играл в ведьмака на 30-35 fps — на PS4, играть можно но это порог, когда уже начинаешь ощущать дискомфорт.
V_Leontiev
25.10.2016 10:17На своем древнем ноуте, играя в танки на минималках, наблюдал 25 фпс в самом лучшем случае. То есть, почти никогда. Потом, когда перешел на более вменяемый фпс, на несколько дней даже играть разучился — плавность и красивости отвлекали.
GreyhoundWeltall
24.10.2016 08:45+2Статье немного не хватает видео/скринов/настроек.
Ну а так в целом все правильно: я свою обычную 980 продал и взял 1080 (подкопив, разумеется). Вторая 980 в грубых расчетах тоже не выдавала огромного преимущества.
PolyAkaMorph
24.10.2016 12:31Две 980-х, 4к… А я вот позавчера воткнул пару 560-х и понял, что одна перекрывает PCI-слот, в котором у меня звуковуха (родной звук в Asus Sabertooth помер, беда этой ревизии). Как быть? Купить USB-звуковуху, или найти какую-нибудь шину для PCI?
Alaunquirie
24.10.2016 12:38Я решил вопрос внешним звуком, т.к. райзеры для PCI нынче приличного качества достать проблемно, а мощные цепи питания видеокарты ещё и помех могут нагенерировать в неэкранированный длинный шлейф.
PolyAkaMorph
25.10.2016 10:12Так и поступил, спасибо! Купил перделку за 380 рублей, воткнул — играет нормально.
Nouk
24.10.2016 12:38Сидел раньше на леново у580 с gtx660, старичек честно отработал 4года. Тянул гта5 на средних без сглаживания, NMS еле-еле 20-30фпс. А вот дум и ведьмак уже трудно давался((( В итоге почти 2 месяца выбирал новый ноутбук(нужен именно ноут — часто путешествую), и вдруг выходит новый G752VM с GTX1060 — решение принял молниеносно и теперь все что выше перечислено идет на высоких настройках. Как ранее говорилось в тексте, очень сильно влияет наличие G-sync, в отличии от v-sync хотя бы не жрет столько ресурсов, которые отлично распределяются на увеличение фпс
avdept
24.10.2016 14:50>NFS выдаёт 45-60 кадров в секунду, просадки всё также обусловлены либо другими игроками, либо проблемами с соединением: игра-то сетевая.
То что она в сети — не причина лагов. Все данные находятся на клиенте, т.е. у вас на компе, а все операции с запросом\получением данных — асинхронны, которые не блокируют выполнение игры(не тормозят из за сетевого лага)
Filippok
24.10.2016 19:24Одна 980ti. DOOM на ультре в 4к выдает 40-50 фпс. В opengl версии выдает 30.
Ilias
25.10.2016 10:17скажите, а есть смысл ждать чего-то типа 1080ti? флагмана 10хх поколения но не титана? или 1080 это максимум?
Alaunquirie
25.10.2016 10:19Видеокарта такая будет (не знаю, 1080ti или какая-нибудь условная 1090), но её цена не порадует, а… хм… производительность на доллар вряд ли будет лучше, чем у текущих 1070. Вы хотите видеокарту на несколько лет приобрести, или так, праздный интерес?
Ilias
25.10.2016 10:41у меня очень давно не было хорошей видеокарты. недавно купил 980ti но для 2650 на 1440 она максимум не тянет, потому пытаюсь понять можно ли этого достичь с одной картой вообще. максимум в фаллауте, ведьмаке и т.д. насколько я видел тесты 1070 и 1080 быстрее чем 980ти но не очень сильно. новый титан за тысячу я точно не потяну, потому и спросил про 1080ти, топовую после титана.
GreyhoundWeltall
25.10.2016 11:01Катаю на 1080 2560*1440/120гц. Не везде 120фпс, но 60 стабильно почти во всех играх что попробовал (ведьмак на ультрах выдает почти 60).
Ilias
25.10.2016 11:20ну вот фаллаут специально включил. полный экран, тыкнул в кнопку «ультра». в начальном городке без людей (только робот и собака) от 65 до 45 кадров. ни о каких 120 и речи не идет. и это если запись не включать. потому и спрашиваю про карточку помощнее.
GreyhoundWeltall
25.10.2016 11:44Так у вас 980ти, а у меня 1080.
Могу накатить 4 фол и проверить (не играл, не интересно), думаю торрент-эдишн для такого хватит.Ilias
25.10.2016 12:12попробуйте, пожалуйста, если не сложно.
GreyhoundWeltall
29.10.2016 11:25На ультре, на 2560*1440 вообще не лагает. Не знаю ограничено ли там в игре 60 фпс (чисто на глаз — да, ограничено, картинка скорее на 60 похожа чем на постоянные 120), но просадок не было вообще.
Прошел убежище и дошел до робота в sanctuary hills, видимо надо играть дальше чтобы найти собаку, но «начальный город без людей» похоже именно оно.Ilias
29.10.2016 12:43собака там чуть дальше, за мостиком на бензоколонке сидит.
но вообще странно. vsync выключен? и сглаживания все по максимуму?
я нашел тест на ютубе, там на максимальных настройках в 2560x gf1080 дает в районе 50 кадров на тех местах, от 40 до 60. примерно так же как 980ti в 1920x
спасибо большое.GreyhoundWeltall
29.10.2016 14:03Vsync был включен, сглаживания все включал по самому жиру, х16 и тд.
Если у игры ограничено сверху 60фпс, то просадку 50-60 я не увижу, скорее всего.
Просадки на 120гц видны когда было 120, а стало 60, например. Или когда было 90, а падает 45-50 скачками.
Если там плавно изменяется от 50 до 60 — то это уловить сложно. Но пока бил тараканов рукой все было ок.
Отдельно еще проверил project CARS, тот что бесплатный в стиме. И там тоже вкрутил что нашел в максимум — в режиме 119гц просадки есть, но небольшие.Ilias
29.10.2016 14:23нене, ограничения на 60 там точно нет. я просто думал, что и на мониторе частота 60, потому и про vsync спросил. на тесте, да и у меня оно изменяется по любому поводу — был один дом в кадре, стало два — раз и -5 фпс. шел пешком и вдруг побежал — раз и -5 фпс. выскочила собака под ноги — и еще -5.
в общем, похоже, чтобы совсем не париться на таком разрешении, одной карты мало, спасибо большое еще раз.GreyhoundWeltall
29.10.2016 15:15На мониторе 120 (Сам он 144, но на 144 картинка неочень) и он gsync, в игре vsync был включен.
В том же ведьмаке 3 нельзя сходу из коробки включить больше 60 фпс, там ограничение включено. И оно отключаемо, но для этого надо задаться целью. Вот я думаю в фоле так же.
Alaunquirie
25.10.2016 15:21Скажем так, 980Ti на высоких справляется, а если игра хороша, то так ли важно, максимальные или просто высокие настройки выставлены? Потерпите годик, возьмёте следующее поколение уже. Не так критично, не ударит по кошельку и будет реально ощутимым апгрейдом. Сейчас же… ну, не шило на мыло, но прям ВАУ не будет. А там, глядишь, nVidia даст что-нибудь консьюмерское с HBM2-памятью. Да и Vulkan с DX12 подтянутся.
Anarions
29.10.2016 21:58Я 570 на 1060 поменял, и тоже не скажу что ВАУ, просто фпс теперь везде приятный — вот основное что мне нужно. А это, по сути, 5 поколений.
Alaunquirie
30.10.2016 17:25570 это поздний Fermi. Шестисотое поколение, семисотое, восьмисотое (отчасти) — это Kepler. Основные флагманы 900 поколения — это Maxwell, часть лоу-энд графики семисотой и мобильной восьмисотой (десктопной её не было) — тоже. Так что, фактически, между 570 и 1060 всего два реальных поколения пропустили. И отличия Maxwell'а от Kepler'а не так велики, как Kepler'а от Fermi и Pascal'я от Maxwell'а. В этом плане долгое время было эволюционное развитие, а Pascal стал революционным, в какой-то степени. Так что, если считать очень грубо, то вы пропустили одно общее поколение Kepler-Maxwell, являющееся развитием общих идей. А то что NVIDIA развела бардак внутри линеек и наплодила кучу серий… ну, что ж поделать.
А так — поздравляю с апгрейдом, для 1080р разрешения карточка 1060 отличная.
vladimir_open-dev
оверклокерс.ру вам чем не угодил? Там эта статья по профилю…
Alaunquirie
Сказал чувак, чьему профилю года ещё нет… Сразу видно, авторитет, старожил, все дела…
Lertmind
Переходить на личности никогда не стоит.
vladimir_open-dev
Тут не быдлоболталка, вроде, и выражений таких не используют.
StjarnornasFred
Да, тут не 4PDA
Anshi85
А чем же вам 4PDA не угодил? Отличный ресурс по мобильным устройствам, сколько бы не возникало проблем с мобильными устройствами, там всегда есть нужная информация.