Всем привет. Жизнь мало какого ПК-гика не обходится без дурной идеи поставить две видеокарты. Я уже писал про «Троллейбус из хлеба» и две младших NVIDIA в SLI (тогда использовались GTX 950). Настало время перейти на более тяжёлые наркотики.



Сегодня у нас в гостях две 980 Ti в SLI, одна GTX 1070, много грязных ругательств, 4k2k и вопросы «как такое может быть». В общем, всё как всегда, будет интересно, заглядывайте под кат.

Матчасть: Maxwell и игра на все деньги


Архитектура NVIDIA Maxwell на момент выхода приятно удивила соотношением производительности, теплоотдачи и цены. В то время казалось, что ближайшие год-два нас ждёт застой, и даже два скандала на тему GTX 970 (сначала с «нехваткой» памяти, затем — с криво указанными спеками в отношении ROP’ов) не помешали стать ей одной из самых популярных видеокарт в пользовательских сборках ПК. Отличная производительность в 1080p, позволяющая играть на максимальных настройках, хорошая — в 1440p, дающая доступ к высоким настройкам, да и 4k2k был вполне играбелен, если вы были готовы пожертвовать качеством пост-обработки вроде самозатенений и всяких дорогих штук типа волос от NVIDIA HairWorks или размытий изображения.

Переплачивать за 980-ю в отсутствие 4k2k было занятием… не самым полезным, разница в цене не покрывала разницы в производительности, а вот 256-гиговый SSD под игрушки за те же деньги можно было и прикупить. Топ-сегмент почти полностью был оккупирован 970-ми от разных вендоров.

Примерно то же самое было и с флагманскими сборками, только вместо 970-й и 980-й были 980 Ti и GTX Titan X. На стороне второго было вдвое больше памяти и чуть более производительная начинка, но утилизировать всю эту мощность в играх было проблематично: Titan как был уделом VR-энтузиастов, разработчиков игр и просто людей, у которых много лишних денег, так и оставался: за 980 Ti просили 650 баксов, а за Titan X — сразу тысячу. А разницы в реальных юзкейсах было в лучшем случае процентов 10.



И если у вас было совсем много денег, то проще уж было потратить 1300 долларов на две 980 Ti, чем брать один Titan, который ещё найти надо было. Проще-то оно проще, но… Тут уже начинаются заморочки. Если «мамка» старая, а видеокарты с «высоким» охлаждением (выше двух слотов) — SLI банально может не влезть. Блок питания соответствующий вынь да положь. Все остальные слоты расширения, скорее всего, придётся забыть… В общем, нюансов масса. Тем не менее, так получилось, что у меня была и подходящая материнская плата, и возможность достать две 980 Ti, и то самое удачное время, когда на столе стоит 4k2k монитор, а рядом — коробка с GTX 1070. Настало время устроить рок в этой дыре? :D

Матчасть 2: Pascal и смерть всему живому


С выходом первых бенчмарков видеокарт на архитектуре Pascal блогосфера, журналисты и железячные издания сначала глубоко вдохнули, а потом не поверили своим глазам. Мало того, что Maxwell прожил всего одно поколение ускорителей, а не два (стратегию «тик-так», внедрённую в своё время Intel’ом, успешно переняли многие производители), так ещё и Pascal просто наголову разбил все прошлогодние решения, а с выходом бюджеток (типа той же 1060), потопил ещё и Б/У-рынок железа. Кому нужна 970-я на гарантии и с 30-40% скидкой, когда можно месяцок подкопить и взять 1060, которая быстрее во всём, имеет больше памяти, поддерживает новые технологии и будет новенькой, с завода? Вот и пристраиваются старые видеокарты по знакомым, за бесценок, либо во вторые компы дома. Да, NVIDIA сразу заявила (и не соврала), что GTX 1070 будет быстрее, чем 980 Ti, а 1080 обойдёт и Titan X прошлого поколения, при том что сами чипы относятся к консьюмерской, а не просьюмерской линейке, и по цене являются заменой «обычным» 970 и 980 соответственно.

Само собой, журналисты от мира железа наделали бенчей, 1070 победила 980 Ti, и мир-дружба-жвачка, но… тут-то у нас две 980 Ti. И запахло жареным!

Железо и спецификации видеокарт


Итак, тестовый стенд. Железки не самые новые, но в грубой силе им до сих пор не откажешь.

CPU: Core i7-3930k @ 3.2 Ггц
SandyBridge-E — не самая новая архитектура, но у 3930 шесть ядер, разблокированный множитель, огромный кэш и 40 линий PCI-Express. Старый конь борозды не испортит;

Материнская плата: Asus Sabertooth X79
До 128 Гб оперативки, 2 полноскоростных PCI-Express’а, позволяющие поставить трёхслотовые видеокарты, очень злые цепи питания… В общем, отличная мамка с сокетом 2011;

SSD #1: 80 ГБ Intel 320
На этом старичке стоит только система, на результативность тестов он влиять не должен;

SSD #2: 480 ГБ Kingston OC400
Качественный диск, рассчитанный на установку в сервера и рабочие станции;

Видеокарты #1: Palit JetStream GTX 980 Ti x2
2 штуки NVIDIA GTX 980 Ti в SLI, режим автоматический;

Видеокарта #2: Palit GTX 1070 GameRock Edition
NVIDIA GTX 1070 с кастомной системой охлаждения и повышенными частотами.

Пару слов о мониторе


В качестве тестового стенда сегодня выступает Philips 241P6VPJKEB. Этот монитор относится к «бизнесовой» линейке, но формально я бы назвал его вариантом для рабочих станций. В дизайне — здоровый минимализм, из фишек — датчики освещения, встроенный звук, USB-хаб и поворотный механизм, а характеристики… Ну, давайте об этом чуть подробнее.

Построен данный дисплей на базе 24-дюймовой матрицы с разрешением 4k (3840?2160 точек). Матрица сама по себе восьмибитная, но контроллер позволяет отображать до 10 бит на канал, смешивая цвета из соседних кадров (FRC, он же frame rate control, если английского не боитесь — здесь ещё многое рассказано). По факту, большинство дешёвых мониторов таким занимаются для отображения 8 бит (а матрицы реально 6-битные). Присутствует заводская калибровка под SRGB (неплохая, надо признать), но калиброванные цвета несовместимы с работой датчика освещения.



По таблице базовых измерений можно было бы сказать: вон, смотри, какая ужасная Delta E. Нормальная. Во-первых, монитор не относится к линейке для профессиональной работы с графикой. Во-вторых, это заводская sRGB калибровка. В отсутствие профинтересов пользователя должно волновать три вещи: равномерность цветовой температуры в зависимости от яркости, равномерность отображаемой гаммы и фликеринг подсветки. С первым проблема вот в чём: в 90% случаев используются синие светодиоды с жёлтым люминофором. В зависимости от яркости подсветки и того, насколько закрыт ЖК-затвор, проницаемость полученного «типа белого» спектра разная. Второй аспект, страдает от того том, что характеристики самой матрицы крайне нелинейны, и чем точнее LUT монитора преобразовывает входящий сигнал — тем более линейный и правильный итог получится при измерениях.

Вот цветовая температура:



На нижние 10% (как и на верхние 10%, впрочем, тоже) можно почти не смотреть, там и измерить проблемно, и описанные выше особенности получения «белого» света вносят свои погрешности. На оставшихся же 80% охвата, основной рабочей области — температура чуть завышена от «номинальной», но стабильна.

Гамму в ярких оттенках несколько «плющит», но там из-за нелинейности величины и не очень актуального диапазона это заметно не будет.



Цветовой треугольник неплохо сочетается с теоретическим sRGB: небольшие излишки в жёлто-зелёную часть спектра и провал в синюю — заслуга подсветки. В целом — заводские настройки sRGB на 90% лучше того, что есть у обычных мониторов в данном ценовом диапазоне. А кому нужна калибровка и прочие точности, сами понимаете, либо потратят втрое больше на монитор, либо закажут калибратор и доведут эту модель до полного покрытия.



Сам по себе дисплей порадовал качеством картинки, высокая плотность точек + качественная матрица дают о себе знать, однако пока не радует продуманностью конструкции. До тех же HP или DELL с нормальным расположением портов, продуманным меню, которым можно пользоваться, не сверяясь постоянно с «легендой» пока не дотягивает. Порты подключения сигнальных кабелей в одном месте, вход для USB-кабеля — в другом, да ещё и мой Type-B кабель некисло так выпирал из-за рамки…







Примерно та же болезнь и у остальных портов: разбросаны по поверхности монитора, в итоге даже скоба для кабель-менеджмента не поможет вам навести порядок: все провода тянутся в разные стороны и  создают неопрятную «бороду» под монитором.

Как по мне, внимания к деталям не хватает, совсем не Apple. С другой стороны, у Apple нет 4k2k-мониторов в такой диагонали, а если бы и были, то цена бы не порадовала никого. Расклад простой: да, юзабилити на тройку. Но монитор берут в большинстве своём не для того, чтобы настраивать, а для работы. А здесь для этого всё есть. Заводская калибровка под sRGB обеспечивает 99% охват и приемлемую точность. Если вы не занимаетесь работой с фотографией / видеомонтажом — к вашим услугам ручная подстройка, сделаете изображение чуть теплее, включите датчик освещения, глаза уставать не будут. Маттирование очень аккуратное, от кристаллического эффекта и шумов плакать не хочется. Правда, здесь свою роль играет ещё и очень высокая плотность точек: шрифты получаются точёные, с естественным сглаживанием границ, очень аккуратные и визуально приятные.

Если вы хотите 4k, и нет места под 27-32 дюймовые модели — вас не вряд ли смутят такие мелочи, как не самое удачное расположения кабелей или чудаковатое меню. Один раз настроили и забыли, а вот картинка ещё долго будет радовать глаз.

Результаты: очевидные и не очень


Итак,  980 Ti в SLI, свежий DOOM на ультра-настройках, свет потушен, звук погромче… чёрт, как же он красив. И выдаёт от 40 до 55 FPS. И это в 4k, да со сглаживанием! В статике не впечатляет, но в динамике — дух захватывает.



Новый NFS (не такой уж и новый, но всё же) на движке FrostBite 4 выдаёт потрясающую, реально потрясающую картинку в динамике. Чёрт, да он и в статике неплох, если выбрать удачный ракурс.



Конечно, кое-где декорации просто не рассчитаны на то, чтобы на них смотрели в упор, и в статике выглядят максимум «средненько», но на ходу… Нет, это реально один из самых зрелищных автосимуляторов на данный момент. Стабильные 60 кадров в секунду (упёрлись в vSync), просадки в основном возникают из-за нестабильного интернет-соединения или при пересечении двух активных гонок с 5-10 участниками. Как-никак 20 машин в кадре, да ещё и с кучей сложного света и отражений… А картинка всё же хороша!

UPD: не знаю, что там сломали EA или Nvidia, но буквально вчера система с двумя 980Ti не смогла выдавить из себя больше 50 FPS, реальные были около 35-40 + постоянные вылеты приложения. Sad, but true.



Ладно, идём дальше. Forza Motorsport 6: Apex, доступная в Windows Store…. Не поддерживает SLI вообще. Одна видеокарта просто пинает болт. Как результат — просадки до 25 FPS, к тому же модные «пользовательские» раскраски, загружаемые из интернета, имеют привычку «исчезать» в зависимости от дальности прорисовки. Низачот.



Что там есть ещё сурового? GTA V? От 40 до 50 FPS, сильно зависит от обстановки, иногда бывают микрофризы или просадки FPS до 25 буквально на доли секунд. Видимо, дело в SLI.

Witcher 3 со всеми DLC, локация Туссент. Обилие травы вызывает просадки FPS даже на серьёзных конфигах, а у нас тут всё супер-серьёзно. Если честно, создатели ведьмака просто забили на оптимизацию топовых настроек. Минимальные и средние подкрутили, чтобы играть можно было и на сравнительно старых машинах, а высокие и ультры…



В общем, что она 980 Ti, что две — смысла не особо много. FPS плавает от 25 до 60 в зависимости от происходящего на экране, работы NVIDIA HairWorks (эту фичу вообще лучше выключать) и положения звёзд на небе. Вряд ли вычислительной мощности двух почти топовых видеокарт актуального для игры поколения было мало.

Выключаем компьютер, снимаем пару видеокарт, ставим GTX 1070, обновляем драйвера, проверяем, чтобы всё работало…



Конкретно у меня был вариант GTX 1070 GameRock от Palit, 1080 и 1070 внешне отличаются чуть менее, чем никак (наклейками). Чисто теоретически, линейка GameRock рассчитана на моддеров и любителей настраиваемых подсветок: родной софт должен уметь перекрашивать светодиодную полосу на борту. Я такой фигнёй не занимался, меня больше интересовал перфоманс.

Итак, DOOM. Те же самые 45-55 FPS, но без рывков, намного плавнее и равномернее. Если FPS проседает, то только от количества противников, а не скачкообразно, при появлении спецэффектов или резких движениях / по рандому. Со включённым API Vulkan счётчик FPS замирает на 60 и не двигается. WIN.



NFS выдаёт 45-60 кадров в секунду, просадки всё также обусловлены либо другими игроками, либо проблемами с соединением: игра-то сетевая. В целом, конечно, FPS чуть меньше, чем у спарки, но игра портирована с консолей, на которых вообще стабильные 30 FPS в последних тайтлах — предел мечтаний, да и он не особо соблюдается, на PS4 я видел откровенные лаги при групповом дрифте, а графика и рядом не валялась с ПКшной.

UPD: c последними драйверами и недавними изменениями одиночная карта выдаёт более стабильный результат без вылетов, чем две 980Ti в SLI.



Forza 6: Apex, само собой, идёт лучше на 1070 просто потому, что 1070 быстрее, чем 980 Ti, а игра не умеет работать со SLI. Ниже 45 кадров в секунду ничего не было, выше 60 не давала работать VSync (120-144 Гц 4k2k пока не распространены), а наблюдать разрывы кадров не хотелось.



Минус Forza 6 даже не в том, что игра сырая, а в том, что в ней нечего делать. Короткая кампания, пара гонок «сезонного» характера и всё. Контента мало: ни трасс, ни машин, на которых хотелось бы прокатиться. Надеюсь, со временем поправят.

GTA V выдавала от 45 до 57 FPS в реальных юз-кейсах и до 60 в кат-сценах, в статике и в помещениях — нагрузка в таком случае ниже.

Witcher — ещё одна игра, где грубая сила 980 Ti в SLI таки-додавила дерзкого новичка, выше 40 FPS в таком режиме GTX 1070 выдать не могла. Впрочем, минимальный FPS также был выше, просадок и некомфортных лагов не было, а основной залог приятной игры с такой динамикой даже не столько высокий FPS, сколько равномерный. Так что тут «морально» победила одна видеокарта.



Виновники такого результата на картинке: большие объёмы растительности и очень много анимаций окружающего мира.

Почему это происходит?


В бенчмарках и на демо-стендах у журналистов 1070 показывает превосходные результаты, но обходить 980 Ti в SLI?.. Впрочем, ответ на этот вопрос я уже дал. Ключевое слово — демостенд. Для испытаний используют железо, которое позволяет минимизировать влияние производительности других компонентов на тестируемый объект. Если тестируют процессоры — ставят флагманское видео и топовую память. Тестируют диски — подключают одинаковыми кабелями, идентичное железо, максимально сферические условия в вакууме. Ну а игровые тесты и тесты видеокарт, как вы уже догадались, производят на свежих железках топового уровня, если это не статья про сборку ПК в целом. Для игрушек моего процессора хватает с головой, даже самые первые i7 ещё на сокете 1366 с архитектурой Bloomfield и древней памятью DDR3 1333 Мгц уступают в игровых тестах от 10 до 25% флагманским i7-6700k, которые обладают и более высокой производительностью ядра на такт, и более высокой тактовой частотой, и скоростной памятью. Собака зарыта в штуке, которая называется API overhead.

Процессорозависимость и API overhead


Если объяснять очень грубым языком и не вдаваться в то, как видеокарта рисует кадр «послойно», то каждый раз, как видеокарте требуется что-нибудь нарисовать: взять модель, натянуть текстурку, посчитать шейдер, кое-кому надо сказать видеокарте, что ей делать. Этот кое-кто — центральный процессор. Так как 90 (если не 99%) ПК-гейминга завязано на Windows, то в большинстве случаев для актуальных на 2015-2016 год игр используются высокоуровневые библиотеки типа DX10 / DX11 или OpenGL.

Они позволяют проще и быстрее работать с 3D с точки зрения разработки, накладывает определённые ограничения и сопутствующие расходы: вы простым языком говорите видеокарте что делать, она делает.

На консолях же разработчики могут писать код намного более низкоуровневый, добиваясь от достаточно слабого железа неплохих результатов простым снижением накладных расходов на отрисовку. Разработка становится сложнее, реализация кода привязана к одному железу, но для консолей это не особо имеет значение — ни выбирать настройки графики, ни учитывать разное железо (буквально до текущего поколения) разработчикам не надо было.

Эти самые накладные расходы растут с количеством спецэффектов, разрешением картинки, разными инструментами постобработки и так далее. Даже «незначительная» с точки зрения прямой нагрузки на вычислительную мощность настройка Ambient Occlusion может привести FPS из комфортной зоны в некомфортную, потому что видеокарта не отдаст вам кадр, пока не прорисует тени, которые объекты отбрасывают сами на себя. А эти тени рассчитываются через упрощённую трассировку лучей, которая требует достаточно много вызовов и скорость алгоритма сильно зависит от разрешения картинки.

Так вот. Во-первых, эти вызовы на отрисовку не очень хорошо параллелятся. В некоторых случаях в бенчмарках асинхронные запросы работают даже хуже, чем синхронные и однопоточные. Во-вторых, у большинства пользователей не то что «огражданенный» старый Xeon, консьюмерский i5 стоит. Без разгона. А то и вообще восьмиядерник от AMD с тухлой производительностью на ядро.


Минутка нестареющего юмора про эффективность «камней» от AMD

То есть связка из двух 980 Ti в SLI страдает в играх на 4k разрешении банально по причине высоких накладных расходов: в некоторых игрушках они не успевают получать команды в должном количестве, загружены на 50-80%, да ещё и вынуждены регулярно синхронизовываться для совместной работы и правильного отображения картинки. Как вы понимаете, накидать задач одному исполнителю несколько проще, чем двум, которые ещё и договариваться между собой должны, кто что делает. Отсюда и микрофризы, и такие результаты производительности на реальном железе, а не на вылизанных демо-стендах, где подобный «голод» постарались сократить до минимума, используя флагманские консьюмерские i7 с бешеными частотами одного ядра. Впрочем, выход есть.

Как дальше жить


Ну, во-первых, не брать вторую 980 Ti: видеокарта не маленькая, горячая, требует дополнительных ~300 Ватт питания (да, в спеках указано 250 Вт, но почти все не-референсы обладают улучшенным радиатором и повышенными частотами не просто так). Во-вторых, грядёт эра DirectX 12 и API Vulkan, которые кардинально снижают подобные «тупняки», обеспечивая просто драматический прирост в производительности (прирост может быть пятикратным):



Из всех игр на текущий момент, если мне память не изменяет, Vulkan нормально работает только у DOOM. А тайтлов с полной поддержкой DX12… В общем, к моменту, когда это станет мэйнстримом, 980 Ti вряд ли будет ещё актуальна. А от пары видеокарт через год вам будет очень сложно избавиться — потеря в цене, да новые поколения, сами понимаете…

GTX 1070 в данном случае жрёт меньше, обладает запасом памяти и не такая горячая. Так что если вы до сих пор думаете, брать вам вторую 970 / 980 / 980 Ti в связку к первой, или просто продать свою видеокарту, доложить немного и купить текущее поколение — просто берите одну, но свежую. В текущих играх результат будет лучше (архитектура Pascal творит чудеса, к ней мы ещё вернёмся), в перспективных, за счёт более высоких частот и авторазгона, думаю, будет паритет. API Overhead, конечно, сильно влияет на производительность текущих игр, но и о улучшениях железа на низком уровне и уменьшении накладных расходов даже на уровне железа не стоит забывать. В общем, о магии Pascal’ей и перспективах игростроя — в следующий раз. Продуктивной вам недели.
Поделиться с друзьями
-->

Комментарии (76)


  1. vladimir_open-dev
    23.10.2016 17:46
    -11

    оверклокерс.ру вам чем не угодил? Там эта статья по профилю…


    1. Alaunquirie
      23.10.2016 18:42
      -13

      Сказал чувак, чьему профилю года ещё нет… Сразу видно, авторитет, старожил, все дела…


      1. Lertmind
        23.10.2016 19:20
        +14

        Переходить на личности никогда не стоит.


      1. vladimir_open-dev
        23.10.2016 21:00
        -3

        Тут не быдлоболталка, вроде, и выражений таких не используют.


        1. StjarnornasFred
          23.10.2016 22:55
          +2

          Да, тут не 4PDA


          1. Anshi85
            24.10.2016 13:13

            А чем же вам 4PDA не угодил? Отличный ресурс по мобильным устройствам, сколько бы не возникало проблем с мобильными устройствами, там всегда есть нужная информация.


  1. Barafu
    23.10.2016 18:05
    +1

    У меня GTX 970 и все игры прекрасно работают в 4K со сглаживанием 2x или FXAA, а большего на 4K и не нужно, если в лупу не разглядывать. А разгадка — GSync. Традиционный V-Sync это потеря кучи производительности на ровном месте.


    1. Alaunquirie
      23.10.2016 18:43

      На каких настройках? Можно пруф, скажем, ведьмака на ультре с хотя бы стабильными 30 FPS?


      1. Barafu
        23.10.2016 20:37

        Ведьмака не имею. Overwatch на максималках выдаёт 45-50. Метро на максималках, кроме выключенной воды, скачет 35-60. Вообще в каждой игре есть настройка, которую если выключить при остальном на максимуме, легко получить +10 fps. No Mans Sky на максималках даёт не больше 20 fps. Потому что быдлокод никто не отменял.
        Что ещё в пример бы привести. Call of Duty-free тоже работал любой.


        1. Arf
          23.10.2016 22:49
          +1

          Ну тут интересны в первую очередь тяжелые тайтлы, типа того же ведьмака, battlefield 1, возможно doom.
          Метро чуть устарел, CoD тоже, у овервоча во первых не передовая графика, а во вторых очень хорошая оптимизация которой не могут похвастаться наверное 90% рынка, конкурент разве что гта5 запускающийся на пентиум 4.


        1. Garbus
          24.10.2016 04:56

          Вот никогда не понимал, отчего низкий fps на задранных в максимум настройках, это обязательно «быдлокод» и «никакой оптимизации»? Помнится во времена FarCry1 было нормой выдавать что-то около 15-20fps на топовом железе на ультра настройках. И все нормально воспринимали это как некий «задел на будущее», когда на новой видеокарте через пару лет можно было пройти то же самое, но красивее.
          Про баги конечно отдельная песня, тут криворукость проявляется тем сильнее, чем быстрее пытаются выпихнуть, даже сырой проект. А уж с развитием интернета, вагончик патчей уже после запуска вообще норма.


          1. Arf
            24.10.2016 07:15
            +1

            Ключевой момент — насколько графика соответствует запросам к железу. В случае NMS — требования явно завышенные. Ну и как бы времена уже другие, актуальное железо по отношению к актуальному же ПО/играм куда мощнее чем тогда, тот самый задел есть прямо сейчас при покупке топовых и околотоповых решений.


            1. Garbus
              24.10.2016 10:12

              Мне отчего то кажется, много проблем вылазит в попытке сделать игру сразу под все платформы, да еще и побыстрее, без особой оптимизации движка под игру. Да и не поражают нынче высокие настройки по сравнению со средними, оттого и разочарование.


          1. Barafu
            24.10.2016 10:05

            FarCry для своего времени был невероятно красив. NMS же для своего времени невероятно уныл, хоть на каких настройках. Нет ощущения, что за потреблённую производительность игра делает что-то классное. Просто становится огромной детализация некоторых объектов, что, на фоне других, менее детализованных объектов, ничего не даёт.


    1. Djeux
      24.10.2016 09:22

      У меня 980 GTX, для меня «прекрасно работают» это 60 FPS стабильно.
      Прекрасно работают только игры 2-3 годичной давности, при этом тот же ведьмак больше 40 фпс ну никак не мог выжать. Всё же для комфортной игры в 4K во все современные игры надо как минимум 1080.

      DOOM на высоких (не на ультра), все же 50+ фпс держал к счастью.
      Совсем сломанные игры ввиде Mafia 3, которые 60 даже на Titax X SLI не держат не учитываем.


      1. Barafu
        24.10.2016 11:06

        У вас монитор с G-Sync? Это сейчас главное, не видеокарта. При G-sync даже 40 fps выглядят совершенно плавными и гладкими.


        1. Djeux
          24.10.2016 11:09

          Нет, G-synca нет, и V-Sync так же выключен. Дело не в плавности, а частоте кадров, будь хоть 30 фпс с Г-синком, картинка будет хуже чем 60 FPS безовсяких синхронизаций.


  1. Fagot63
    23.10.2016 20:44

    Я могу понять 4к экран 24", т.к. на 2к 24" экране вполне можно рассмотреть пиксели и лесенки. Но чего я никак не понимаю, так это «экран 5.1», разрешение 2560x1440"


    1. NET_KOT
      23.10.2016 20:54
      -1

      Я могу понять 4к экран 24", т.к. на 2к 24" экране вполне можно рассмотреть пиксели и лесенки.
      С лупой, что ли, монитор разглядываете?


      1. Nihonjin
        23.10.2016 21:24

        2k не сильно больше FullHD. У меня же на 23'' FullHD мониторе эти пиксели с расстояния в 50 см. очень хорошо видны, особенно после Retina дисплея моего MacBook Pro.


    1. vc9ufi
      24.10.2016 11:58

      телефоны в несколько раз ближе держат


      1. Fagot63
        24.10.2016 13:30

        На своем телефоне с 5'' IPS 1280*720 с расстояния в 10см разве что пиксели становятся видны. На зрение не жалуюсь. При разрешении в четыре раза большем, пиксели реально разглядеть только под лупой. Нормальное расстояние до экрана смартфона 30-40см.


        1. cyberly
          24.10.2016 14:08

          Смотрите, среднее угловое разрешение человеческого зрения — 1 минута (0.02 градуса). Берем синус и умножая на расстояние до экрана, можем получить размер пиксела на границе «различимости». Для 10 см получается зерно 0.029 мм. Диагональ вашего телефона — 1755 пикселов. Умножаем одно на другое, получается, что для такого расстояния пиксели могут быть различимы для диагонали больше 50мм (2 дюйма). У вас 5, значит, чтобы пикселей не было видно, смотреть на него надо с 25см. Итого, HD и FHD (для экранов чуть больше вашего) — адекватное разрешение экрана для телефона, но если цель — экран с неразличимыми пикселями, оно не более чем минимально достаточное. Большее разрешение вполне имеет смысл, если держать телефон ближе или чтобы просто иметь запас (для 2K по сравнению с FHD он будет всего-навсего в 1,5 раза, для 4K — в 2).


          1. Fagot63
            24.10.2016 14:40

            Вот за что я люблю ГТ. Я в принципе не против FHD экранов на смартфоне, т.к. косвенно они подталкивают развитие VR.


            1. mark_blau
              24.10.2016 16:26

              FHD – мало, нужно UHD, 4k, 100-140Hz, и не в телефоне, а сразу в шлеме.
              Я смотрел на 2k смартфоне в гугловской картонке: пиксели мелкие, но видны.


              1. Fagot63
                24.10.2016 17:26

                Так откуда по вашему экраны в VR шлемах. Сам жду появления 4к ВР шлема с нормальной поддержкой игр и собственно игры к нему.


    1. Crazybot
      24.10.2016 13:23

      Это задел на VR и Google Cardbox. Там через лупу приходится на телефон смотреть, вот и делают такое адское PPI.


  1. Alex_ME
    23.10.2016 21:31
    +3

    Минутка нестареющего юмора про эффективность «камней» от AMD

    Ну вот немного обидно. Несмотря на то, что вишера на первый взгляд серьезно уступает современным интеллам, она очень долго держала лидерство по соотношению цена\качество. Сколько раз уже хоронить пытались, да все не выходило — сборки на AMD FX 8… выходили дешевле и довольно пригодными для игр. Но, конечно. не с двумя титанами.


    1. Alaunquirie
      24.10.2016 01:52

      И в реальных юз-кейсах игр всё равно сливали Core i3 там, где авторы игрули не смогли в многопоточный код. :( Да и в целом часто сливали. А цены были на них… ну, приличные, надо сказать.


    1. gh0n3t
      24.10.2016 01:56
      +1

      Почему не выходило похоронить фх8? Вы заблуждаетесь. i3 6100 похоронил фх в плане игр. За что платишь, то и получаешь!


      1. Alex_ME
        24.10.2016 09:09

        Ну так я и не зря сказал в прошедшем времени. i3 skylake стал более оптимальным выбором, а в предыдущих покалениях все было не так однозначно.


        1. Labunsky
          24.10.2016 17:22

          Многие уже забывают, что FX 8… родом из 2012, какие skylake, вообще? То, сколько они прожили на рынке — это уже нечто


          1. gh0n3t
            26.10.2016 22:33

            процессоры intel поколения sandy bridge родом из 2011 и остаются актуальными по сей день, чего не скажешь об FX


  1. a553
    23.10.2016 23:39

    Не понравилось. Никаких скриншотов настроек, потреблений видеопамяти, загруженности и частот процессоров. 3,2 GHz – это ведь шутка, верно? Если да, то ваш «крутой шестиядерный проц» сильно тормозит видеокарты. Да ещё и сольный гибкий мост, вы серьёзно?


    1. Alaunquirie
      24.10.2016 01:53

      По базе у i7-3930k на 6 ядрах и 12 потоках — 3.2 GHz, авторазгон до 3.8 GHz.


      1. a553
        24.10.2016 02:47

        Мне всё ещё сложно поверить, что ваш 3930 работает на стоковой частоте, но раз так, то вы можете выкинуть все ваши измерения FPS вот прямо сейчас. :)


        1. Alaunquirie
          24.10.2016 11:23

          У большинства юзеров обычные процессоры, не имеющие приставки -k, поэтому и бенч проводился именно без разгона. Я свой камень не гоню ещё по одной причине: смерть 2011 проца заставит искать очень дорогую и редкую замену или менять всё железо сразу. Пусть поработает ещё пару лет, не готов я сейчас выложить полтора килобакса на бессмысленный апгрейд.


    1. Alaunquirie
      24.10.2016 02:00

      И кстать, по поводу гибких мостов: двойные мосты умеет только 10хх поколение, как и жёсткие мосты. У 9хх и младше гибкие коннекторы и 0 (нулевая) эффективность второго моста, он нужен только для three-way SLI. Учите матчасть.


      1. a553
        24.10.2016 02:46

        Они все работают на разной частоте и их возможно насытить. Инфа от самой инвидии, независимые бенчмарки.


        1. Alaunquirie
          24.10.2016 11:21

          Оукей, повторю тесты с одним, двумя гибкими и одним мостом от 1080. Если найду подходящий по длине.


  1. Gallifreian
    23.10.2016 23:46

    основной залог приятной игры с такой динамикой даже не столько высокий FPS, сколько равномерный


    +1. Играл с 16 FPS на не средних-высоких настройках, дискомфорта не было (GTX675MX).

    За статью спасибо, сделал пометку «TITAN крут» в голове.


    1. Anarions
      24.10.2016 02:47

      Я тоже играл ведьмака на 25 фпс, и тоже «дискомфорта не было», а потом постаивил gtx 1060 и взглянул на то же самое в 60 fps, разница разительная.


      1. Nekto_Habr
        24.10.2016 12:11

        Пока не откроешь этот ящик пандоры качественной графики — думаешь, что в играх главное это интересный геймплей. Прошел море игрушек на самых ужасных настройках, было весело, на проседания и вообще низкий фпс было наплевать, не говоря о совершенно размытых текстурах и гигантских пиксельных лесенках. А потом купил геймерскую видеокарту и понял, что красивая картинка — тоже важна для души.

        Примерно то же самое было, когда попробовал смотреть фудд-хд видео вместо 480х320. И нечто похожее — когда попробовал смотреть видео 60фпс.

        В общем, чем дольше противишься искушениям, тем целее кошелек, крепче нервы и больше свободного времени (которое потом тратится на поиск качественного контента).


      1. ExtenZ
        24.10.2016 12:36

        Можно поточнее модель 1060? С 3 или 6 гиг память?


        1. Alaunquirie
          24.10.2016 12:37

          Для 1080р разрешения пока достаточно 3Gb, выше — если планируете остаться надолго / апгрейд до 1440р или VR базовый потыкать.


          1. ExtenZ
            24.10.2016 14:44

            Просто смотрел разницу в цене, да и потом продать легче будет
            спасибо, будем копить до ВалентинДень


        1. Anarions
          24.10.2016 21:00

          MSI, 6-гиговая, хотя с моим 1080p 3gb тоже хватало бы. Взял «на выраст»


      1. mypomacca
        24.10.2016 12:36

        Выдавил на своем ноуте (gtx 850m) в Ведьмаке 35-40 fps на средних настройках, некоторые функции отключил, ибо если выставить параметр (низко-отключено) никакой разницы в графике не увидел, тени на средних (на низких ощутимо падение качества картинки), волосы отключил, сглаживание 4х.


        1. Anarions
          24.10.2016 21:06

          Да, нормальный фпс куда важнее топовой графики, но играть «на средне-высоких на 16фпс» это издевательство. Лучше выкрутить всё в минимум и увидеть нормальные 40


          1. mypomacca
            25.10.2016 02:19

            Играл в ведьмака на 30-35 fps — на PS4, играть можно но это порог, когда уже начинаешь ощущать дискомфорт.


      1. V_Leontiev
        25.10.2016 10:17

        На своем древнем ноуте, играя в танки на минималках, наблюдал 25 фпс в самом лучшем случае. То есть, почти никогда. Потом, когда перешел на более вменяемый фпс, на несколько дней даже играть разучился — плавность и красивости отвлекали.


  1. GreyhoundWeltall
    24.10.2016 08:45
    +2

    Статье немного не хватает видео/скринов/настроек.
    Ну а так в целом все правильно: я свою обычную 980 продал и взял 1080 (подкопив, разумеется). Вторая 980 в грубых расчетах тоже не выдавала огромного преимущества.


  1. Klotos
    24.10.2016 11:01

    Спасибо, интересная статья. Кто-то может подсказать хотя бы примерный уровень (вилку) цен на Б/Ушные GeForce 970 и GeForce 980?


    1. grieverrr
      24.10.2016 12:06
      +1

      пошерстил авито — на две-три тыщи разница с магазином. не стоит игра свечек


  1. PolyAkaMorph
    24.10.2016 12:31

    Две 980-х, 4к… А я вот позавчера воткнул пару 560-х и понял, что одна перекрывает PCI-слот, в котором у меня звуковуха (родной звук в Asus Sabertooth помер, беда этой ревизии). Как быть? Купить USB-звуковуху, или найти какую-нибудь шину для PCI?


    1. Alaunquirie
      24.10.2016 12:38

      Я решил вопрос внешним звуком, т.к. райзеры для PCI нынче приличного качества достать проблемно, а мощные цепи питания видеокарты ещё и помех могут нагенерировать в неэкранированный длинный шлейф.


      1. PolyAkaMorph
        25.10.2016 10:12

        Так и поступил, спасибо! Купил перделку за 380 рублей, воткнул — играет нормально.


  1. Nouk
    24.10.2016 12:38

    Сидел раньше на леново у580 с gtx660, старичек честно отработал 4года. Тянул гта5 на средних без сглаживания, NMS еле-еле 20-30фпс. А вот дум и ведьмак уже трудно давался((( В итоге почти 2 месяца выбирал новый ноутбук(нужен именно ноут — часто путешествую), и вдруг выходит новый G752VM с GTX1060 — решение принял молниеносно и теперь все что выше перечислено идет на высоких настройках. Как ранее говорилось в тексте, очень сильно влияет наличие G-sync, в отличии от v-sync хотя бы не жрет столько ресурсов, которые отлично распределяются на увеличение фпс


  1. avdept
    24.10.2016 14:50

    >NFS выдаёт 45-60 кадров в секунду, просадки всё также обусловлены либо другими игроками, либо проблемами с соединением: игра-то сетевая.

    То что она в сети — не причина лагов. Все данные находятся на клиенте, т.е. у вас на компе, а все операции с запросом\получением данных — асинхронны, которые не блокируют выполнение игры(не тормозят из за сетевого лага)


  1. Filippok
    24.10.2016 19:24

    Одна 980ti. DOOM на ультре в 4к выдает 40-50 фпс. В opengl версии выдает 30.


  1. Ilias
    25.10.2016 10:17

    скажите, а есть смысл ждать чего-то типа 1080ti? флагмана 10хх поколения но не титана? или 1080 это максимум?


    1. Alaunquirie
      25.10.2016 10:19

      Видеокарта такая будет (не знаю, 1080ti или какая-нибудь условная 1090), но её цена не порадует, а… хм… производительность на доллар вряд ли будет лучше, чем у текущих 1070. Вы хотите видеокарту на несколько лет приобрести, или так, праздный интерес?


      1. Ilias
        25.10.2016 10:41

        у меня очень давно не было хорошей видеокарты. недавно купил 980ti но для 2650 на 1440 она максимум не тянет, потому пытаюсь понять можно ли этого достичь с одной картой вообще. максимум в фаллауте, ведьмаке и т.д. насколько я видел тесты 1070 и 1080 быстрее чем 980ти но не очень сильно. новый титан за тысячу я точно не потяну, потому и спросил про 1080ти, топовую после титана.


        1. GreyhoundWeltall
          25.10.2016 11:01

          Катаю на 1080 2560*1440/120гц. Не везде 120фпс, но 60 стабильно почти во всех играх что попробовал (ведьмак на ультрах выдает почти 60).


          1. Ilias
            25.10.2016 11:20

            ну вот фаллаут специально включил. полный экран, тыкнул в кнопку «ультра». в начальном городке без людей (только робот и собака) от 65 до 45 кадров. ни о каких 120 и речи не идет. и это если запись не включать. потому и спрашиваю про карточку помощнее.


            1. GreyhoundWeltall
              25.10.2016 11:44

              Так у вас 980ти, а у меня 1080.

              Могу накатить 4 фол и проверить (не играл, не интересно), думаю торрент-эдишн для такого хватит.


              1. Ilias
                25.10.2016 12:12

                попробуйте, пожалуйста, если не сложно.


                1. GreyhoundWeltall
                  29.10.2016 11:25

                  На ультре, на 2560*1440 вообще не лагает. Не знаю ограничено ли там в игре 60 фпс (чисто на глаз — да, ограничено, картинка скорее на 60 похожа чем на постоянные 120), но просадок не было вообще.

                  Прошел убежище и дошел до робота в sanctuary hills, видимо надо играть дальше чтобы найти собаку, но «начальный город без людей» похоже именно оно.


                  1. Ilias
                    29.10.2016 12:43

                    собака там чуть дальше, за мостиком на бензоколонке сидит.
                    но вообще странно. vsync выключен? и сглаживания все по максимуму?
                    я нашел тест на ютубе, там на максимальных настройках в 2560x gf1080 дает в районе 50 кадров на тех местах, от 40 до 60. примерно так же как 980ti в 1920x

                    спасибо большое.


                    1. GreyhoundWeltall
                      29.10.2016 14:03

                      Vsync был включен, сглаживания все включал по самому жиру, х16 и тд.

                      Если у игры ограничено сверху 60фпс, то просадку 50-60 я не увижу, скорее всего.
                      Просадки на 120гц видны когда было 120, а стало 60, например. Или когда было 90, а падает 45-50 скачками.

                      Если там плавно изменяется от 50 до 60 — то это уловить сложно. Но пока бил тараканов рукой все было ок.

                      Отдельно еще проверил project CARS, тот что бесплатный в стиме. И там тоже вкрутил что нашел в максимум — в режиме 119гц просадки есть, но небольшие.


                      1. Ilias
                        29.10.2016 14:23

                        нене, ограничения на 60 там точно нет. я просто думал, что и на мониторе частота 60, потому и про vsync спросил. на тесте, да и у меня оно изменяется по любому поводу — был один дом в кадре, стало два — раз и -5 фпс. шел пешком и вдруг побежал — раз и -5 фпс. выскочила собака под ноги — и еще -5.
                        в общем, похоже, чтобы совсем не париться на таком разрешении, одной карты мало, спасибо большое еще раз.


                        1. GreyhoundWeltall
                          29.10.2016 15:15

                          На мониторе 120 (Сам он 144, но на 144 картинка неочень) и он gsync, в игре vsync был включен.

                          В том же ведьмаке 3 нельзя сходу из коробки включить больше 60 фпс, там ограничение включено. И оно отключаемо, но для этого надо задаться целью. Вот я думаю в фоле так же.


        1. Alaunquirie
          25.10.2016 15:21

          Скажем так, 980Ti на высоких справляется, а если игра хороша, то так ли важно, максимальные или просто высокие настройки выставлены? Потерпите годик, возьмёте следующее поколение уже. Не так критично, не ударит по кошельку и будет реально ощутимым апгрейдом. Сейчас же… ну, не шило на мыло, но прям ВАУ не будет. А там, глядишь, nVidia даст что-нибудь консьюмерское с HBM2-памятью. Да и Vulkan с DX12 подтянутся.


          1. Anarions
            29.10.2016 21:58

            Я 570 на 1060 поменял, и тоже не скажу что ВАУ, просто фпс теперь везде приятный — вот основное что мне нужно. А это, по сути, 5 поколений.


            1. Alaunquirie
              30.10.2016 17:25

              570 это поздний Fermi. Шестисотое поколение, семисотое, восьмисотое (отчасти) — это Kepler. Основные флагманы 900 поколения — это Maxwell, часть лоу-энд графики семисотой и мобильной восьмисотой (десктопной её не было) — тоже. Так что, фактически, между 570 и 1060 всего два реальных поколения пропустили. И отличия Maxwell'а от Kepler'а не так велики, как Kepler'а от Fermi и Pascal'я от Maxwell'а. В этом плане долгое время было эволюционное развитие, а Pascal стал революционным, в какой-то степени. Так что, если считать очень грубо, то вы пропустили одно общее поколение Kepler-Maxwell, являющееся развитием общих идей. А то что NVIDIA развела бардак внутри линеек и наплодила кучу серий… ну, что ж поделать.

              А так — поздравляю с апгрейдом, для 1080р разрешения карточка 1060 отличная.