Всем привет! Это третья, заключительная часть материала о производительности видеокарты NVIDIA GTX 970. В первой части мы говорили о поколениях видеочипов, внутреннем устройстве GTX 970 и причинах шума на тему трёх с половиной гигов, во второй — изучали, насколько это виляет на производительность и что намерили всякие железячные издания, а сегодня займёмся непосредственно испытаниями и посмотрим, в чём GTX 970 хороша, а в чём — не очень.



Тестовое оборудование


Для тестов я использовал свой личный ПК: Core i7-3930K (6 ядер @ 4.2 ГГц), 16 гигабайт достаточно редкой памяти Kingston HyperX Beast 2400 МГц в четырёхканальном режиме (быстрее на DDR3 сложно что-либо найти), все игрушки и бенчмарки стояли на PCI-Express SSD диске, чтобы минимизировать влияние остальных компонентов на результаты тестов). Всё это дело подключено к монитору с разрешением 2560х1440 точек. Как видите, упираться особо не во что: игрушек с 64 битной архитектурой и бинарниками — кот наплакал, а остальным, по идее, должно всего хватать. Разумеется, все обновления, патчи, драйвера, хотфиксы и всё такое стояло самое свежее, прямо с грядки.



В качестве подопытного я использовал ASUS STRIX GTX 970: видеокарту с потрясающе тихой системой охлаждения и отличным железом.

На чём тестируем?


Во что там у нас нынче молодёжь играет? А то я слышал, что Battle City из моды немного вышел… В общем, для теста выбраны следующие игры:
  • Batman: Arkham origins
  • Battlefield 4
  • Bioshock Infinite
  • Company of Heroes 2
  • Crysis 3
  • Diablo 3
  • Far Cry 3
  • Far Cry 4
  • Metro: Last Light
  • Tomb Raider (2013)

Во всех случаях будут применяться максимально возможные настройки графики с отключённой вертикальной синхронизацией и активным сглаживанием х4. Всякие Frame Limiter’ы и прочие «сглаживатели» были выключены, после каждого теста видеокарта остывала до нормальных температур а система перезагружалась.

Специальный гость — игра, которые не отличаются фантастической графикой или оптимизацией, но может задать жару многим GPU при определённых условиях. Нам она нужна чтобы показать некоторые узкие места архитектуры Maxwell. Использовать будем Dark Souls 2 и выполнять downscale с разрешения 3840x1260 до 2560x1440 и с 5220х2880 до 2560x1440.

К сожалению, GTA V на момент проведения тестов и написания статьи ещё не скачалась вышла, а после уже не было времени на восстановление тестового окружения, так что простите, в этот раз без неё.

Результаты тестирования


Для разрешения 2560х1440 достичь достаточно производительности достаточно сложно. Не так давно (в топике про GTA V) я нашёл человека, для котого «ниже 60 FPS — безумные лаги). Что ж, у каждого вкусы свои, но я считаю, что 30 FPS на таком разрешении с одной видеокартой — вполне играбельный вариант, особенно если в напряжённых сценах количество кадров в секунду не проседает ниже 25. Вот результаты:



Как видите, почти все игры на супер-настройках и с четырёхкратным сглаживанием показывают приемлемые результаты, за исключением откровенно прожорливых монстров с так себе оптимизацией: Metro Last Light и Company of Heroes 2 ожидаемо стали аутсайдерами чартов.

Что касается потребления памяти, то «выйти» за трёх с половиной гигабайтовый рубеж удалось только в Battlefield 4 и Far Cry 4, (видимо, магия цифры 4, не иначе). Crysis и Metro даже близко не подошли: самые сложные сцены с трудом занимали 3.2 ГБ видеопамяти.

Maxwell бонусы


Помните самый первый пост про GTX 970? Там мы рассматривали все пост-DX9 видеокарты NVIDIA и отметили, что вот уже три поколения как компания бьётся над энергоэффективностью своих чипов. С одной стороны — дело благородное, с другой — на десктопах особо потреблением можно не запариваться: чай, не от батарейки работаем. С другой — если уменьшить энергопотребление и тепловыделение, то в рамках того же теплопакета можно будет выжать больше производительности. И именно в этом Maxwell превзошёл как прошлые поколения, так и красно-белых конкурентов.

Дело в том, что энергоэффективные чипы GM-204 имеют теплопакет 165 Ватт. А ещё имеют технологию автоматического разгона: пока температура позволяет, а нагрузка — соответствует, частота ядра повышается в определённых разумных пределах. Соответственно, чем надёжнее цепи питания, лучше охлаждение, выше базовая частота чипа и памяти — тем больших результатов может достичь видеокарта на архитектуре Maxwell под нагрузкой: тем самым уменьшая просадки в FPS и увеличивая средний frame rate. Эдакий аналог Intel’овского Turbo Boost.

Штатные частоты моей видеокарты составляли:
Ядро, Normal — 1114 МГц
Ядро, Boost — 1253 МГц
Память: 7010 (1752.5 х4) МГц

После некоторого шаманства с софтовым поднятием напряжения, проверкой на стабильность и прочих ухищрений удалось получить следующие результаты:

Ядро, Normal: 1333 МГц
Ядро, Boost: 1490 МГц
Память: 8000 (2000 х4) МГц

Как это сказалось на производительности? Самым лучшим образом:



Почти везде графики перевалили за рубеж «комфортных» 25 FPS. Забавно, но разгон совершенно не сказался на производительности Diablo 3: видимо, либо какой-то внутренний лимитер всё же действует, либо игра упирается во что-то другое. А кривую Company of Heroes 2 даже разгон не спас, как были унылые результаты, так и остались.

Вот сравнение минимальной частоты кадров:



Здесь прирост наиболее важен и заметен: в самый напряжённых сценах исчезли микрофризы и подлагивания, в целом картинка стала плавнее.

Средняя частота кадров тоже подросла, но не так сильно, и в целом прирост производительности, скорее, характерен для очень нагруженных сцен, чем для общей динамики:



А теперь самое главное. Что с разгоном, что без — видеокарта удивительно тихая. Нет, конечно, через час-другой игры в Crysis 3 с такими настройками будет некоторый фоновый шум, но ни в какое сравнение не идёт с шумом и нагревом монстров прошлого поколения типа AMD HD7970, GTX 780 и уж тем более воем референсных турбин. В этом плане ASUS молодцы и сделали отличную систему, которая не шумит и выполняет свою работу на пять с плюсом.

Личное мнение


В прошлом посте отдельно жаловались на Far Cry 4, мол, если игра всё же выползает за 3.5 ГБ, то начинаются всякие микрофризы, лаги, выпадения кадров, а на записи и вообще кошмар творится (вторая половина ролика):



В игре такой красоты с выпавшими кадрами и размазанными цветными пятнами вы не увидите, просто будет незначительная потеря плавности картинки. В том же Crysis 3, если его удаётся вывести за пределы потребления 3.5 ГБ видеопамяти вообще таких проблем не наблюдается и просадка производительности практически не видна, особенно если смотреть в прицел и наслаждаться геймплеем, а не пялиться в FPS-метр, ловить кратковременное падение производительности, делать скриншот и бежать на форум, жаловаться на то, какая NVIDIA плохая. :)

Для разрешения 2560х1440 и 2560х1600 видеокарты хватает во всех играх: если, конечно, вас устраивает средний показатель в 30-40 FPS. Само собой, для 4K2K видеокарты не хватает, и дело здесь не в памяти, а в самих вычислительных возможностях видеоядра. В качестве 4К2К теста я использовал Dark Souls 2 с патчем на даунскейл графики. Сам по себе Dark Souls не блещет ни графикой, ни системными требованиями. На средне-высоких настройках можно спокойно играть в FullHD разрешении с мобильной видеокартой GT650M и 1 ГБ видеопамяти. Основная нагрузка в данном случае ложится на GPU, а не на видеопамять: так как никаких супер-сложных спецэффектов не применяется, постобработка достаточно примитивная, а сама игра разрабатывалась с учётом возможностей консолей прошлого поколения (для тестов использовалась первая версия, без Scholar of the First Sin). С даунскейлом 3840х2160 до 2560х1440 NVIDIA GTX 970 выдаёт уверенных 15-18 FPS, с разгоном — 16-19. То же упражнение, но с разрешением 5120х2880 вовсе приводит к удручающим 12-14 FPS.

Для сравнения, старый AMD HD7970 с 3 ГБ видеопамяти и работающий с небольшим разгоном (1024 МГц ядро, 5600 (1400х4) МГц память) уверенно выдаёт 25-30 FPS для разрешения 3840х2160 точек и 20-22 FPS для 5120х2880.

Почему так происходит


Во-первых, архитектура видеоускорителей AMD и NVIDIA сильно отличается как с точки зрения «общей философии», так и в некоторых частных подходах.

Видеокарта GeForce GTX 970 имеет базовую частоту ядра 1050 МГц и 4 гигабайта памяти GDDR5, работающую на частоте 1750х4 МГц, подключённую по 256-битной шине, разбитой на 8 сегментов по 32 бита каждый. Общий блок в 3.5 ГБ подключён через 224-битный сегмент, дополнительные 512 МБ подключены через 32-битный сегмент, что и является причиной замедления работы видеокарты, когда приложения вылезают за пределы 3.5 ГБ видеопамяти.

Ядро видеокарты Radeon R9 280X, работает на частоте в 1000 МГц и использует память 1500х4 МГц, подключённую по 384-битной шине. Она хоть и разделена на 6 двухканальных 64-битных блоков, но ни один из них не отключён, так что вся память доступна на полной скорости, пусть её и всего 3 ГБ.

Напрямую сравнивать характеристики (например, число TMU — texture mapping units) нет смысла: различная архитектура, частота работы и прочие особенности не могут наглядно отобразить превосходство той или иной видеокарты. Если приводить абстрактную аналогию: что больше займёт места — 20 ящиков какого-то неизвестного объёма или 30 ящиков немного другого? Только измерив объёмы и умножив на число ящиков мы можем точно ответить на данный вопрос.

Так что для актуального сравнения видеокарт лучше подставим показатели производительности R9 280X (она же 7970 1GHZ Edition) и GTX 970: они уже приведены к общему знаменателю и имеют одинаковую размерность. В обоих случаях будем сравнивать референсные значения стандартных ускорителей, а не разогнанных экземпляров различных вендоров.
R9 280X
GTX 970
Производительность GPU, ГФЛОПС:
3, 482
3, 494
Пропускная способность памяти, МБ/сек.:
288 000
224 000
Скорость заполнения
пиксельная, МП/сек.:
27 200
58 800
текстурная, МТекс./сек.:
108 800
109 200

Как видите, основное отличие производительности в области пиксельной скорости заполнения. Она отвечает за превращение полученных вычислений в готовый кадр: чем выше пиксельная скорость заполнения (pixel fill rate), тем, по идее, быстрее видеокарта может превращать «магию» в двухмерные картинки, которые можно отправлять монитор. Было бы что отправлять, и в этом кроется весь секрет. Если мы запускаем игрушку на невысоком разрешении, скажем, 1280х800, нагрузка на память и вычислительные ядра не высока: количество готовых кадров зашкаливает и видеокарта, допустим, может выдавать 100 или даже 200 FPS в простых сценах, если сможет превратить всё то, что она насчитала в двухмерную картинку и отправить её на монитор.

Если же мы запускаем игры в высоком разрешении, то каждый кадр становится намного сложнее в расчётах, кадровая частота снижается, а на ROP’ы (модули видеокарты, которые отвечают за перевод картинки в плоский кадр) ложится дополнительная нагрузка: есть разница, считать 1280х720=921 600 точек или 2560х1440=3 686 400 точек. Частота вывода готовых кадров падает, но падение производительности на всех предыдущих этапах сильнее, чем дополнительные потери на ROP’ах, и поэтому на невысоких разрешениях большие показатели pixel fill rate дают огромный прирост к результатам бенчмарков, а на всяких SuperUltraHD и 4K2K игры упираются в производительность самой видеокарты, а не выводящих картинку модулей, и результаты выравниваются.

Видеокарта от AMD отличается более высокой пропускной способностью памяти (показатели отличаются почти на 30%) и меньшим её объёмом (3 ГБ против 3.5+0.5 у GTX 970), сравнимой производительностью ядра, чуть большим количеством шейдерных процессоров. Именно здесь красно-белые и выиграли у чёрно-зелёных: производительности ROP’ов оказалось достаточно, а вот бонусы в лице высокой пропускной способности памяти и большем количестве вычислительных блоков сделали свою работу: при штатных частотах и высокой нагрузке HD 7970 или R9 280X смогла обогнать GTX 970. С поправкой на то, что игра не требовала больше 3 ГБ видеопамяти. Правда, цена этого превосходства — чудовищное энергопотребление Radeon’ов, и, как следствие, высокий нагрев, не самый приятный акустический режим работы и так себе разгон.

Итоги


GTX 970 — отличная видеокарта, которая позволит вам играть пару-тройку лет на высоких настройках во что угодно. Ущербной её назвать язык не поворачивается. 4К2К мониторов пока мало, оптимизация под них так себе, игровые движки развиваются… В общем, через несколько лет будет польза от всех этих нововведений и улучшений архитектуры. Если же вам нужна видеокарта сегодня… Что ж, для разрешения 1920х1080 и 2560х1440 GTX 970 отлично подходит. Она тихая, отлично гонится, не занимает много места и не требует супер навороченный блок питания.

Что касается памяти и споров 4 гигабайта или 3.5 — знаете, если бы NVIDIA вообще заблокировала этот кусок памяти и написала на видеокарта 3.5 ГБ — было бы намного хуже. Будь я на месте высокого начальства — продавал бы видеокарты с заявленными 3.5 ГБ и фактическими 4, такими, какие они есть сейчас. Как только это бы вскрылось — фанаты бы на руках носили компанию, мол, дарят 512 памяти. Пусть и не быстрой. Но дарят. На халяву! Ну а производительность… честно, в пылу сражений Battlefield’а или Far Cry вы не увидите разницу между «очень высокими» настройками текстур и просто «высокими», и никогда не увидите оверхэд. А во всех остальных играх можно смело ставить максимум. :)



А для фанатов bleeding edge технологий, 4К2К и прочих прелестей неограниченных бюджетов есть всякие Titan’ы и прочие R9 295X2. Пусть покупают и радуются. :)

Выводы


Выводы каждый волен делать самостоятельно. Как по мне, так истерика с памятью в GTX 970 была надуманной: на производительности это практически не сказывается, а будущее обновление драйверов и патчи к играм позволят что-нибудь подшаманить таким образом, чтобы владельцы GTX 970 не испытывали вообще никаких неудобств.

Что касается соотношения цены и производительности, то здесь, мне кажется, вариант с R9 280X… куда вы меня тащ…

Наши обзоры:
» Подключаем оригинальные геймпады к ПК
» Razer Abyssus: самый доступный Razer
» Nikon 1 S2: однокнопочная беззеркалка
» Обзор Lenovo Miix 3-1030
» Разбираемся в арт-хаосе компании Wacom
» ASUS ZenFone 5, LG L90, HTC Desire 601 — двухсимочная война за потребителя, часть 1
» ASUS Transformer Pad
» Гарнитуры Razer Kraken

Цикл PC Buyer’s Guide:
» PC Buyer's guide: выбор видеокарты
» PC Buyer's Guide: выбор блока питания
» PC Buyer's Guide: охлаждение
» PC Buyer's Guide 2015: Материнские платы, чипсеты и сокеты
» Кручу-верчу, запутать хочу. Разбираемся в линейках HDD

Комментарии (23)


  1. spanasik
    17.04.2015 17:41
    +2

    Будь я на месте высокого начальства — продавал бы видеокарты с заявленными 3.5 ГБ и фактическими 4, такими, какие они есть сейчас. Как только это бы вскрылось — фанаты бы на руках носили компанию, мол, дарят 512 памяти.
    Во всех книжках по бизнесу так и учат. Непонятно, почему они не приняли это очевидное решение.


  1. a553
    17.04.2015 18:03
    +2

    Diablo 3 упирается в звуковую систему. Если не лень, можете поставить число звуковых каналов в 16, и это уже сильно повысит fps. Если ещё более не лень, в гугле есть ещё пара настроек, спасающих ситуацию.

    А про меня и GTA 5 вы зря написали. Я уже обновил там, проблемы были в кривых дровах AMD, кто бы сомневался.


    1. Shirixae Автор
      17.04.2015 19:04
      +1

      Хм, не думал о звуковой системе, проведу тесты. Спасибо. :)


    1. AlexanderG
      17.04.2015 20:06
      +3

      Вот дожили. Что на Pentium 166 приходилось ковырять звук и выбирать число каналов, чтоб не лагало, что спустя 20 лет…


  1. kellas
    17.04.2015 18:54
    -7


    1. Shirixae Автор
      17.04.2015 19:11
      +2

      В самом начале поста есть ссылки на первую и вторую части серии постов. Там это видео в самом начале, и из-за этого видео и началась серия постов. :)


  1. veam
    17.04.2015 19:37

    А теперь самое главное. Что с разгоном, что без — видеокарта удивительно тихая.

    А теперь запустите встроенный тест оценки производительности 7 винды и оцените шум там.
    Вентиляторы у стрикса и msi G4 очень тихие, да.
    Только вот толку с этого, если дроссели на моем экземпляре трещали раз в 20 сильнее этих тихих вентиляторов.


    1. Shirixae Автор
      17.04.2015 19:57
      +1

      На моей не свистели. Вопрос партии, поставки, условий гарантий вашего магазина. Можно было заменить видеокарту. :)


    1. Allfar
      17.04.2015 21:43

      А у меня не свистят, и вентиляторы, как вы уже сказали, тихие. Наконец-то собрал абсолюно беззвучный(очень тихий), даже под гагрузкой, PC.


      1. prizzrak
        17.04.2015 22:58

        А какой производитель? MSI?


        1. Hertz
          18.04.2015 02:31

          Видимо все-таки ASUS, вроде только их серия STRIX имеет адаптивный режим работы вентилятора.
          У меня вообще кайф, EVGA 1000 P2 с адаптивной вентиляцией, и две GTX 980 STRIX купил в SLI — мне пока не удалось заставить их крутиться под нагрузкой, только при запуске компьютера или при ручной установке частоты вращения.
          С картами правда небольшой конфуз вышел, они видимо из разных партий, немного отличаются внешне, и у них разный BIOS, одна из карт на загрузке компьютера практически сразу глушит вентиляторы, а вот вторая крутит их почти до логина в ОС.


          1. prizzrak
            18.04.2015 10:12

            MSI вообще в Twin Frozr V обещают пассивное охлаждение без нагрузки.


            1. Allfar
              18.04.2015 19:35

              Да, крутится только в играх. И то, не во всех.


        1. Allfar
          18.04.2015 19:35

          MSI Gaming 4, который красненький.


  1. zorge_van_daar
    17.04.2015 21:48

    Почему вы основной упор делаете на разрешение? От разрешения зависит только количество задействованных блоков процессора для пиксельного шейдера и ROP'ов. Видеопамяти не для разрешения так много ставится, там не хранится 60 буферов кадра одновременно. При загрузке уровня, геометрия/текстуры просто погружаются в память карты, и, потом, отрисовываются не с винта/оперативки, а из внутренней памяти. Чем больше памяти, тем большую сцену можно загрузить в память и рисовать очень быстро. Если память на исходе (а 4 гига это только кажется, что много — сверхдетализированные юниты и тестура высокого разрешения, а то и не одна), то часть объектов из памяти выгружается, а загружаются другие. Тут вполне можно представить сценарий, в котором какой-либо мгновенно понадобившийся юнит будет подгружаться в медленную память, и как следствие — лаги и проседание частоты кадров.


    1. Shirixae Автор
      17.04.2015 22:01
      +2

      Если всё так просто, как вы говорите — почему на одних и тех же настройках в том же Dark Souls, в котором нет ни требовательных высокополигональных моделей, ни убертекстур на высоком разрешении GTX 970 выдаёт так мало кадров? :)


      1. zorge_van_daar
        18.04.2015 07:55

        Как раз потому, что буфер кадра вырос в 4 раза. Если даже предположить, что при увеличении в 4 раза на экране не будет видно больше геометрии (просто увеличится четкость картинки), то всяко учетверится количество выполняемых пиксельных шейдеров. Всякие тесселяции и сглаживания и отъедают большую часть ресурсов, а они повторяются для каждого пикселя.
        Хотите увеличить в 4 раза выполняемую работу без просадки фпс? Увеличивайте частоту шейдерных процессоров или их количество в 4-6 раз. Память тут играет очень опосредованную роль, как вы сами можете посчитать — 1-2 буфера кадра поместится и в быструю часть памяти.
        Да и не будем забывать, что DarkSouls просто может быть написан на движке, который плохо оптимизирован для работы с такими разрешениями, ибо движкописатели тоже знают принцип Парето и не будут стараться для считанных процентов игроков с 4к.


        1. Hertz
          18.04.2015 15:53

          Тесселяция выполняется для геометрии и на разрешение результирующего фреймбуфера ей в общем-то пофиг, если только ее степень искусственно не регулируется площадью (числом пикселей), которую геометрия будет занимать после отрисовки.
          Стоит учитывать, что фреймбуфер это не самый крупный вкладчик в расход видеопамяти, скорее виновниками можно назвать текстуры.


          1. zorge_van_daar
            18.04.2015 18:48

            По поводу тесселяции — согласен, говорят там отдельный конвеер для ее выполнения. Но остаются еще кучу пиксельных эффектов, которые напрямую зависят от разрешения фреймбуфера. А ваш вывод про вклад фреймбуфера в расход памяти это ровно тот факт, чтобы донести который, я и начал эту ветку.


          1. zorge_van_daar
            18.04.2015 18:55

            Кстати, то ради чего была придумана тесселяция раньше делалось каким-нибудь bump mapping'ом, и не факт что теперь все отказались от него в пользу новой техники. А это именно пиксельный эффект и он зависит от разрешения.


            1. Hertz
              18.04.2015 19:12

              Действительно, большинство эффектов от тесселяции могут быть приближены с помощью normal/bump, parallax/parallax occlusion mapping, и зачастую это более оправдано, чем настоящая тесселяция.
              Обычно пиксельный шейдер содержит самое больше из всех стадий число семплирований текстур, так что рост числа пикселей ещё и сильно повышает нагрузку на память.
              А ещё можно реализовать в пиксельном шейдере настоящую трассировку лучей, и тогда разрешение имеет колоссальное влияние на быстродействие.


  1. Ruckus
    19.04.2015 12:05

    На первом скрине не 970 или я что-то пропустил?
    На Asus STRIX 970 одно 8 пиновое питание, на скрине 6+8.


    1. Hertz
      21.04.2015 11:41

      980 видимо, у меня несколько таких, меня не обмануть :-)
      А вот на втором скрине все верно, только один вывод SLI, у 980 их два.