imageФото: micron.com

На днях Micron объявила о том, что стартовало производство тестовых образцов регистровых модулей оперативной памяти DDR5 для использования в серверах. Они будут построены на микросхемах 10-нм класса (1Znm) и, как заявили в компании, обеспечат прирост производительности подсистемы памяти более чем на 85% по сравнению с существующими DDR4.

Ожидается, что DDR5 будут требовать меньше энергии, так как рабочее напряжение уменьшат с 1,2 до 1,1 В. При этом они обеспечат больший объем вследствие увеличения емкости самих микросхем. Из спецификации JEDEC следует, что память DDR4 обеспечивает скорость 1600–3200 МТ/с, а для памяти DDR5 этот показатель составляет 3200–6400 МТ/с. То есть, процессоры будут быстрее получать данные из памяти.

image
image
image

Первыми новые модули получат ключевые партнеры Micron. О начале массового производства DDR5 информации пока нет. Предположительно, оно начнется к 2021 году ко времени появления первых процессоров с поддержкой DDR5. Intel и китайская Zhaoxin уже заявляли о таких планах.

«DDR5 RDIMM представляет собой значительную веху, приближающую отрасль на шаг ближе к раскрытию ценности ориентированных на данные приложениях следующего поколения», —заявил Том Эби, старший вице-президент и генеральный менеджер подразделения Compute&Networking Business Unit в Micron.
См. также: «На рынке появится отечественный SSD. Чипы для него будут производить в России»

Комментарии (91)


  1. DeboshiR
    09.01.2020 16:00

    Мне кажется ещё текущие машины не все перешли на DDR4 а они уже DDR5 собираются выпускать.


    1. DrunkBear
      09.01.2020 16:06

      Это планы на 2021 год, а объявили вовремя: вон уже DDR4 4866@CL18 на рынке.


    1. Sayaka
      09.01.2020 16:19

      Так это скорее норма, вспомните как быстро в своё время менялись поколения памяти.


    1. mig126
      09.01.2020 17:23

      Ну так это пока не для домашнего рынка. Для домашнего ПК возможностей DDR4 еще на лет десять хватит.


      1. Sayaka
        09.01.2020 17:32
        +1

        Ой зря вы загадываете на такой долгий срок. У меня VR шлем и могу уверить, шустрая память ему нужна и много. Если VR действительно взлетит, то это ОЧЕНЬ сильно задерёт планку по требованиям к железу.


        1. mig126
          09.01.2020 17:45
          +3

          За VR я внимательно слежу ещё с появления Окулус. Проблема там в том что отсутствует оптимизация. Создатели игр идут по непроторенной дорожке. Готовых решений фактически нет.
          На глаза идёт фактически одинаковая картинка, нет единой/универсальной технологии отслеживания глаз(несколько компаний пытаются протолкнуть свои, но поддержка в играх фактически отсутствует), нет поддержки в directX/Vulcan.
          Да и на мой взгляд проблема больше упирается в видеокарты. Возможностей ЦП вполне хватает. SLI VR нет, но вроде планируется. Так что посмотрим.


        1. Temtaime
          09.01.2020 17:46

          Она из без VR задирается — 4K, 8K на подходе.


          1. mig126
            09.01.2020 18:13

            А какой смысл игры на 8к мониторе? 4к ещё оправдано, но и то при хорошо оптимизированной игре практически не заметно, а 8к мониторы как и 8к телевизоры не дадут никакого прироста качества(если не сидеть в метре перед диагональю от 30").


            1. 6opoDuJIo
              09.01.2020 20:04
              +1

              Моё имхо — с появлением 4к/8к мониторов отпадёт надобность в изощрённых техниках антиалиасинга — он будет просто не нужен, ибо физические пиксели уже слишком малы, чтобы алиасинг был проблемой.


              1. DistortNeo
                10.01.2020 15:02

                Да, в играх я это тоже заметил. Если в FullHD приходится для комфортной игры ставить антиалиасинг на максимум, то в 4K я его вообще отключаю и не вижу разницы.


              1. Mad__Max
                11.01.2020 01:57

                Ну как бы самый первый (и наименее эффективный, но зато качественный) метод антиалиасинга был это просто считаем всю картинку в 2х или 4х кратном разрешении, а потом уменьшаем полученную картинку до реального разрешения монитора.


                1. DrunkBear
                  13.01.2020 10:18

                  Для 4к это будет уже слишком дорого, особенно с новомодными лучами и прочим.


            1. DmitriyDev
              09.01.2020 20:06

              Ну не знаю. Может если сравнивать картинки от игр без какого-то чёткого контура, то разницы и нет, а вот на примере текстов разница обычно хорошо видна. Особенно если текст мелкий. И да, я не имею в виду что мелкий текст это единственное преимущество 8К мониторов. Для проверки можете сделать однопиксельную сетку из черных и белых пикселей, если вы не увидите линии на вашей диагонали при комфортном расстоянии — то да, значит 8К это однозначно переплата.


              1. 6opoDuJIo
                10.01.2020 14:51

                Э, а зачем тогда 100500 видов антиалиасинга придумали, если алиасинга «не видно»?)


            1. Kolyagrozamorey
              09.01.2020 20:08

              ну и запросы сейчас пошли. Я когда то второй квейк и контру 1.6 играл на моніторе Samsung 765MB и вполне хватало, а сейчас мониторов с 4к недостаточно


              1. Fenzales
                09.01.2020 20:46

                Во втором квейке и контре не на что было особо смотреть в таком разрешении, уровень детализации сейчас на совершенно другом уровне.


            1. alex6999
              09.01.2020 22:51

              Задайте этот вопрос производителям телефонов, они туда гораздо быстрее 8к впендюрят.


              1. Gugic
                10.01.2020 01:19

                У телефонов оправдывают наращивание разрешений VR'ом (экран очень близко к глазам + разрешение «пополамится»). Монитор к голове примотать гораздо сложнее.


                1. Mad__Max
                  10.01.2020 01:36
                  +1

                  Только много ли используют телефоны для VR через кто-то типа гугл cardbox и приспособлений? Вроде тема уже заглохла, «наигрались».

                  А без оптики снижающей фокусное расстояние все эти мегапиксели на экране бесполезны, как близко к глазам маленький экран не подноси — без помощи оптики глаз просто не способен сфокусироваться на достаточно близком расстоянии, чтобы их рассмотреть.


            1. ClearAirTurbulence
              10.01.2020 04:13
              +1

              А какой смысл игры на 8к мониторе?

              640кб хватит всем?

              Кроме того, для игры весьма неплохо идут мультимон-конфиги (особенно для авиасимов) и широкие мониторы с AR 21:9. Пока у последних разрешение не очень. Но рано или поздно оно тоже подтянется, и вот вам, >4k для сопоставимого качества картинки.


              1. Temtaime
                12.01.2020 13:11

                Плюс, активно продвигают 144 гц, например. Это уже требование более двух раз в производительности.


        1. DrunkBear
          09.01.2020 17:47

          А зачем?
          В видеокартах и так уже под 16ГГц частоты памяти, а разгон памяти на i9900k с 3 до 3.6 ГГц даёт прирост в пределах 10%.


          1. x67
            09.01.2020 19:54

            Интересно, это реальные 16 ггц или маркетинговые 4х4Ггц, например


            1. Mad__Max
              09.01.2020 21:21

              Настолько же реальные как те 6.4 «ГГц» (6.4 GT/s) что будут тут в DDR5-6400 еще только года через 3 когда она появится на практике (по началу как обычно первое поколение на практике будет даже медленней чем хорошая DDR-4 имеющаяся уже сейчас), при работе самой памяти на реальной частоте чипов памяти всего в 0.4 Ггц.

              В видеокартах примерно аналогично, только и частоты уже сейчас намного выше и ширина шины «ширше».


          1. iproger
            09.01.2020 22:20
            +1

            Любой прирост необходим. Сейчас остро не хватает однопоточной производмтельности.
            Пример из игр: недавно анонсировали 360гц монитор. В теории он будет полезен уже сейчас, на практике процессоры не вытягивают столько кадров.


            1. Mad__Max
              10.01.2020 01:47

              А процессор ли не вытягивает?
              Попробуйте ради интереса снизить разрешение и чисто графические эффекты загружающие только видеокарту (типа разных сглаживания и анизотропной фильтрации) и посмотреть сколько кадров интересующая игра выдаст.


            1. DrunkBear
              10.01.2020 10:49

              Анонсировали, ога.
              1920*1080, 24", зато 360 герц!
              Не, их реально видят люди без 1000fps камеры, которая на замедленном повторе покаже, чем монитор А отличается от монитора Б?
              А если двойной слепой тест? /irony


              1. Osnovjansky
                10.01.2020 10:59

                С десяток лет назад играл в совсем старый 3д шутер (Renegade) — мой комп воспроизводил все 60 кадров в сек. с включенным VSYNC. При резком развороте в «глазах» оставался отпечаток от 5-6 кадров, которые накладывались друг на дружку и вместо наблюдения поворота получалась легкая дезориентация (в фильмах для исключения такого эффекта делают «моушен блюр»).

                Подобный эффект наблюдаю в ванной комнате, где поставил дешевые, мерцающие 100 Гц, светодиодные лампочки.

                Так что, сказать что 360Гц монитор нужен всем — нельзя, но про игрокам в шутеры он может оказаться полезен.


                1. DrunkBear
                  10.01.2020 11:04
                  +1

                  мм… вы уверены, что играли на мониторе с хорошей быстрой матрицей?
                  Такой эффект можно получить на матрице с достаточно большим временем переключения.


                  1. Osnovjansky
                    10.01.2020 11:06

                    На компе — действительно был монитор с медленной матрицей, но в ванной комнате скорость перерисовки картинки — просто отличная ))

                    Я хотел сказать, что 360 Гц монитор, возможно, не является необходимостью, но может давать чуть-чуть дополнительного комфорта просто потому что техника стала это позволять (подозреваю, что ценой некоторого ухудшения цветопередачи).


                    1. Mad__Max
                      10.01.2020 11:11

                      По сравнению с 60 Гц монитором — да конечно, вполне заметно при большой динамике. Для этого сейчас специально для геймеров и выпускают модели 120 и 144 Гц.

                      А вот даст ли что-то 360 Гц относительно 144 Гц — сильно сомневаюсь.

                      А в ванной это «эффект стробоскопа», на нем и 300-500 Гц в принципе заметить можно если достаточно быстро головой успевать крутить (или наоборот очень быстро и резко размахивать источником света перед глазами). Но он проявляется не при быстрой смене картинки, а при резких импульсах яркости.


                      1. DistortNeo
                        10.01.2020 13:31

                        А в ванной это «эффект стробоскопа», на нем и 300-500 Гц в принципе заметить можно если достаточно быстро головой успевать крутить

                        Так это типичный сценарий для шутеров.


                        1. mig126
                          10.01.2020 14:06
                          +1

                          Мозг сложная штука. Он не работает тактами и в тоже время у глаз очень ограниченная пропускная способность(порядка 1Мп разрешение, частоту сложно подсчитать, т.к. нет среднего значения как и среднего человека).
                          Но достоверно установлено что в VR шлеме минимально комфортная частота выше чем при игре с монитора(90 против 60).
                          Вероятно это из за того что в шлеме экран занимает большую часть обзора, тогда как при игре с монитора часть изображения фон который за счет алгоритмов требует меньшее количество ресурсов.


                          1. DistortNeo
                            10.01.2020 15:00
                            +1

                            Можно вообще считать, что глаз воспринимает действительность непрерывно, а не дискретно, и передаёт данные в мозг асинхронно — при накоплении определённого количества фотонов в светочувствительной клетке. Поэтому человек будет видеть вспышку, даже если ещё выдержка будет очень короткой.


                          1. Mad__Max
                            11.01.2020 02:07

                            Так в полноценном VR шлеме же нужно считать 2 раздельные (отличающиеся) картинки для каждого глаза. Поэтому 90 fps в VR примерно соответствуют ~45 fps на обычном мониторе, на который смотрим обоими глазами одновременно, а не каждый глаз на свой отдельный экранчик.

                            Хотя зависит от схемы реализации, но для VR нужно либо удвоение горизонтального разрешения (при этом каждый кадр это на самом деле 2 слепленных вместе кадра), либо удвоение частоты кадров, чтобы получить примерно ту же плавность движений.


                            1. mig126
                              11.01.2020 13:31

                              Нет, насколько я знаю на каждый глаз идёт 90фпс.
                              45 и на обычном мониторе плохо смотрятся, в VR шлеме такой фпс быстро вызывает головокружение.


                        1. Mad__Max
                          11.01.2020 02:02

                          Чтобы каждый кадр резко отличался по яркости от предыдущего и последующего? Что-то на реальные игры не похоже, если конечно в кадре не какая нибудь штука так же имитирующая (уже виртуально) быстро моргающий источник света.


                          1. DistortNeo
                            11.01.2020 02:07

                            Не кадр целиком, а его фрагменты при движении объектов в кадре.


                            1. Mad__Max
                              11.01.2020 02:25

                              Так это соответствует движению источника света, а не его морганию.

                              Если яркий источник света движется в поле зрения, но при этом не моргает, а имеет примерно постоянную яркость, то эффекта «стробоскопа» вообще не возникает.
                              Эффект возникает только если он одновременно и быстро движется (или движется глаз относительно него) и одновременно моргает.

                              Хотя какое-то подобие этого эффекта может быть если яркий источник света в игре движется по экрану с очень большой скоростью. На настолько большой, что его перемещение за время отрисовки 1 кадра существенно превышает его размеры — скажем за 1/10 сек проскакивает весь экран от края до края, а размер объекта при этом небольшой. Тогда глаз может успеть зафиксировать прерывистую траекторию движения состоящую из отдельных, не пресекающихся изображений яркого объекта, вместо непрывного «светового шлейфа» который наблюдался бы если смотреть на аналогичный быстрй яркий объект в реальности не дробящейся на отдельные кадры.


                              1. DistortNeo
                                11.01.2020 02:42

                                Хотя какое-то подобие этого эффекта может быть если яркий источник света в игре движется по экрану с очень большой скоростью ...

                                Именно. И подобное движение — это быстрый поворот камеры.


              1. Gugic
                10.01.2020 20:01

                Тут вот товарищи попытались разобраться дает ли преимущество высокая частота обновления монитора и какое и довольно сильно заморочились:


        1. Mad__Max
          09.01.2020 21:23

          Вы в VR на встройке что-ли гонять собрались скорость работы которай сильно от системной памяти зависит? Очень сомнительная затея.

          А с полноценной видеокартой нужны выч. мощь и ПСП видеокарты, а не системной памяти.


      1. alexdevyatov
        09.01.2020 17:47
        -10

        Если под домашним ПК вы подразумеваете печатную машинку, до для нее и DDR 2 хватает. А все новые игры будут оптимизированы под DDR 5.


        1. hexploy
          10.01.2020 01:36
          +1

          новые игры будут оптимизированы
          Эх, вашими бы устами да мед пить


          1. DrunkBear
            10.01.2020 10:53

            Вово, скорее, посмотрят статистику стима / продаж и скажут «оптимизируем на 12 потоков, большинство покупает от 12 до… потоковые процессоры и от 16 Гб памяти»
            PS видимо, так и оптимизировался хром, который прямо сейчас нагло жрёт 24 гб оперативки всего с 50 вкладками. /sarcasm


      1. Am0ralist
        09.01.2020 17:58

        Поговаривают про DDR5 и PCI-E 5.0 в Ryzen на zen 4 (и смена сокета под это дело). С учетом, что zen4 это еще и тредриперы, и новые эпики, то вряд ли они будут два контроллера памяти пилить.


        1. mig126
          09.01.2020 18:17

          Обычно в переходные периоды пилят материнки/ЦП с поддержкой и старой и новой технологии, а то и обе одновременно. Почему вы думаете что AMD будет упускать часть рынка? Они и так регулярно отстают.


          1. Am0ralist
            09.01.2020 18:27

            А что они упустят? ам4 — так же был новым сокетом лишь под ddr4, представлен в 16 году и под zen2 дожить обещает. С выходом am5 ещё какое-то время продаваться явно будет.

            Ам5 будет под новые системы на ddr5, всё логично, вполне вероятно, что изначально там только топовый сегмент будет. На данный момент они уже не отстают и наоборот, наращивают себя именно в высшем сегменте. А вот обратную совместимость ещё и по памяти тянуть после am2/2+/3/3+ подозреваю у них желания не будет


        1. Mad__Max
          09.01.2020 21:30

          И Тредриперы и Эпики же на своих собственных отдельных сокетах и своих чипсетах живут.

          А контроллеры памяти начиная с Zen2 уехали в отдельный чип и от архитектуры самих ядер теперь не зависят.
          Так сейчас получаются «настольные» Райзен с 2х канальной памятью, 4х канальные тредрипепы и 8 канальные Эпики.
          При том что чипы с ядрами и кэшем у них одинаковые — меняется только I/O чип ну и количество кристаллов с ядрами.

          В принципе можно даже будет тот же Zen2 выпустить с DDR5. Или наоборот Zen4 на DDR4 если зачем-то такая нужда будет.


          1. Am0ralist
            12.01.2020 12:44

            И Тредриперы и Эпики же на своих собственных отдельных сокетах и своих чипсетах живут.
            Да, и тредриперы продержались zen и zen+ только на едином сокете были, zen2 уже на несовместимом (точнее совместимом физически, если не ошибаюсь) — скорее всего просто от того, что самые топовые казались сильно круче, чем предполагалось изначально.

            Но только такой момент, чтоб в одном сокете держать два типа памяти — контроллер должен оба поддерживать! Либо делать зачем-то две линейки процессоров под разные сокета.
            Поддержка ам4 обещана только в процессорах с началом выпуска до 2021 года включительно была, то есть ещё в рамках zen3 и всё. Так что делать zen4 универсальным под два типа памяти AMD вряд ли будет. Более того, мне почему-то поставили минус в указание, что AM4 изначально так же вышел на DDR4-only и никого это не смущает. Итого, шансов, что после выхода zen4 и сокета am5 останется поддержка ddr4 — минимальная. Нет, понятно, что zen3 будет ещё года 2-3 в продаже, но скорее уже в среднем и нижнем сегменте, тогда как am5 будет больше на топовые показатели изначально заточена.


            1. Mad__Max
              13.01.2020 00:22
              +1

              Да, надо. Но ведь такое уже было во времена феномов/атлонов (с одновременной поддержкой DDR2 и DDR3 ) — их можно было как в платы с AM2+ (c DDR2) ставить, так и в AM3/AM3+(c DDR3), даже когда для этого приходилось именно универсальный контроллер делать работающий одновременно и с такой и с такой памятью. Т.к. тогда он был полностью интегрирован в кристалл. И у Intel вроде тоже какое-то из поколений могло с 2мя разными типами памяти работать.

              А сейчас это еще намного проще сделать — достаточно просто разные I/O чипы использовать в каждым из которых контроллер только с одним конкретным типом памяти работает, а не городить универсальный контроллер усложняя его.

              Зачем такое может понадобиться? Ну например новые I/O чипы под DDR5 и PCI-E 5.0 будет для AMD уже делать TSMC на 7нм производственном процессе.
              А I/O чипы для работы с DDR4 и PCI-E 4.0 будет продолжать выпускать GlobalFoundries на 12нм.
              Тем более у AMD c ними долгосрочные контракты с обязательствами заказывать и выкупать не меньше какого-то объема пп пластин в месяц/год, а более тонкие (ниже 12нм) они освоить все-никак не могут. И вроде уже даже официально отказались от таких планов остановившись на 12нм.

              Чем их загружать? На одних чипсетах для материнских плат много не загрузишь. Сейчас эти мощности еще дополнительно хорошо загружены производством процессоров на предыдущем Zen+ и вроде бы GPU семейства Polaris тоже у них делаются.
              Но все это скоро будет сниматься с производства из-за морального устаревания, а производственные мощности (в т.ч. зарезервированные под AMD) останутся.

              Или например поначалу возникнет дефицит и завышенные цены на DDR5 из-за каких-то просчетов у производителей памяти (или опять пожар/наводнение/землятресение). И тогда имеет смысл младшие линейки под DDR4 выпустить в качестве временного решения.

              Далеко не факт конечно, что так будет делаться на практике. Просто возможный вариант действий, который теперь в текущей многочиповой компоновке процессоров намного проще реализовать.


              1. Am0ralist
                13.01.2020 09:45

                о ведь такое уже было во времена феномов/атлонов (с одновременной поддержкой DDR2 и DDR3 ) — их можно было как в платы с AM2+ (c DDR2) ставить, так и в AM3/AM3+(c DDR3), даже когда для этого приходилось именно универсальный контроллер делать работающий одновременно и с такой и с такой памятью.
                И именно потому, что они уже наелись подобным — am4 был только DDR4. Это более свежий и релевантный пример.
                А сейчас это еще намного проще сделать — достаточно просто разные I/O чипы использовать в каждым из которых контроллер только с одним конкретным типом памяти работает, а не городить универсальный контроллер усложняя его.
                Но процессор должен в любом случае оба их содержать, при этом усложняя комутацию. Зачем?
                Ну например новые I/O чипы под DDR5 и PCI-E 5.0 будет для AMD уже делать TSMC на 7нм производственном процессе.
                А I/O чипы для работы с DDR4 и PCI-E 4.0 будет продолжать выпускать GlobalFoundries на 12нм.
                Вы объясняете как, но не объясняете «зачем?»
                Или например поначалу возникнет дефицит и завышенные цены на DDR5 из-за каких-то просчетов у производителей памяти (или опять пожар/наводнение/землятресение). И тогда имеет смысл младшие линейки под DDR4 выпустить в качестве временного решения.
                И этим себе костыль на следующие лет 6 поставить? Или потом выпускать несовместимые с старыми сокетами процессоры? Так тогда им придётся с каждым поколением сокеты тасовать, оно им надо?
                У них будет zen3 на ddr3 ещё какое-то время. Делать am5 с двумя типами памяти — это вновь по старым граблям. am4 показал, что им это не очень нравится.


      1. V1tol
        09.01.2020 22:23
        +2

        Я бы так не сказал. Да, в момент выхода памяти DDR4 хватало на всё что угодно и, казалось, ещё на 10 лет хватит. А потом пошёл бум количества ядер и сегодня в «домашнем» сегменте у нас есть процессоры с 8 и даже 16 ядрами, которые толкаются попами в 2 каналах памяти.

        Конечно всегда можно купить память с частотой типа 4200, но она стоит уже далеко не бюджетных денег. Я считаю, что при росте ядер нужно было увеличивать и количество каналов памяти в пользовательском сегменте — тогда можно было бы поставить 4 относительно низкочастотных планки по 8 гигабайт и получить хорошую скорость и нормальный объём.


        1. mig126
          10.01.2020 02:00

          Назовёте игры которые забивают на 100% оба канала ОЗУ?
          Обычно они тупо забивают весь доступный объём и начинают спотыкаться.
          По поводу задач где понадобятся такие скорости, это уже не домашний сегмент, а работа/бизнес.


          1. DistortNeo
            10.01.2020 02:28

            Бенчмарки показывают некоторую зависимость производительности игр и от частоты памяти и таймингов (правда больше — от таймингов). А для современных игр даже 15% FPS за счёт значительно более быстрой памяти могут оказаться уже значительными.


            1. mig126
              10.01.2020 11:46

              Тут неоднократно приводили результаты тестирования копеечной ОЗУ и дорогих высокочастотных модулей.
              В играх разница составляла 1-2 кадра в секунду на 60-70.


              1. DrunkBear
                10.01.2020 13:00
                +2

                Нашёл тест i9900 c разной памятью.
                TL;DR: кодирование и распаковка — память сильно влияет, рабочие приложения — разброс в пределах погрешности, игры в невысоком разрешении (до fullhd) — изрядно влияет, в разрешении выше 2k — можно пренебречь.
                C AMD — немного другая ситуация: с памятью разгоняется и infinity fabric, поэтому 10-15% среднего и до 20% минимального ФПС можно выиграть с памятью в 3600-3733Mhz (по сравнению с 3000) практически во всех приложениях.


                1. Mad__Max
                  11.01.2020 02:15

                  infinity fabric вместе с памятью разгоняется только на Zen/Zen+.
                  Начиная с Zen2 (настольный Ryzen 3xxx и мобильные 4ххх) частота IF выставляется отдельно и от частоты памяти уже не зависит. Заодно и ее ширину в 2 раза увеличили, так что в случае с высокочастотной памятью разница в скорости шины примерно 2 раза, а с низкочастотной и все 3 набирается.


                  1. DistortNeo
                    11.01.2020 02:52

                    Начиная с Zen2 (настольный Ryzen 3xxx и мобильные 4ххх) частота IF выставляется отдельно и от частоты памяти уже не зависит.

                    Не совсем так. До частоты памяти 1866 МГц (DDR4-3733) частота IF совпадает с частотой памяти, процесс работы с памятью синхронный. При дальнейшем повышении частоты памяти частота IF отвязывается от памяти и становится равной 1800 МГц. Работа с памятью становится асинхронной, что приводит к ощутимому росту задержек.


                    1. Mad__Max
                      12.01.2020 03:29

                      Вы путаете частоту IF с частой работы контроллера памяти.
                      Это 3 разных частоты. IF, контроллеров памяти и собственно самой памяти (точнее шины связывающей контроллеры с модулем памяти, т.к. сами чипы на намного меньшей частоте работают).

                      Всего есть 3 частоты:
                      FCLK = Fabric Clock (частота работы IF)
                      UCLK = Unified Memory Controller clock (частота работы контроллера памяти)
                      MEMCLK = memory clock (частота шины памяти от контроллера до модулей DIMM)

                      Или на картинке наглядно (вообще там еще и 4я частота есть — lclk но она сейчас нас не интересует):

                      Блок-схема Zen2 (полный формат по клику)
                      image


                      1. DistortNeo
                        12.01.2020 12:21

                        и IF может работать асинхронно относительно памяти на своей частоте… Но это влияет уже только на задержки при работе с памятью в асинхронном режиме

                        Именно об этом и речь. В асинхронном режиме задержки становятся выше. И, кстати, именно это вы ссылкой и подтверждаете, где 4000 оказывается медленнее, чем 3600. Слюни и сопли, конечно, но сам факт имеет место быть.


                        1. Mad__Max
                          13.01.2020 00:58

                          Выше речь была о привязке в том смысле, что низкочастотная память снижает не только собственно скорость работы с памятью, но и замедляет работу IF и следовательно обмен данными между ядрами и работу с кэшем.
                          В Zen/Zen+ это было действительно так — IF работала всегда на частоте памяти, поэтому прибавка реальной скорости работы от частоты памяти была очень существенной, т.к. одновременно ускорялись и сама память и L3 кэш и пересылка данных между ядрами и например работа с GPU по PCI-E (до которого данные сначала тоже нужно передать по IF).

                          У Zen2 это уже не так, от частоты памяти ускоряется только память и соответственно только ПО сильно зависящее от работы с памятью. Которого кстати стало заметно меньше, т.к. размеры кэшей выросли в 2 раза и доля обращений к памяти («промахов» кэша) в Zen2 стала меньше.

                          А выше 3600 МГц память для Zen2 действительно особого смысла не имеет(лучше снизить тайминги если память позволяет). Не только собственно из-за появление 2го асинхронного режима (деления частоты работы контроллеров памяти в 2 раза) ведущего к росту задержек. Но и из-за того, что даже ПСП почти не растет дальше с ростом частоты.
                          Обычно тут обращают внимание на задержки (становящиеся хуже после 3600 / 3733), но если протестировать ПСП то видно что и она не растет практически:

                          Скорость чтения и записи из памяти на разных частотах памяти и работы Infinity Fabric на Zen2
                          image

                          image


          1. V1tol
            10.01.2020 02:46

            Пока я такие не встречал, да и игр, которые могут забить все 8 ядер процессора до 100% тоже. А скоро выйдут консоли нового поколения (по слухам, у 5 плойки будет 20 гигов GDDR6 со скоростью 880GB/S) и посыпятся кривые порты — вот тогда уж наверняка придётся выкидывать свой 9700К.


            1. iproger
              10.01.2020 05:56

              Такая игра есть, хоть забивает и не полностью — wd2.


              1. mig126
                10.01.2020 11:43

                Кривое убожество кое как переведённое на рельсы виндовс.
                Таких игр много которые или писали или переносили пьяные обезьяны.
                Есть и такие что при довольно ущербной графике полностью загружают топовую видеокарту.


            1. DistortNeo
              10.01.2020 13:46

              Игры, которые забивают 4 ядра процессора на 100%, уже существуют.


              1. mig126
                10.01.2020 14:30

                А как вы это определили? Системный монитор в окнах нагрузку на ЦП считает довольно криво.


                1. DistortNeo
                  10.01.2020 14:50

                  Системный монитор в окнах нагрузку на ЦП считает довольно криво.

                  Почему? Обоснуйте.


                  Ну и это подтверждается бенчмарками, где производительность игры на 6 и 8-ядерниках выше, чем на 4-ядерниках.


                  1. mig126
                    10.01.2020 16:40

                    Мне встречались игры где ЦП якобы на 100% заняты все 4 ядра/потока(судя по диспетчеру). Вот только игры были однопоточными(я в курсе что современные ЦП умеют перераспределять нагрузку). И другие методы измерения давали правильный результат. Плюс разница в температуре ядер.


                    1. DistortNeo
                      10.01.2020 16:54
                      +1

                      Это оптимизация работы с видеокартой на уровне библиотек и драйверов. То, что раньше делалось в главном потоке, теперь буферизуется и выполянется в фоне. Ну а разница в температуре объясняется busy wait — задержки при общении с GPU насколько малы, что нет смысла переключать потоки.


        1. DistortNeo
          10.01.2020 02:17

          Я считаю, что при росте ядер нужно было увеличивать и количество каналов памяти в пользовательском сегменте

          Intel в X-серии использует четырёхканальную память. И даже более того, процессоры 10-го поколения обещают быть даже доступными по ценам.


          тогда можно было бы поставить 4 относительно низкочастотных планки по 8 гигабайт и получить хорошую скорость и нормальный объём.

          Сложно сказать. Во многих задачах больше решает скорость доступа (тайминги), чем пропускная способность.


          1. V1tol
            10.01.2020 02:58

            Intel в X-серии использует четырёхканальную память.

            Только материнские платы на них тоже не бюджетные, домашний компьютер золотой получится.
            Во многих задачах больше решает скорость доступа (тайминги), чем пропускная способность.

            На низкочастотных планках тайминги как раз относительно невелики из коробки. На планку за 2000р с частотой 2400 вижу CL16-CL17. Примерно те же СL16 на моих недорогих Crucialах с частотой 3000 (за эту цену тот же кингстон предлагает 2933 CL19). А количество каналов компенсирует низкую частоту планок.

            Понятно, что можно взять какой-нибудь кит на 4000, но комплект из 2 таких планок по 16 гигабайт встаёт в 30 тысяч — это даже дороже 9700К получается.


            1. DistortNeo
              10.01.2020 14:44
              +1

              На низкочастотных планках тайминги как раз относительно невелики из коробки.

              Потому что тайминги относительные — они указываются в тактах, а не в наносекундах. По факту их надо переводить в наносекунды, чтобы оценить реальную задержку. Далее стоить учесть, что процессор читает/пишет данные не побайтно, а целыми кэш-линиями, поэтому выполяет команды в burst mode, то есть полная задержка включает в себя ещё и такты на передачу данных.


              Ну и ещё тут есть AMD с привязкой частоты памяти к частоте внутренней шины, что заставляет использовать высокочастотную память.


  1. amarao
    09.01.2020 17:26
    +1

    Новый DDR5, с улучшенной поддержкой rowhammer.


  1. dimsog
    09.01.2020 17:27
    +2

    Эм, ну вот сейчас я обновил платформу и перешел с DDR3 на DDR4 и пшик. Разницы не особо увидел.


    1. Sayaka
      09.01.2020 17:33
      -3

      А была уверенность что именно память узкое место? Условно, ставить ддр4 на машину без ссд и ожидать прироста производительности эээ, странно.


      1. dimsog
        10.01.2020 10:53

        Да. SSD стоит конечно же.


    1. Osnovjansky
      10.01.2020 10:44

      Вспоминая статьи 10-ти — 15-ти летней давности, чтобы при апгрейде компа заметить улучшение «глазами» (без запуска бенчмарков) нужно чтобы производительность улучшилась на порядка 30 %


  1. VADemon
    09.01.2020 17:35
    +1

    On-Die ECC — это отличные новости! С нынешними объемами памяти пора бы.


    AMD Zen4 нацеливаются либо на середину или вторую половину 2021 года, я думал раньше будут принимать DDR5. Intel Sapphire Rapids технологически тоже будут оснащены DDR5 и PCIe5, интересно будут ли у них в 2020г. платформы на PCIe4?


    1. DrunkBear
      09.01.2020 17:55
      +2

      А что, у Intel уже есть хоть где-то PICE4?
      Они ещё летом рассказывали, что 4 версия не нужна и PICE3 хватит всем?
      Или это ещё один из приступов Not Invented Here от маркетологов Интел?
      PS Всем хватит скоростей 3 версии стандарта, поэтому мы не выпускаем 4, но анонсируем сразу 5, правда, не сейчас, а потом, на 7нм процессорах.
      Ну да, к тому времени или ишак помрёт, или патишах /irony


      1. VADemon
        09.01.2020 18:07
        +1

        В этом вся и хохма. Хотя сейчас посмотрел, в 2020 наконец будет новая микроархитектура введена: Sunny Cove, с PCIe4.


        Недавно их, правда, ударило иронией реальности: ищут среди разработчиков тестировщиков новых PCIe4.0 SSD… да только своей платформы нет: https://www.techspot.com/news/83402-intel-prototyping-pcie-40-ssds-but-needs-amd.html


    1. Am0ralist
      09.01.2020 18:03

      Zen2 был к концу 2 началу 3 квартала, Zen3 — по роадмапам это граница 3/4 квартала. Я подозреваю, что Zen4 будет к 2022 ближе, раньше — не сильно логично сокращать время между поколениями (особенно, если как на Zen2 будут ещё в течении полугода анонсировать новинки, но при этом до настольных APU ещё даже не добрались...)


      1. VADemon
        09.01.2020 18:13

        Сэмплинг Zen2 (серверных) начался ещё зимой прошлого года, а десктопы только зарелизили в середине лета. Я-то прикинул по roadmap +5-6 кварталов после Zen3 — да, поздний 2021 вероятнее. Хм, а раз так, то десктопы может быть сдвинут до презентации CES2022? Хотя тогда рождественские закупки отпадают...


        1. Am0ralist
          09.01.2020 18:35

          Побуду вангой пальцем в небо)
          Ради рождества им топовые камушки надо где-то в ноябре выкатить, тогда куш на рождество они сорвут неплохой. То есть условные r7-9 только представить, благо сейчас у них достаточно плотная обойма по производительности за счёт снижения цены на старые поколения. Всё равно у них в материнками тоже проблемы по сути вечные, так что анонс на новом сокете может быть урезанный.


      1. Mad__Max
        09.01.2020 21:40

        Серверные где-то в середине 21 года года ожидаются, а настольные да, вполне и до конца 21 или начала 22 года могут задержаться.


  1. yarston
    09.01.2020 19:26

    Шину адреса уменьшили до 13 бит O_o, там адрес ячейки по 3 частям теперь передаваться будет?


    1. mOlind
      10.01.2020 09:48

      Паковать будут как-то. Чтобы при последовательном чтении только младшие биты пересылать.


    1. Osnovjansky
      10.01.2020 10:50

      А какой сейчас минимальный размер фрагмента, который грузится из памяти в кэш? Давно не читал, как сейчас работает кэш в процессорах.


  1. OleksiyT
    09.01.2020 21:32

    Не знаю как для дома, но для серверов быстрая память даёт много.
    Там производительность никогда лишней не бывает, но надо смотреть на цену.


  1. mjr27
    10.01.2020 11:08

    На 85% быстрее — это почти в 6 раз или почти в 2 раза?


    1. Mad__Max
      10.01.2020 11:18

      На 85% быстрее это почти в 2 раза, т.к. в качестве базы меньшее значение.
      Теоретическая пропускная способность увеличивается ровно в 2 раза, но как обычно попутно вырастут задержки и реальная скорость увеличится несколько меньше чем в 2 раза.