Консорциум PCI SIG представит финальную спецификацию нового стандарта уже через пару месяцев. Однако устройства на его основе появятся еще не скоро. Под катом — обсуждаем сложившуюся ситуацию и возможности PCIe 6.0.

Unsplash / Florian Krumm
Unsplash / Florian Krumm

Что предложит новый стандарт

Разработчики обеспечили обратную совместимость со старыми интерфейсами (вплоть до PCI Express 1.0) и продолжили тенденцию на удвоение пропускной способности от версии к версии. По сравнению с PCIe 5.0, она вырастет с 32 до 64 ГТ/с. В конфигурации x16 скорость передачи данных составит 128 Гбит/с.

Алгоритм проверки целостности CRC дополнили механизмом прямой коррекции ошибок (FEC). В нем обнаружение и исправление ошибок происходит за счет внедрения избыточной служебной информации. Инженеры PCI SIG также изменили способ кодирования данных. Вместо механизма NRZ (non-return-to-zero) они реализовали схему передачи с амплитудно-импульсной модуляцией (PAM4). Это — формат многоуровневой модуляции, когда каждый уровень представляет два бита информации. Аналогичное решение применяют в Fast Ethernet и GDDR6X.

Почему мы увидим его не сразу

Грядущий релиз нового интерфейса не означает скорое появление устройств, его поддерживающих. Разработчики утверждают, что соответствующие девайсы выйдут на рынок уже через 12–18 месяцев. В то же время пользователи Reddit иронично отмечают, что познакомятся с ними лет через восемь. И если взглянуть на ситуацию вокруг PCI Express, это утверждение может показаться справедливым.

На сегодняшний день самой распространенной версией в потребительском сегменте по-прежнему остается v3.0, представленная более десяти лет назад. PCIe 4.0 только начинает распространяться, а коммерческие устройства с PCIe 5.0 стали появляться в этом году и предназначены для дата-центров.

Справедливости ради стоит заметить, что некоторые разработчики САПР уже представили программные решения для проектирования соответствующих SoC. Однако крупнейшие производители процессоров и графических карт не могут предсказать сроки поставки устройств с PCI Express 6.0. Скорее всего, свой отпечаток наложит продолжающийся кризис микросхем в индустрии. Поэтому до массового распространения новой архитектуры пройдет продолжительное время.

На что еще обратить внимание

Разработчики PCIe 6.0 повысили энергоэффективность платформы. Однако ряд экспертов говорит, что она будет потреблять больше энергии, по сравнению со старыми версиями. Также новый стандарт, скорее всего, не окажет серьезного влияния на производительность GPU, так как видеокарты не могут в полной мере задействовать доступную пропускную способность. Но с этой задачей должны будут справиться системы хранения данных. Новинка будет востребована в сегменте дата-центров, систем искусственного интеллекта и машинного обучения. Всего один интерфейс PCIe 6.0 x16 может работать с 800-гигабитным Ethernet. Осталось дождаться устройств на базе последней версии PCI Express.


Больше о стандартах и протоколах у нас в блоге на Хабре:


Что можно почитать о работе провайдеров:


Комментарии (15)


  1. ddemidov
    12.10.2021 22:45

    Интересно, означает ли это что быстрее появиться стандарт тардерболт 5, который будет шустрее чем текущий тб 4.


    1. acc0unt
      13.10.2021 00:45
      +1

      В Thunderbolt 5, судя по утечкам, применяется очень схожий набор технологий.


  1. CTDEVIce
    13.10.2021 03:38
    +1

    Какая-то не здоровая тенденция, когда новые стандарты и поколения выходят все чаще и чаще. Купил в магазине новое супер-пупер устройство, пока от кассы шел на выход уже сменилось два поколения этих устройств. К чему эта гонка - не понятно.


    1. bm13kk
      13.10.2021 08:14
      +7

      Кажется Вы пропустили 2000е


    1. creker
      13.10.2021 11:30

      Облака, HPC. Все эти стандарты идут именно оттуда. Для некоторых новых стандартов, которые базируются на pcie, 5.0 просто минимум, с которого можно начинать что-то делать. Потребтельский рынок здесь по остаточному принципу. Ему и 4.0 то по сути не нужен был, а 5.0 не факт, что смогут осилить толком производители плат и процессоров. Как раз это все очень здоровая ситуация, когда идет конвеерная разработка. Один стандарт используется, другой внедряется, третий тестируется, четвертый планируется.


      1. bm13kk
        13.10.2021 12:10

        Не согласен с частью

        > Ему и 4.0 то по сути не нужен был

        Он необходим не для текущий задач, а для нового подхода "виртуальной памяти". Когда РАМ всех доступна всем. Пионер (на потребительском рынке) примерения - пятая плойка, которая дает видеокарте читать прямо с ссд, минуя проц. Второе применение, которое уже существует на рынке - ссд без рамы (используется рам самой системы). Получаются ссд значительно дешевле при незаметной (опять же для консьюмера) потере производительности.

        По этой же причине, я хочу видеть PCIe5 как можно скорее в бытовых системах. Потому что там этот подход стандартизирован как CXL (https://en.wikipedia.org/wiki/Compute_Express_Link). Что кстати, убивает CAPI и NVLink


        1. creker
          13.10.2021 13:48
          +3

          Это не новый подход и совсем не то, что решает CXL. Доступ ссд к памяти это обычное DMA, для чего pcie годился с самого начала. DRAMless ссд здесь тем более не при чем. Это просто способ сэкономить в том сегменете рынка, где не нужны высокие скорости, за счет упрощения контроллера и выноса части его функций в ОС хоста. Для этого не нужны ни высокие скорости как у 4.0, ни новые стандарты. Все топовые решения в любом случае содержат набортную память и избавляться от нее никто не собирается. В том же серверном сегменте вообще по другому пути идут, чтобы решить проблему переусложненного контроллера ссд.

          Плойки, боксы, RTX IO, DirectStorage - это все прогресс в софте в первую очередь. Железо было на это способно давным давно. Только сейчас появились API, чтобы разработчики могли этим пользоваться.

          Я очень сомневаюсь, что CXL будет в потребильских системах. Он там никому не нужен. В первую очередь его юзкейс это обмен данными в гетерогенных вычислениях с соблюдение когерентности кэшей (и это самое главное) и расширение оперативной памяти за пределы того, что могут дать DIMM слоты. В APU это и так происходит через проприетарные протоколы, а CXL в первую очередь делается для ускорителей на FPGA и ASIC, чтобы оптимизировать теже ML юзкейсы, и использования pcie устройств как модулей памяти. Ни то, ни другое в бытовых системах не нужно.

          NVLink никуда пока не денется. CXL в первую очередь предназначен для обмена хост-ускоритель или хост-модуль памяти. NVLink же это P2P обмен для кластеризации GPU. Сможет ли CXL закрыть этот юзкейс неизвестно, я в стандарте прямо указания подобного не помню, может пропустил. По крайней мере скоростей таких он не достигает, а тот же интел все равно на базе CXL сделал свой проприетарный интерконнект для конкуренции с NVLink и их А100.


          1. bm13kk
            13.10.2021 14:16

            спасибо, обьяснили.

            А можно рассказать про

            > В том же серверном сегменте вообще по другому пути идут, чтобы решить проблему переусложненного контроллера ссд.

            ?


            1. creker
              13.10.2021 14:34

              Я два пути пока приметил в противоположные стороны.

              С одной стороны, ZNS диски. Тут пошли по пути упрощения, но вместо переноса это на ОС все сложные механизмы просто удалены. Маппинг физических в логические страницы либо сильно проще, либо вообще отсутствует. Сборки мусора нет. Вместо этого хосту дается просто "голый" флеш, разбитый на зоны, в которые можно писать только последовательно, двигая курсор вперед. Чтобы курсор передвинуть назад надо очищать всю зону полностью. Радикально, зато никакого write-amplification и всех сложных механизмов, которые с ним борются. По имеющимся графикам показывали, что прирост огромный можно получить. Тут конечно проблема, что обычные ФС в таких условиях не работают. Это в первую очередь для софта - базы данных, объектные хранилища, которые собственно так и работают внутри и им ФС полноценная только помеха. Ceph, RocksDB, LevelDB на это идеально лягут. Или WAL какой-нить реляционной базы.

              С другой, computational storage. Тут решили еще сильнее усложнить контроллер, засунув в него вычислительную часть. Т.е. вместо размазывания сложности по цепочке хост-ссд, всю сложность сдвинули еще дальше в ссд. Сжатие, шифрование, дедупликация - эти вещи можно делать эффективнее, если у тебя прямой низкоуровневый доступ к хранилищу. Конечно юзкейсов там вагон и ограничены они только фантазией. Кто-то хочет сразу ML запускать или поднимать поисковые системы прямо внутри диска.

              Все это бурно развивается. Облачные провайдеры очень активно толкают стандарты хранилищ. Сейчас же еще меняется формфактор и коннектор. В том числе, чтобы быть сразу готовыми к CXL и будущим скоростям PCIe.


          1. edo1h
            15.10.2021 06:16

            DRAMless ссд здесь тем более не при чем. Это просто способ сэкономить в том сегменете рынка, где не нужны высокие скорости, за счет упрощения контроллера и выноса части его функций в ОС хоста

            а причём тут ОС? ЕМНИП она участвует только в выделении памяти при загрузке, а дальнейшие обращения контроллера SSD к выделенной в RAM буферу идут прозрачно для ОС.


            1. creker
              15.10.2021 11:23

              Ну да, тут я преувеличил участие ОС в этом всем.


    1. kiriydmitriy
      16.10.2021 15:52

      Эта история вообще не про пользователей.

      Это про сервера. Грядет через пару лет сетевой стандарт 800Гб/сек, ему нужен pcie x16 6.0

      Устройства хранения на nmve развиваются бешенными темпами, сейчас в коробку влезает 108 устройств. Хотя бы 2ГБ на ссд уже 216 ГБсек, что 1696 Гбит/сек, уже нужно 2 порта по 800 ГБит

      Всякие ГПУ карты хотят тем больше тем лучше


      1. AllexIn
        17.10.2021 08:52

        Зачем ГПУ сверхскорости шины?


  1. VioletGiraffe
    13.10.2021 15:02
    +1

    Мы пишем десктопный софт с ускорением расчётов на видеокартах, и пропускная способность шины (и RAM) — узкое место. PCI-E 4.0 даёт реальный прирост производительности приложения.


    1. Worky
      13.10.2021 18:57
      +2

      Майнеры детектед! Ату их!