Раз уж мы затронули немножко в комментариях к предыдущей статье тему расширения PCI Express и вывода шины за пределы шасси, следует наверное рассказать об этом чуть подробнее.

Небольшой дисклеймер – информацию обо всем, о чем говорится ниже, можно найти используя Google. Мы, конечно, про некоторые вещи знаем гораздо больше подробностей, чем можем рассказывать исходя из условий NDA.

История


Начнем издалека – с истории PCI Express вообще и нюансов с этим связанных. Спецификация первой ревизии появилась в далеком 2003 году, при этом поддерживалась скорость в 2.5 GTs на лэйн и агрегация до 16 лэйнов на порт (кстати, это наверное единственное, что так и не изменилось – несмотря на робкие упоминания и даже официальную поддержку в версии 2.0 ширины в x32, насколько мне известно никто порты такой ширины реально так и не поддерживает до сих пор). Обратите внимание, что скорость указана в GTs (транзакций в секунду) – это не биты данных, реальная битовая скорость ниже за счет кодирования 8b/10b (для версий до 2.1 включительно).

В течение следующих лет началось эволюционное развитие стандарта:

• 2005 год – релиз спецификации 1.1, содержащей незначительные улучшения без увеличения скорости

• 2007 год – стандарт версии 2.0, скорость на лэйн выросла в два раза (до 5GTs или 4Gbps)

• 2009 год – релиз версии 2.1, содержащей множество улучшений, по сути являющихся подготовкой к переходу к третьей версии

• 2010 – существенный скачок, переход к версии 3.0, который помимо увеличения канальной скорости до 8 GTs принес переход к новой кодировке (128b/130b), что позволило значительно сократить накладные расходы на передачу собственно данных. То есть если для версии 2.0 при скорости 5 GTs реальная битовая скорость составляла всего 4 Gbps, то для версии 3.0 при скорости 8 GTs битовая скорость составляет ~7.87 Gbps – разница ощутимая.

• 2014 – релиз спецификации 3.1. В него включены различные улучшения обсуждавшиеся в рамках рабочих групп.

• 2017 – ожидается релиз финального варианта спецификации 4.0.

Последствия


Далее будет большое лирическое отступление. Как видно из графика выхода спецификаций, рост скорости шины фактически остановился аж на семь лет, в то время как производительность компонентов вычислительных систем и сетей интерконнекта и не думала стоять на месте. Здесь надо понимать, что PCI Express, хоть и является независимым стандартом, развиваемым рабочей группой с огромным количеством участников (PCI Special Interest Group – PCI-SIG, мы тоже являемся членами этой группы), направление его развития тем не менее во многом определяется мнением и позицией Intel, просто потому, что подавляющее большинство PCI Express устройств стоит именно в обычных домашних компьютерах, ноутбуках и low-end серверах – царстве процессоров с архитектурой x86. А Intel – корпорация большая, и у нее могут быть свои планы, в том числе и слегка идущие в разрез с желаниями других участников рынка. И многие из этих участников были, мягко говоря, недовольны задержкой увеличения скорости (особенно те, кто вовлечен в создание систем для High Performance Computing – HPC, или, попросту — суперкомпьютеров). Mellanox например давно уже уперся в развитии InfiniBand в бутылочное горлышко PCI Express, NVIDIA тоже явно страдала от несоответствия скорости PCI Express потребностям в передаче данных между GPU. Причем чисто технически скорость увеличить можно было бы уже давно, но многое упирается в необходимость сохранения обратной совместимости. К чему это все в итоге привело:

• NVIDIA создала свой собственный интерконнект (NVLINK, первая версия имеет скорость 20 GTs на лэйн, вторая будет иметь уже 25 GTs) и объявляет о готовности лицензировать его всем желающим (к сожалению только хостовую часть, лицензирование end-point’а пока не предполагается)

• IBM добавляет в процессоры POWER8 поддержку NVLINK 1.0 (уже доступна в процессорах POWER8+)

• В POWER9 (которые появятся на рынке в 2017 году) IBM будет поддерживать NVLINK 2.0, а также на тех же самых физических портах можно будет использовать протокол OpenCAPI – когерентный интерфейс для подключения ускорителей.

• В POWER9 IBM реализует PCI Express на скорости 16 GTs, что соответствует драфту спецификации 4.0 – то есть, похоже, Intel окажется не первым, кто поддержит новый стандарт.


Roadmap по процессорам POWER

Ремарки


Кстати, относительно указания скорости есть любопытный момент. Общепринятым вариантом указания скорости работы PCI Express устройства являются обозначения типа Gen1, Gen2, Gen3. По факту же к этому надо относиться именно как к указанию поддерживаемой скорости, а не соответствия стандарту соответствующей версии. То есть, например, устройству, полностью соответствующему стандарту 3.1 никто не запрещает не уметь работать на скорости выше 5 GTs.

Собственно, чем хорош PCI Express с точки зрения разработчика – тем, что это наиболее прямой и унифицированный (поддерживаемый самыми разными платформами) способ подключить что бы то ни было к центральному процессору с минимальными накладными расходами. Конечно, у процессоров Intel есть еще QPI – но это шина, доступ к которой дают очень (ОЧЕНЬ!) ограниченному кругу особо приближенных компаний. У IBM в POWER8 это X-Bus, A-Bus и, в будущем (для POWER9) – OpenCAPI, но о стоимости лицензирования первых двух вообще лучше не думать а третьей пока еще вообще нет (хотя она как раз должна быть открытой). Ну и конечно прямое подключение через PCI Express актуально только тогда, когда хочется много, быстро и с минимальной задержкой. Для всех остальных случаев есть USB, SAS/SATA, Eth и иже с ними.

Ближе к кабелям


Несмотря на то, что PCI Express изначально задумывался именно для подключения компонентов внутри компьютера, желание подключить что-нибудь кабелем возникло достаточно быстро. В быту этого как правило не требуется (ну разве что для ноутбуков иногда хотелось бы внешнюю видеокарту подключить или что-нибудь типа того), но для серверов, особенно с появлением PCI Express коммутаторов, это стало очень актуальным – необходимое количество слотов иногда не так уж просто разместить внутри одного шасси. Да и с развитием GPU и сетей вычислительного интерконнекта, особенно с появлением технологии GPU Direct, желание иметь много устройств подключенных по PCI Express к одному хосту только возрастало.

Первые варианты кабельного подключения PCI Express были стандартизированы еще в 2007 году (спецификация 1.0), вторая ревизия вышла в 2012 году, сохранив неизменным тип разъемов и кабеля. Нельзя сказать, что такое подключение получило очень широкое распространение (все же ниша достаточно узкая), но тем не менее несколько крупных вендоров выпускали как разъемы, так и кабели, в том числе активную оптику. Одной из наиболее известных компаний, предлагающих различные варианты шасси расширения с подключением шины PCI Express кабелем, является One Stop Systems.


Кабель для внешних подключений PCI Express

Однако кабель (и разъем), выбранные изначально, сегодня уже не очень удобны. Первая (и довольно существенная) неприятность заключается в том, что невозможно разместить количество разъемов, необходимое для вывода порта шириной x16, на одной низкопрофильной карте (точнее, можно использовать специальный коннектор для x16, но при этом теряется универсальность в плане использований портов меньшей ширины, да и сам этот тип коннектора как-то не прижился). Второе неудобство происходит из того, что такой тип кабелей особо больше нигде не используется.

Между тем в индустрии существует стандарт с долгой историей использования кабелей, а именно – SAS. И текущая версия SAS 3.0 работает на скорости 12GTs, что в полтора раза превосходит скорость PCI Express Gen3, то есть SAS-кабели неплохо подходят и для подключения по ним PCI Express. Кроме того, Mini-SAS HD коннекторы еще очень удобны тем, что по одному кабелю идет сразу 4 лэйна, и существуют сборки на 2 и 4 коннектора, что позволяет использовать порты шириной x8 и x16. Размеры коннекторов при этом достаточно компактны, чтобы сборка на 4 коннектора уместилась на низкопрофильной карте. Дополнительным плюсом этих кабелей является то, что и в самом коннекторе, и в кабельной сборке сигналы Tx и Rx разнесены – это позволяет снизить их взаимное влияние. Соответственно сейчас все больше решений, где надо вывести PCI Express кабелем за пределы шасси, используют именно Mini-SAS HD.


Кабель и разъемы Mini-SAS HD

Как следствие описанного выше, а также того, что в скором будущем выйдет SAS 4.0 который будет иметь скорость 24GTs и сохранит при этом кабели того же форм-фактора (Mini-SAS HD), участники PCI-SIG решили стандартизировать использование именно этого типа кабелей для внешнего подключения PCI Express (включая ревизию 4.0 в будущем).

Что надо учитывать при передаче PCI Express по кабелю


Теперь немного о нюансах использования кабелей (любых) и проблемах, которые приходится решать. Интересующие нас кабели бывают двух типов – пассивные медные и активные оптические. С медными проблем меньше, но для них все равно нужно учитывать следующие моменты:

• при использовании пассивных кабелей из соображений обеспечения целостности сигнала необходимо на плате адаптера ставить или редрайверы, или коммутатор PCI Express; коммутатор необходим в случае, если хочется иметь возможность бифуркации порта x16, приходящего с хоста, на большее число портов (например 2x8 или 4x4), а также если удаленная сторона не поддерживает работу с раздельным 100MHz Reference Clock или необходимо обеспечить наличие непрозрачного моста (NT Bridge) между двумя хостами;

• в случае если необходим агрегированный линк (x8, x16) стоит обратить особое внимание на допустимый разброс длины кабелей конкретного производителя (он бывает особенно велик для длинных кабелей, и тогда можно получить значительный перекос длины между лэйнами одного порта, который превысит заложенные в стандарте допуски);

• нужно учитывать, что в кабеле Mini-SAS HD проходят только четыре дифф. пары и линии земли, то есть весь набор sideband сигналов, необходимых для полноценной работы PCI Express, там не протянуть; это может быть не критично, если кабель используется для связи двух коммутаторов, а вот в случае когда нужно просто удаленно подключить endpoint возможно придется использовать дополнительные кабели для проброса сигналов сброса и управления Hot Plug’ом;

• наверное излишне упоминать, что обе стороны должны быть заземлены, иначе возможно возникновение паразитного тока через линии земли кабеля, что совсем нежелательно.

Применение активных оптических кабелей позволяет не задумываться о части вопросов, которые приходится решать при использовании пассивной меди (редрайверы можно не ставить, поскольку конечной точкой прохождения электрического сигнала является сам трансивер, заземление тоже перестает волновать, так как две стороны кабеля являются гальванически изолированными), но при этом оптика не только не решает остальные проблемы присущие пассивным кабелям, но и привносит новые, присущие только ей:

• помимо ограничения на одинаковую длину кабелей появляется еще и ограничение на их идентичность – крайне нежелательно в пределах одного порта использовать кабели разных производителей, поскольку они могут иметь разную задержку на трансиверах;

• оптические трансиверы не поддерживают передачу состояния «Electrical Idle»;

• сюрприз – активные трансиверы сильно греются, и их нужно охлаждать;
также могут быть определенные нюансы, связанные с импедансом трансиверов, уровнями их сигналов и терминированием.

Альтернативы Mini-SAS HD


Конечно же Mini-SAS HD — не единственный тип кабелей и разъемов, которые можно использовать для подключения PCI Express. Можно вспомнить к примеру про классические QSFP или CXP, которые вполне подходят для этих целей, или подумать о более экзотических вариантах вроде установки оптического трансивера прямо на плату и выходе с карты сразу оптикой (у того же Avago Broadcom есть много подходящих вариантов, ну или вот например Samtec FireFly) — но все эти варианты оказываются существенно дороже или не очень удобны исходя из габаритов разъемов.

Кроме упомянутой выше инициативы по стандартизации Mini-SAS HD в качестве кабеля для внешних подключений PCI-SIG также занимается разработкой нового стандарта кабелей, который хоть и носит название OCuLink (Optical & Cuprum Link), скорее все же будет подразумевать только пассивные медные кабели, как для внутренних (в пределах шасси), так и для внешних подключений. Разъемы и кабели этого стандарта достаточно компактны, на рынке уже существуют серийные продукты, соответствующие этому, еще не выпущенному стандарту (у Molex это называется NanoPitch, Amphenol также предлагает кабели такого форм-фактора, в том числе и активные). К сожалению, эти разъемы также не подразумевают размещение четырех коннекторов на низкопрофильной карте. В сочетании с тем, что ни один вендор из тех, с кем мы общаемся, пока не планирует делать активную оптику с такими коннекторами, это вряд ли будет способствовать использованию этого типа кабелей для внешних подключений. А вот как вариант для внутренних кабелей это достаточно интересно, более того, мы уже видели проекты с их использованием и сами собираемся применять этот тип кабелей в нашем сервере для подключения дискового контроллера к материнской плате.


Внутренний кабель стандарта OCuLink

Что делаем мы


Теперь немножко про наши продукты. У нас есть проект, про него мы наверное тоже чуть позже будем подробнее рассказывать, который предполагает создание шасси с развитой коммутационной топологией PCI Express и подключение его к нескольким хостам. Понятно, что в этом случае не обойтись без вывода PCI Express через кабели, и для этого мы сделали плату адаптера на базе PCI Express коммутатора PLX (который был куплен Avago, который еще и переименовался в Broadcom после того, как и его тоже купил – в общем эти поглощения уже надоели, поэтому будем называть его по-прежнему PLX). Для нашего решения мы использовали кабели Mini-SAS HD – все же это нам кажется оптимальным вариантом, и судя по направлению работы PCI-SIG – мы не одиноки в этом убеждении.


Адаптер для вывода PCI Express через кабель собственной разработки

После получения и тестирования первых образцов мы с некоторым удивлением обнаружили, что при использовании качественных пассивных кабелей можно обеспечить работоспособность шины на скорости 8GTs (Gen3) через кабель длиной до 10 метров (длиннее пассивных кабелей мы просто не видели). А если требуется больше – то мы можем работать и с активными оптическими кабелями (проверили – работает).

На самом деле ставить достаточно дорогой чип коммутатора PCI Express в нашем проекте есть смысл только на одной стороне – стороне хоста, чтобы обеспечить возможность бифуркации порта x16 на четыре порта по x4. На другом конце кабеля достаточно поставить адаптер с редрайверами, поскольку в нашем варианте на этой стороне все будет и так подключаться к PCI Express коммутатору, который можно запрограммировать на требуемое разбиение порта.

И немножко о совместимости


При использовании Mini-SAS HD для передачи PCI Express стоит обратить внимание еще на один нюанс. Нумерация пар в коннекторе, предполагаемая SAS, не очень удобна для брейкаута в случае PCI Express. До тех пор, пока вы не предполагаете работать со сторонним оборудованием это не критично – можете подключать как вздумается вообще. Но если есть желание обеспечить совместимость с другими продуктами в будущем, то лучше придерживаться рекомендации PCI-SIG из изменить порядок подключения лэйнов.


Рекомендуемый для PCI Express порядок подключения пар на коннекторе
Поделиться с друзьями
-->

Комментарии (33)


  1. lelik363
    13.09.2016 23:57

    PCIe на оптике будите делать?


    1. Paging
      14.09.2016 09:12

      Мы можем использовать как оптику, так и медь. Основной вариант все же пассивные медные кабели, оптику будем использовать только если потребуется уйти дальше чем на 10 метров.


  1. DustCn
    14.09.2016 00:17
    +2

    >бифуркации — разделения
    >брейкаута — хмм…
    >лэйнов — линий?

    Колитесь что там уже цепляете, и зачем PCIe так далеко тащить.


    1. Paging
      14.09.2016 09:13

      Да, прошу прощения за лексику — писал в привычных выражениях. Но думаю на понимание это не повлияло.

      А про то, что цепляем — отдельно рассказывать будем, там сложно все :)


  1. rPman
    14.09.2016 00:48

    PCIe поддерживает идеологию подключения к другому PCIe, нулькабелем? тогда получается вполне дешевая 24-гигабитная линия (если я правильно понимаю, 24гигабита это на все PICe разъемы на материнской плате до одного процессора) на 10метров, это уже даже не в пределах стойки а целый ряд в датацентре.


    1. Cobolorum
      14.09.2016 08:27

      Канального уровня мало. Необходимо чтобы весь стек передачи данных для примера IP поддерживал такие соединения. IP так сильно прирос к ethrnet что есть подозрения легче написать какой то эмулятор ethrnet — >pci-e чем городить нативный стек.
      А по опыту IP over SCSI было фантастично во времена тупых ethrnet адаптеров и скоростей в 100 Мб/с.


      1. Paging
        14.09.2016 09:16

        Да можно конечно VNIC over PCIe сделать, только практического толку мало от этого.


    1. Paging
      14.09.2016 09:15
      +1

      PCIe — это всегда точка-точка, причем одна из них хост, а другая — оконечное устройство. Два хоста «в лоб» соединять нельзя, но можно для этого использовать отображение памяти с применением механизма трансляции адресов непрозрачного моста в коммутаторе (NTB). И в принципе можно сделать драйвер виртуального NIC'а который будет использовать PCIe в качестве транспорта. В случае x16 скорость будет 128Gb (реальная по данным конечно чуть ниже выйдет).

      Только в датацентрах соединения точка-точка мало кому интересны, а вот с коммутаторами на PCIe все совсем не так радужно, чтобы это имело смысл практического применения в качестве замены стандартным сетевым интерфейсам.


      1. rPman
        15.09.2016 16:21

        Вот какраз не для датацентра я был бы нереально рад дешевому соединению двух компьютеров в кластер, методом общего адресного пространства, никакой лишней прослойки из софта! 128гигабит это просто сказка.
        Но меня интересовало именно 4 линии, один компьютер соединен с тремя соседними — получается сеть.


        1. Paging
          15.09.2016 17:14

          Да, это конечно можно сделать. Только по x4 скорость-то будет всего около 30 гигабит на линк… Это конечно возможный вариант, но уж больно нишевый, мало кому это надо. Тем более если это надо в количестве 1 штука и для себя — проще на e-bay купить IB адаптеры какого-нибудь сильно предыдущего поколения (EDR — 40Gb) и на них все сделать.


  1. d_olex
    14.09.2016 01:40

    В сommodity hardware для вывода PCIe наружу активно используется интерфейс Thunderbolt который мультиплексирует PCIe и DisplayPort, но PCI Express 4.0 он пока что не поддерживает :(
    Алсо, насчет того что Intel выпускает большую часть всех устройств/процессоров использующих PCIe можно поспорить: эта шина довольно давно и активно используется в iPhone и во многих других телефонах/планшетах на ARM.


    1. Paging
      14.09.2016 09:18

      Я бы даже сказал скорее не в commodity, а в consumer. Thunderbolt для наших целей не интересен совсем, там все грустно если в целом посмотреть, у него своя ниша.

      Да, пожалуй во всякой встраиваемой требухе PCIe может и побольше уже будет, только у меня есть серьезные сомнения в том, что тот же Apple, например, принимает сколько-нибудь серьезное участие в развитии стандарта.


      1. forgot10
        14.09.2016 12:26

        А если есть информация, можно поинтересоваться разницой для end user между TB3 и PCIe3.0?
        Кейс такой: проброс 4х линий на расстояние около метра с минимальными задержками и питанием около 60ватт. Не будет ли на TB каких-либо дополнительных задержек сильно влияющих на производительность?


        1. Paging
          14.09.2016 12:51

          Я если честно TB детально не смотрел в плане задержки, поэтому не подскажу. На PCIe свиче задержка порядка 150нс добавляется, и для связи двух хостов достаточно одного свича с NTB. Для TB задержка вряд ли будет ниже, поскольку производится два раза конверсия — PCIe->TB и потом TB->PCIe.

          Все же TB и PCIe over cable — решения для разных задач.


  1. mondo
    14.09.2016 09:18

    1) Какая ориентировочная стоимость вашего адаптера?
    2) Допустим я хочу получить максимальное количество портов x1 из порта x16. Существуют ли такие решения? Может подскажите где подобное можно найти?


    1. Paging
      14.09.2016 09:26
      +1

      1. Мы не планируем продавать адаптеры как самостоятельные изделия (пока), и даже стоимость его при нормальной серии толком не просчитывалась. Самое дорогое там — PCIe switch. Но порядок цены — несколько сотен долларов, до 500 где-то.

      2. Если нужно именно х16 в качестве аплинка — то я такого не видел. А реально ли нужно х16 наверх? Что, все 16 штук х1 будут работать на полной скорости и одновременно? Объясню в чем проблема. PCIe свичи сейчас производят PLX и PMCS. И у обоих свичи с большим количеством лэйнов не подразумевают разбиение портов до х1, минимальная гранулярность у PMCS это х2, а у PLX для многих моделей вообще x16. Соответственно если делать именно то, что написали вы, то потребуется свич на 48 лэйнов (x16 наверх и 16 по х2, из которых реально будет задействован х1, вниз). Это все деньги. У нас есть плата (для другой нашей системы), у нее наверх х16, а вниз мы сделали восемь слотов, они могут быть или все х8, или крайние х8 могут объединяться чтобы получить один х16 вместо них.

      Фото платы:


      1. Paging
        14.09.2016 09:55

        Прошу прощения, описался: «у PLX для многих моделей вообще x16» — естественно не x16, а x4.


        1. mondo
          14.09.2016 16:06
          +1

          1. Много x1 нужно для организации головной станции IPTV. В порты x1 устанавливаются платы типа DD Max S8 или DD Octopus Duo CI. Через один x1 порт будет прокачиваться 20-900 Mbit/s. Идея была сделать корпус 3U в котором на передней панели, вместо дисковых корзин, можно было бы вставить 16 карт x1. Какая конфигурация(аплинки, лейны, свичи) будет самой дешевой для организации этой идеи? Существуют ли готовые компоненты в продаже? Я нашел в виде внешнего исполнения Magma ExpressBox 16 Basic, но с ценой $4500 ее использование лишено смысла, проще взять профессиональную головную станцию. Если бы уложится до $1000, было бы супер.
          2. Можно ли две ваши восьмипортовые платы повесить на один порт x16?


          1. Paging
            14.09.2016 20:00

            Я думаю что из готовых решений вряд ли что-то будет дешевым, потому что все обычно ориентируются на порты x8, а это сильно дороже. Исходя из того, что потоки у ваших устройств достаточно маленькие, да и сами они работают только в Gen2, самым дешевым вариантом будет использовать коммутатор PEX8625 от Avago (24 линии с возможностью разбиения аж на 24 порта, PCIe Gen2). Итого 16 портов по x1 уходит к слотам, и x4 или x8 уходит наружу. Но все это актуально конечно только если вам нужна серия, потому что если вопрос одной-двух штук — берите любое готовое решение, разработка все равно дороже будет.


  1. dzikar
    14.09.2016 12:48

    Игроманы будут в экстазе если можно будет ещё парочку видеокарт прикрутить. :) Ну или майнеры. Гы :)


    1. Paging
      14.09.2016 12:52
      +1

      Мне кажется майнеры уже давно на заказные ASIC'и переехали…


      1. zorge_van_daar
        15.09.2016 14:01

        Не все майнят биткойны, при наличии хорошего железа можно майнить валюты защищенные от асиков. Как раз думаю последний pcie x1 вывести под еще одну видюху. Не разбогатеешь, но месяцев за шесть отбивются gtx 1070. В общем, за год отобъешь ферму на ширпотребном железе. Другое дело — она не всем нужна, но при грамотном подходе майнинг на видюхах есть и в 2К16.


        1. Paging
          15.09.2016 17:11

          А каким образом можно защититься от асиков? Я просто не в теме, но искренне любопытно :)


          1. czed
            15.09.2016 19:50

            Lyra2RE


          1. rPman
            15.09.2016 23:37

            Задействуй в алгоритме хешрования побольше оперативной памяти (многократное, случайное чтение и запись) и, пока, будешь защищен.
            Альткоины на базе Cryptonote (например Monero или Aeon coin) на процессоре майнятся с той же скоростью что и на видеокарте (тот же порядок скоростей — сотни хешей в секунду).


  1. Greendq
    14.09.2016 16:02

    А что по поводу питания, на которое может рассчитывать железка — это прописано как-то в стандарте или тут всё на усмотрение производителя? Вопрос породила недавняя история с потреблением RX 480 более 75 ватт через PCIE и софтварный «хотфикс» от АМД.


    1. czed
      14.09.2016 19:28
      +2

      Потребление PCIe устройств стандартизовано: 10/25/75W. Карты с большим потреблением требуют отдельного разъема по стандарту.
      Данная карта находится в классе 25W.


      1. Paging
        14.09.2016 19:29
        +1

        Собственно, добавить нечего, все именно так. Ну разве что могу сказать что в той плате расширения что на фото выше мы 75W карты поддерживаем :)


  1. sumanai
    15.09.2016 22:51

    Жаль, нет никаких простеньких коммутаторов PCI-e на пару портов чисто для бытового применения. Только китайские разветвители 1 к 3, а вот именно скоммутировать 16 к 2х8- такого не нашёл.


    1. Paging
      15.09.2016 22:55

      К сожалению тут все немножко сложнее, чем просто разветвить — чтобы один порт x16 превратить в два по x8 надо ставить коммутатор на 32 лэйна, а это не сильно дешево. Либо, если процессор поддерживает нативно такое разбиение порта — можно просто развести его на два по х8, но при этом надо править BIOS чтобы там была включена правильная конфигурация портов в процессоре — тоже не для слабых духом задачка :)


      1. sumanai
        16.09.2016 00:09

        чтобы один порт x16 превратить в два по x8 надо ставить коммутатор на 32 лэйна, а это не сильно дешево.

        Так оно дорого, потому что не массово. Это же просто чип, при массовом производстве он будет стоить копейки.
        Либо, если процессор поддерживает нативно такое разбиение порта

        Всегда думал, что процессор просто предоставляет линии PCI-E, а уж что на них повесят- не его дело.
        Понятно, ошибался, не специалист. Благодарю за пояснения.

        Но я провтыкал, у меня под второй слот х16 разведено только 4 линии, закатываю губу окончательно.


        1. czed
          16.09.2016 15:54
          +1

          Это же просто чип, при массовом производстве он будет стоить копейки.

          При массовом производстве и массовом спросе.


  1. czed
    16.09.2016 15:53

    -