Привет, Хабр! На связи Виталий, дежурный системный инженер дата-центра в Selectel.

Продолжаем тему, поднятую в наших предыдущих публикациях, где мы говорили об уплотнении серверов линейки ChipCore и усмирении Ryzen™ в мини‑корпусе. Сегодня углубимся в специфику размещения по‑настоящему мощного оборудования. Напомню, нашей главной целью было эффективно использовать стандартные 19‑дюймовые серверные стойки для размещения систем, собранных из высокопроизводительных десктопных компонентов. Очевидно, что для решения этой задачи, разработки собственного корпуса не избежать.

В отличие от прошлых проектов, появилась новая особенность — железо экстремальной производительности с потребляемой мощностью, значительно превышающей стандартные показатели TDP в 180 Вт. Конфигурации на базе процессоров Intel® Core™ i9-13900K или AMD Ryzen™ 9 7950X с 128 ГБ памяти DDR5 и быстрыми NVMe-накопителями по 2 ТБ — настоящие «печки». Было изначально понятно, что без жидкостной системы охлаждения (СЖО) в этот раз не обойтись.

Используйте навигацию, если не хотите читать текст целиком:

При создании серверов подобного уровня производительности мы сперва взяли стандартный корпус форм-фактора Tower АТХ. Он был оснащен СЖО — чаще всего мы брали модели MSI P240 и С240, которые хорошо справлялась с отводом тепла.

Возникла существенная проблема — нерациональное использование пространства внутри стандартных серверных шкафов. В 19-дюймовую стойку удалось установить максимум восемь–девять таких устройств. Этот факт стал значимым ограничением, ведь уровень заполнения стойки не превышал отметку в 18−20%. Такой подход вынудил нас искать пути улучшения компоновки.

Стандартная серверная стойка, в которой размещены несколько больших корпусов Tower ATX.
Общий вид стойки Tower ATX.

Рассмотрим возможные способы увеличения плотности установки серверов аналогичного уровня производительности и энергозатрат. Важно: необходимо сохранить при этом высокую эффективность теплоотвода и надежность функционирования.

Собственный сервер Selectel

В основе — самые современные процессоры Intel® Xeon® 6, до 8 ТБ оперативной памяти DDR5 и специально разработанная материнская плата. Арендуйте сервер у нас или закажите в свой дата-центр.

Узнать подробности →

Slim Tower

Первоначальная модернизация предполагала создание специального шасси и монтажной панели. Корпус изготавливался методом лазерной резки и гибки из оцинкованного стального листа марки SGCC толщиной 1,2 мм с последующей порошковой окраской.

Специально разработанная металлическая полка черного цвета высотой 2U. На полке видны крепежные отверстия и вырезы для установки нескольких вертикальных серверных платформ.
Полка для платформ.

При разработке мы в значительной степени опирались на предыдущий опыт создания корпусов, о котором уже рассказывали в других статьях.

Технический чертеж (CAD-модель) корпуса Slim Tower. На схеме показаны его габариты и расположение внутренних компонентов, таких как материнская плата и блок питания.
Чертеж корпуса SlimTower.

Высота получилась два юнита (2U). Поскольку корпуса расположились вертикально, их ряд занял 7,5U. Хотя общий объем увеличился по сравнению со стандартным АТХ с горизонтальным размером около 5U, такая компоновка вместила четыре мощнейших вычислительных узла на одной полке.

Вертикальный размер U = 1,75″ ≈ 44,45 мм.

Соответственно: 2U ≈ 9 см, 5U ≈ 22 см, 7,5U ≈ 33 см.

Для отвода тепла мы воспользовались системой жидкостного охлаждения с двухсекционным радиатором. При первичной отладке прототипов степень охлаждения поверхностей измеряли простым пирометром. Ни в одной точке он не зафиксировал температуру выше 85 5°C.

Собранный сервер в корпусе Slim Tower со снятой боковой панелью. Внутри видны материнская плата, двухсекционный радиатор системы жидкостного охлаждения с вентиляторами и аккуратно уложенные кабели.
Платформа SlimTower с открытой крышкой.

После финальной доработки наш смежный отдел тестирования оборудования провел полную серию нагрузочных испытаний. Они применяют специализированное программное обеспечение, которое доводит все компоненты до предельных режимов. Детали своей работы ребята не раскрывают, но финальный отчет подтвердил — система охлаждения полностью справляется с задачей, имеет стабильные показатели и не допускает перегрева никаких компонентов.

Блок питания размещался непосредственно внутри платформы. Такое решение дает дополнительное охлаждение и самого блока, и радиаторов СЖО воздухом из холодных коридоров серверной комнаты.

Для понимания среды, в которой работают серверы, отвлечемся на небольшое техническое описание горячих и холодных коридоров.

Стойки стоят плотными рядами. Их передние панели смотрят друг на друга и образуют «холодный коридор». Задние части также обращены друг к другу и формируют «горячий коридор».

Через перфорированные плиты фальшпола охлажденный воздух подается в холодный коридор. Затем он забирается вентиляторами систем охлаждения серверов и проходит через компоненты оборудования. Наконец, отобравший тепло воздух выбрасывается в изолированный горячий коридор. Оттуда поток возвращается к прецизионным кондиционерам для охлаждения и повторения цикла.

Система питания построена на связке двух компонентов:

  • DELTA STS30002SR — автоматический ввод резерва в стойках;

  • Tesla Power TP-STD-C20A04В — блоки распределения питания.

Со стороны блоки выглядят как ряд обычных розеток. При этом они бывают как управляемые, так и неуправляемые. На всех стойках линейки ChipCоге мы используем только первый тип, чтобы иметь возможность перезагрузить сервер при необходимости.

Продуманная конструкция платформ позволила использовать существующие кабели питания стандартной длины. Нам не пришлось усложнять кабель-менеджмент, изготавливать или заказывать что-то особенное — это еще один плюс к эффективности решения.

Вид сзади на серверную стойку, заполненную полками с платформами Slim Tower. Показаны задние панели серверов и плотная разводка кабелей питания и сетевых подключений со стороны горячего коридора.
Общий вид стойки SlimTower со стороны горячего коридора.

Внутри же платформ установлен кабель питания собственной разработки С13−С14 длиной 0,6 м с возможностью крепления его к корпусу и вставкой с плавким предохранителем.

Вид спереди на полностью заполненную серверную стойку с вертикально установленными платформами Slim Tower. Аккуратные и однородные передние панели демонстрируют высокую плотность размещения со стороны холодного коридора.
Общий вид стойки SlimTower со стороны холодного коридора.

Для удаленного контроля по‑прежнему используются внешние IP-KVM, о которых мы недавно подробно рассказали в статье. 

Несмотря на успешность решения, необходимость в дальнейшем повышении компактности не отпала. Требовалось уменьшить размеры конструкции, сохранив возможность установки сетевых карт и компонентов.

UltraSlim

Вторая модификация продемонстрировала значительное улучшение эффективности. За счет уменьшения толщины конструкции на одной монтажной панели теперь удается разместить пять серверных платформенных блоков вместо прежних четырех.

Внутреннее устройство корпуса UltraSlim со снятой крышкой. В очень узком вертикальном шасси плотно скомпонованы материнская плата с водоблоком ЦП и трехсекционный радиатор системы жидкостного охлаждения.
Платформа UltraSlimTower с открытой крышкой.

Дополнительным преимуществом стала интеграция поддержки трехсекционного жидкостного охлаждения, что существенно увеличило потенциал теплоотвода. 

Однако возникает закономерный вопрос: как оптимизировать размещение серверов, оснащенных графическими ускорителями? Решение найдено.

FatSlim

Разработанный нами новый корпус стал значительным прорывом — появилась возможность интегрировать видеокарты шириной до 142 мм и длиной до 337 мм. Внутри предусмотрено пространство для установки как двух-, так и трехсекционных систем жидкостного охлаждения. Остались посадочные места и для сетевых карт.

Открытый корпус FatSlim, который шире модели UltraSlim. Внутри установлена большая высокопроизводительная видеокарта рядом с материнской платой и трехсекционной системой жидкостного охлаждения.
Платформа FatSlim с открытой крышкой.

Крепление для видеокарт и карт расширения было скопировано с обычного ATX корпуса так, чтобы можно было устанавливать видеокарту без дополнительных кронштейнов.

Вид спереди на полностью собранную серверную стойку, в которой скомбинированы платформы UltraSlim и FatSlim. Изображение демонстрирует финальную конфигурацию с высокой плотностью размещения серверов.
Общий вид комбинированной стойки UltraSlimTower+FatSlim со стороны холодного коридора.

Поскольку современные видеокарты отличаются высоким энергопотреблением и тепловыделением, мы применили комбинированный подход к монтажу: шесть мощных платформ типа FatSlim и пятнадцать облегченных моделей UltraSlim. Такое решение позволило равномерно распределить тепловую и электрическую нагрузки по всей стойке.

Вид сзади на комбинированную стойку с платформами UltraSlim и FatSlim. Показана плотная разводка кабелей питания и сетевых подключений, необходимая для поддержки 21 сервера в одной стойке
Общий вид комбинированной стойки UltraSlimTower+FatSlim со стороны горячего коридора.

Итоги

Итак, завершилась разработка нашего нестандартного корпуса для высокопроизводительных серверов. Мы смогли кардинально переосмыслить использование стоечного пространства. Итоговая конфигурация из шести платформ FatSlim и пятнадцати UltraSlim позволила разместить 21 сервер в одной стойке. При этом плотность размещения оборудования увеличилась на 163%. Получился идеальный баланс между производительностью, компактностью и эффективностью охлаждения. Оборудование уже пользуется спросом у клиентов.

На данный момент не видится дальнейших идей по уплотнению — текущее решение полностью нас удовлетворяет. Нет никаких причин что-то исправлять или улучшать в обозримом будущем.

Впрочем… нет предела совершенству. Возможно, через несколько месяцев вы увидите новую статью о том, как мы еще улучшили компоновку высокопроизводительных десктопных компонентов для специальной линейки ChipCore.

Комментарии (7)


  1. greenlittlefrog
    01.09.2025 12:21

    Не очень понятно, вентилятор втягивает воздух из холодного коридора через горячий радиатор СЖО, затем выбрасывает это на GPU?
    Ещё интересна средняя температура в ЦОДе.

    Со своей стороны я собирал в 3U Exegate Pro (рекомендую) 9900X на стандартных компонентах - всё ок, можно было это запихнуть даже в 2U с помощью кулеров Dynatrone.


    1. i273
      01.09.2025 12:21

      ну по расположению кулеров на фото похоже так и есть, холодный воздух забирается из коридора, далее СЖО


  1. frozzzen
    01.09.2025 12:21

    Уплотнение для чего? Чтобы что? С какой целью?


    1. max9
      01.09.2025 12:21

      деньги же. за условных 10 серверов вместо 9 в стойке можно больше денег взять


    1. bvo09 Автор
      01.09.2025 12:21

      Место в серверных стойках ограничено


  1. Poterashka
    01.09.2025 12:21

    Ребят. Как художник художникам. То, что вы разместили масс маркет в самодельные корпуса в стойку - они от этого серверами не станут. У серверов основное отличие - взаимозаменяемость компонентов, особенно горячая, и гарантия три года. А, ну и правильный вендор серверов привезет вам переставший работать компонент на замену в течении 4 часов. То, что описано в статье, никак этим правилам для серверов, не соответствует.


    1. bvo09 Автор
      01.09.2025 12:21

      Все комплектующие есть в наличии у нас на складе. А то что дестоп комплектующие то это вариант дешевых серверов(chipcore) для того чтобы закрыть потребности любого клиента.