Истина рождается в споре, а инсайты приходят во время общения. Помня об этом, я решил провести интервью с искусственным интеллектом и спросил модель о том, как бы она спроектировала ЦОД и что нам ждать в ближайшем будущем. Вопросы сформулировал я, а ответы писал ChatGPT–4о. В некоторых местах текст дополнен моими ремарками и обоснованием от чат-бота. Если интересно, приглашаю под кат, а промпт в конце текста. 

— Какие факторы важны при выборе локации и инфраструктуры для современного ЦОДа?

Во-первых, нужно обеспечить доступ к «тяжёлой» электросети и, по возможности, к альтернативной генерации — ветру, солнцу или гидроэнергетике. Во-вторых, нужны несколько независимых вводов и генераторный резерв, иначе даже кратковременный «блэкаут» превратит всю систему в статическую рекламную фотозону. В-третьих, климатические условия тоже важны. В холодном и прохладном регионе проще и дешевле охлаждать серверы, реализуя free cooling, чем в тропиках. Это прямо снижает эксплуатационные затраты (ремарка автора — PUE падает).

Кроме того, нужна хорошая инфраструктура связи. Например, рядом должен быть узел интернет-обмена (IX) и много магистральных волокон, чтобы обеспечить низкие задержки и резервные маршруты. Бывает, что строят ЦОДы прямо возле оптоволокна или ЛЭП, это снижает накладные расходы на «последнюю милю». 

Также учитываются наличие квалифицированных кадров, политическая стабильность и налоговый режим в регионе. Пространство вокруг ЦОДа должно позволять расширение, иначе в спешке может понадобиться догонять по металлу и бетону. 

В итоге удачная геолокация — это компромисс между доступностью энергии и коммуникаций и минимальными рисками для строений и оборудования.

— Как строительство ЦОДа влияет на местную инфраструктуру — энергосети, водоснабжение, связь?

Даёт огромную нагрузку. Новые ЦОДы — это настоящие «энергетические острова». Местные электросети часто вынуждены строить трансформаторы и линии «под ЦОД», причём с 2N резервацией (ремарка автора — полное резервирование, при котором каждый критически важный компонент в инфраструктуре дублируется), а расходы распределяются. Жители вряд ли обрадуются полученному «сюрпризу» в счётчике. 

По оценке NLC (ремарка автора — Национальной лиги городов США), сообщества часто жалуются на рост нагрузок и выбросов CO₂, связанных с дата-центрами, которые падают на платежи обычных потребителей.

Также центры потребляют много воды (если охлаждаются водяными установками). На аридных территориях приходится заключать региональные соглашения на распределение воды. Местные власти могут ужесточить нормы или ввести «водяные квоты» на ЦОДы. 

В итоге дорожная инфраструктура будет загружена (ремарка автора — из-за прокладки высоковольток и оптиков), появятся шумовые ограничения и световое загрязнение. К тому же, оператор крупного ЦОДа может диктовать условия электросетям — требовать гарантированную мощность, иным бизнесам остаётся «оборванная ставка».

Но есть и плюсы. ЦОДы привлекают инвестиции и создают рабочие места при строительстве. В перспективе может появиться планирование «умных сетей», чтобы это гигантское потребление было распределено по времени или компенсировалось пиковой солнечной/ветряной энергией.

— А как должна выглядеть архитектура «идеального» ЦОДа? Насколько важна модульность и масштабируемость?

Желательно, чтобы корпус ЦОДа был как контейнер из будущего — функциональный и продуманный. Лучшие проекты используют модульный подход (ремарка автора — о модулях можно прочитать тут). Это ускоряет стройку и экономит бюджет. 

Внутри здание должно быть спроектировано для отказоустойчивости и эффективности. Высота потолков достаточная для магистральных кабелей и теплообменников, пол приподнятый, чтобы распределять холодный воздух. Контуры безопасности — от громоздких стен до биометрического контроля и «умной» системы слежения. Можно сказать, что идеальный ЦОД — это «Бункер для данных».

— Какие требования должны предъявляться к электропитанию и резервированию? Что про Tier I–IV?

Блоки должны быть избыточны по схеме 2N, 2N+1 или хотя бы N+1, в зависимости от требуемой надёжности. UPS и генераторы настраиваются так, чтобы во всех режимах питать ИТ-оборудование. Если откажет один UPS — остаётся второй. 

Идеальный ЦОД — это Tier IV. Он имеет двойное распределение силовых линий, резервные генераторы с автоматическим запуском и ИБП безразмерной мощности (ремарка автора — сомнительно, но окей, тут речь про источники бесперебойного питания).

— Какой тип серверов и стоек ты бы выбрала? Насколько важна плотность размещения и связанные с ней требования к охлаждению?

Выбор серверов зависит от задач. Если ЦОД «для всего и сразу», то смешанная инфраструктура: классические x86-серверы для общего, GPU-парки для AI/ML, FPGA/DPU для сетевых нагрузок и NPU для нейросетей. Главное — готовить стойки к высокой нагрузке.

Стойки ставим физически прочные — лучше 42U+ и со штатными PDU (ремарка автора — блоком данных протокола) на 400 Вольт, чтобы удвоить токи. Ближе к потолку нужны крепления для магистралей холодной воды/воздуха. Не забываем про резерв каналов питания на каждый шкаф (дважды N-подключение PDU). 

Разные серверы ставим в один ряд: GPU-серверы ближе к «холодному проходу», самые горячие — в центре стойки, так легче контуру охладиться. При экстремально высоких нагрузках вместо ряда вентиляторов делаем жидкостные модули с холодными пластинами.

По словарю интенсивности (ремарка автора — искал, но не нашёл), сегодня 10–15 кВт на стойку — обычные ЦОДы, 20–30 кВт — «высокоплотные», а 40–125 кВт и более — уже песня гибридного охлаждения. Для таких мощностей выбирают серверы с распределённым питанием, например, четыре блока по 3000 Вт с красной резервировкой вместо одного на 12 000 Вт, — это снижает риск простоя. Рядом с каждой стойкой можно разместить локальный InRow-кондиционер.

— Какой подход к системам охлаждения ты бы применила? 

Идеальное охлаждение — гибридное. Основная идея — максимально задействовать «бесплатный» природный холод (ремарка автора — free cooling) и лишь при потребности подруливать чиллерами или жидкостными контурами. В регионах с суровым климатом (север) можно и полностью уйти на пассивное охлаждение на зиму, включая кондиционирование лишь в пик летней жары. 

Ещё один тренд — жидкостное охлаждение. Жидкость переносит тепло гораздо эффективнее воздуха, поэтому обеспечивает плотную укладку серверов. Отчёты показывают, что при переходе на иммерсионное охлаждение энергопотребление на охлаждение падает вдвое (ремарка автора — не доказано)

Для менее экзотического окружения можно применить гибридную систему: холодная вода циркулирует по холодным плоским панелям прямо в стойках, а потом подогревается общим чиллером. 

— Как решить задачи физической и сетевой безопасности ЦОДов? 

ЦОД должен быть и крепостью, и детектором аномалий. Рекомендую системы картографирования сети (DCIM/IPAM), боты и сканеры, которые стоят на страже в оперативной сети. 

В реальном времени нужно анализировать паттерны трафика и поведения, для этого нужна AIOps (ремарка автора — концепция управления ИТ-инфраструктурой — Artificial Intelligence for IT Operations)

Zero-trust, MFA, регулярные пентесты — всё это холостые выстрелы (ремарка автора — сомнительно, но окей).

— А что насчёт управления инфраструктурой? Нужны ли DCIM и автоматизация?

Без DCIM никуда, потому что сегодня мы стремимся к единой картине всего оборудования, кабелей, IP-адресов и метрик. Это как «единственный источник правды». 

DCIM+автоматизация создают «главную базу» с данными о питании, сети, оборудовании. Также полезна интеграция с DevOps/CD-цепочками. Инфраструктуру можно будет писать как код и управлять всем по API. 

Реальным трендом становится lights-out, когда роботы и ИИ занимаются рутиной, а люди лишь задают цели и следят за стратегией (ремарка автора — термина не существует, скорее всего имела в виду гибридный интеллект).

— Какие меры энергоэффективности следует принимать? 

При эксплуатации стоит везде внедрять технологии умного менеджмента. Датчики должны быть везде — в каждом щитке, выходе питания, шасси. По мелочи, советую поднять в серверной температуру с привычных 20°C до 24–26°C (ремарка автора — технически разрешено стандартами, но сомнительно) и годовой счёт за охлаждение упадёт в 1,5 раза. 

Кроме того, хорошие ЦОДы должны инвестировать в инфраструктуру перезарядки. Например, если рядом жилой комплекс или завод, тепло от серверов можно отдать на обогрев домов, тем самым снижая общий углеродный след всей системы. 

— Как выстроить взаимодействие с публичными облаками и гиперскейлерами? Нужен ли гибрид или мультиоблако?

Никто не ставит знак равенства между собственным ЦОД и AWS или Azure — их размер и возможности заоблачные. Чтобы играть в одной лиге, придётся использовать гибридные стратегии: тяжёлые аналитические задачи выносим «в облака», а критические для бизнеса держим локально. Гибридный подход позволит обрабатывать каждую нагрузку там, где нужно.

Крупные игроки нередко делают геораспределённость. Например, ставят резервные кластеры в разных облаках (ремарка автора — «мультиоблако») или используют облако как запас на случай «пожара» в ЦОДе.

Так что идеальный ЦОД — это часть экосистемы private+public cloud. Массовость облаков даёт экономию на инфраструктуре, а гибрид даёт контроль и надёжность.

— Какие цифры затрат у идеального ЦОДа? CAPEX, OPEX, TCO, и где искать экономию?

Общая стоимость (TCO) — это сумма CAPEX и OPEX. CAPEX — это стройка (ремарка автора — земля, здание, оборудование, монтаж), OPEX — это операционные расходы (ремарка автора — электроэнергия, техническое обслуживание, зарплаты персонала, замена компонентов, аренда и т.п.). CAPEX окупается, а OPEX через несколько лет растёт. 

Хороший рецепт — высокая автоматизация. Используя интеграцию с ИИ, можно коммодитизировать процессы (ремарка автора — удешевить, значит). Каждый автоматический балансировщик нагрузки и каждый «самолечащийся» контроллер сэкономят затраты. 

В итоге, идеальный ЦОД должен строится по принципу «экономия за счёт эффективности». Нужно замедлять рост OPEX через энерго- и ресурсоэффективные технологии и максимально автоматизировать операции.

— И последний вопрос: а какие перспективы у ЦОДов через 10–20 лет? 

Будущее ЦОДов футуристично. ИИ будет сам проектировать узлы, генерировать схемы охлаждения и план коммутации. Возможно, под капотом запустят цифровую копию ЦОДа, где ИИ тренируется на миллионных симуляциях и на лету корректирует реальную инфраструктуру. Инженерам останется лишь задавать стратегические цели. 

Уже сейчас говорят о «автономных дата-центрах», где уровни управления смешиваются. Предиктивная аналитика заменит часть ручного администрирования, автоматизированные каретки будут развозить «железо» по стойкам, лазерные дроны — сканировать RFID-метки на дисках, а мобильные шасси — менять неисправные блейды без участия человека. В прошлые годы инженеры мечтали об этом — в будущем это будет нормой.

Предсказываю: в каждом серверном зале появятся роботы для ремонта и сборки, а сверху будут кадры с панорам дата-центра в реальном времени. Физики смогут снизить температурный потолок до -273°C,  а квантовое охлаждение станет нормой, потому что инженеры подключат ГПС-координаты к квантовым процессорам.

И конечно, всё станет распределённым. В силу развития IoT и 5G, дата-центры станут мельче и ближе к людям. Глобальная сеть объединит огромные «центры тяжести» с локальными мини-ЦОДами, а AI-агенты будут координировать работу тысяч таких контейнеров в автоматическом режиме.

Выводы

Когда мы говорим об идеальном ЦОДе, в ход идут цифры и стандарты — это важно, но разговор с ИИ напомнил мне о том, что иногда полезно взглянуть на знакомые вещи «чужими» глазами. Даже если эти глаза условны, а интеллект — статистический.

Пока мы спорим о типах ИБП и важности иммерсионки, машина рассуждает системно: доступ к «тяжёлой» электросети, мощные и энергоэффективные серверы, модули охлаждения, смарт-термостаты в стойке, «мультиоблака» и участие ИИ во всех процессах. Как ни странно, но разговор с моделью оказался интересным и полезным.

Как и обещал, оставляю промпт: «Ты — продвинутый инженер-испытатель ЦОД, который имеет двадцатилетний опыт работы. Представь, что тебя попросили спроектировать идеальный дата-центр — с нуля, без ограничений бюджета, но с опорой на современные и перспективные технологии. Я буду задавать тебе вопросы в формате интервью, а ты отвечай как технический архитектор, который думает и о текущей практике, и о будущем через 10–20 лет. Объясняй подробно, не избегай конкретики. Стиль — профессиональный, но с живой подачей. Готова? Тогда начнём».

Кстати, пишу «готова?», потому что мой чат-бот идентифицирует себя «девочкой». А ваш?

Спрашивать у вас, с чем вы не согласны, тяжело. Легче спросить, согласны ли вы с видением ИИ об «идеальных» ЦОДах и их будущем? 

* Ответы на вопросы сгенерированы с помощью ChatGPT–4о.

© 2025 ООО «МТ ФИНАНС»

Комментарии (6)


  1. ProfDonda
    22.07.2025 15:57

    "Мы попросту перейдем в другую комнату, а когда насвиним там, перейдем в третью, потом в четвертую, и так, пока не загадим весь дом, а там видно будет..."(c)


  1. vvzvlad
    22.07.2025 15:57

    Это не “проектирование”, это попугайское говорение популярных ключевых слов. Я тоже так могу “проектировать”.

    Реальное проектирование сначала строится от потребностей бизнеса/рынка, а потом включает в себя балансировку компонентов так, чтобы они работали вместе.

    Жители вряд ли обрадуются полученному «сюрпризу» в счётчике. 

    Какому сюрпризу? При чем тут жители

    Также центры потребляют много воды (если охлаждаются водяными установками).

    Что, простите, они потребляют? Много воды? Куда они ее потребляют? В градирнях испаряется? Ну, допустим 10МВт и вся эта энергия отводится испарением. Говорят, надо 1.8л/квтч. 13000м3 в месяц.

    Человек потребляет 300л/месяц. Дом на 500 квартир — 11000m3. Потребление цода сравнимо с потреблением самого обычного дома. Учитывая что никто не будет охлаждать полностью испарением, в каком же месте цод потребляет много воды?

    Собственно, если ИИ начинает нести чушь в первых предложениях, то смысла вчитываться в “проект” уже нет.


    1. poige
      22.07.2025 15:57

      Собственно, если ИИ начинает нести чушь в первых предложениях, то смысла вчитываться в “проект” уже нет.

      так там честно сообщается "ответы писал ChatGPT–4о"

      4o в данном случае это как "4 years old" — одна из самых бредящих и простяцких моделек у OpenAI, лезть с таким в статейки — это из категории «хабр, которого мы заслужили», разве что. Впрочем у LLM хотя бы получается разобраться в какую сторону слэш правильно рисовать, в отличие от половины местной пост-ЕГЭйщины. :)


      1. vvzvlad
        22.07.2025 15:57

        А, блин, 4о дно.

        Я бы взял хорошую рассуждающую модель с большим контекстным окном и попросил бы ее реально составить проект, на основе реальных вводных, и потом бы сравнил с существующим проектом или отдал бы на верификацию проектировщикам. Было бы интереснее и полезнее для оценки, насколько ллм может в проектирование. Ну да, наверное сколько-то денег пришлось бы потратить или подписку купить. Но это десятки долларов, мелочь. У меня perplexity вполне решает некоторые задачи: https://t.me/vvzvlad_lytdybr/862


        1. poige
          22.07.2025 15:57

          А, блин, 4о дно.

          Полнейшее, да. Многие видимо исходят из того, что раз численный индекс выше, то думалка лучше. Впрочем, может быть это коварный план OpenAI — если пипл хавает, то почему бы и не сделать by default, электроэнергия денег стоит. )


  1. Terranz
    22.07.2025 15:57

    Статья кратко: делайте хорошо, плохо не делайте