Если кто-то ещё думает, что дата-центр — это про стойки, клауд и «пятую зону отказоустойчивости», стоит посмотреть на его платёжку за свет. В реальности ЦОД — это про энергетику: большинство современных ЦОДов потребляют мегаватты ежедневно, и именно за киловатты приходится платить больше всего.

Даже если ИТ-нагрузка у вас составляет 1 мегаватт, реальное потребление ЦОДа будет 1,5–2 МВт — в зависимости от архитектуры. И пока стоимость железа и лицензий списывается по амортизации, электричество капает в счёт каждый час. День за днём. Год за годом.

Эта статья — про то, почему энергия дороже всего, как устроено энергопотребление дата-центров и почему архитектурные решения, режимы охлаждения и плотность стоек в итоге превращаются в рубли.

Из чего складывается энергопотребление ЦОДа

Когда говорят «электричество уходит на серверы», это только часть правды. Даже в относительно современных ЦОДах на ИТ-нагрузку приходится 40–50% потребления, а остальное — это цена за то, чтобы эти серверы не превратились в пепел. 

Компонент

Доля от общего потребления

Почему?

Серверы и хранилища

40–50%

Зависит от плотности стоек и их загрузки

Охлаждение (HVAC)

30–40%

Вентиляторы, чиллеры, холодные коридоры

ИБП, трансформаторы

10–20%

Потери при преобразовании и передаче

Свет, системы охраны

1–5%

На фоне остального — мелочь, но тоже есть

Реальный показатель эффективности — это PUE (Power Usage Effectiveness), то есть насколько «чисто» электроэнергия уходит именно на ИТ. Если PUE = 2.0 — это значит, что на каждый 1 кВт для серверов тратится ещё 1 кВт на всё остальное. Хорошим считается PUE в районе 1.2–1.4, но в реальности по России средний ближе к 1.6–1.8, а в старых ЦОДах — и все 2.0.

Простой расчёт: если серверы тянут 500 кВт, и у вас PUE = 1.6, значит, общая нагрузка на ввод — 800 кВт. При цене 4 ₽ за кВт·ч — это почти 3,2 млн ₽ в месяц, только за свет.

Серверы едят электричество — это понятно. Но почему столько уходит на «всё остальное»?

Системы охлаждения

Современные 2U/4U серверы выделяют 400–600 Вт тепла каждый. Если у вас в стойке 20–30 таких, выходит под 10 кВт тепловой нагрузки на 0,6 м² площади.

Обычные кондиционеры с таким объёмом не справятся, поэтому ставят прецизионные кондиционеры, водяные чиллеры, а в продвинутых ЦОД — фрикулинг, адиабатику и даже жидкостное охлаждение.

Всё это само по себе — оборудование, которое потребляет энергию. Чем горячее железо, тем выше счёт за его охлаждение.

ИБП и трансформаторы

ИБП (источники бесперебойного питания) работают по схеме двойного преобразования: сначала переменное → в постоянное, потом обратно. Каждый такой цикл — это потери. У хороших UPS КПД 94–96%, но если таких цепочек несколько — теряется ощутимо.

Трансформаторы, коммутация, щиты — всё это тоже вносит потери: сопротивление проводов, рассеяние на дросселях, работа вентиляторов. На больших мощностях даже 2% потерь — это десятки тысяч рублей в сутки.

Резервы и избыточность

Большинство ЦОДов построены по схеме N+1 или 2N, чтобы выдерживать отказ любого элемента. Это значит, что часть мощностей работает вхолостую или с минимальной нагрузкой.

То же касается дизель-генераторов и аккумуляторов — они почти всегда включены в сеть, и хоть напрямую не жрут много, требуют регулярной подзарядки, вентиляции и обслуживания.

Когда киловатты вытекают сквозь проект

Когда смотришь на два дата-центра с одинаковым количеством стоек, но разными счетами за электричество, разница почти всегда кроется в архитектуре. То, как спроектирован ЦОД, на что он рассчитан и как используется, определяет эффективность не меньше, чем модель серверов в стойке.

Гиперскейл против «корпоративной классики»

Гиперскейл-ЦОД — это промышленный объект, заточенный под экономию. Там оптимизировано всё: сдвоенные стойки с изоляцией горячих коридоров, свободное охлаждение через внешние шахты, минимум человеческого вмешательства. Такие ЦОДы спокойно держат PUE 1.1–1.2.

Корпоративные ЦОДы — это часто компромиссы. Их проектировали под расширяемость, но без плотной загрузки. Много резервов, кондиционеры «на всякий», вентиляция проектировалась без CFD-моделирования. И в итоге — PUE 1.6–2.0, а иногда и выше.

Простой расчёт: если нагрузка 500 кВт и PUE = 1.2, весь ЦОД тянет 600 кВт.
А при PUE = 2.0 — уже 1 МВт. В два раза больше счета за тот же результат.

Высокая плотность — высокая цена за ошибку

С переходом на HPC и GPU-нагрузки выросла плотность стоек. Если раньше 10 кВт в стойке было максимумом, сейчас 20–30 кВт — норма. Один сервер на 8×A100 может выжигать до 2–2,5 кВт, и это только железо. Добавим сюда потери на VRM, чипсет, вентиляторы и на каждую GPU-стойку. 

Ошибки тут дороги:

  • недостаточный воздухообмен — и у тебя термотроттлинг и перегрев;

  • резерв не рассчитан — ИБП начинает орать и сбрасывать нагрузку;

  • отсутствие зонального охлаждения — и PUE взлетает на ровном месте.

Классическая ошибка — проект под пиковую нагрузку

Многие ЦОДы до сих пор проектируются под максимальную возможную мощность, а не под реальное потребление. В итоге:

  • ставится мощный ИБП, который большую часть времени работает на 30% загрузки, а значит, падает КПД,

  • чиллеры и вентиляторы работают на холостом ходу,

  • в стойках по 5 серверов вместо 20, воздух гоняется просто так.

Всё это — пустые киловатты. За которые приходится платить, даже если серверы в полусне и не обрабатывают реальных задач.

CPU, GPU, загрузка: что на самом деле влияет на счёт

Современные AI/ML-стэки — это в первую очередь GPU, и это проблема. Один H100 (или A100) может потреблять до 700 Вт, и таких в одном узле может быть 4–8. Плюс CPU, память, SSD. Итог — 2–3 кВт на сервер, не считая питания для системы охлаждения. Сравнение:

  • CPU-нагрузка (типичный web/DB): 200–400 Вт/сервер;

  • GPU-нагрузка (инференс/тренировка): 1500–3000 Вт/сервер.

Разница — в 5–10 раз. И чем выше потребление, тем больше тепла, тем больше нагрузки на охлаждение, тем выше итоговое потребление ЦОДа. 

Кроме того, никто не любит об этом говорить, но огромное количество стоек в ЦОДах работает вполсилы. Серверы включены, подсветка горит, вентиляторы крутятся — а нагрузка 10–20%.

Дело не в технике, а в эксплуатации: кто-то боится консолидировать, кто-то «держит запас», кто-то просто не следит.

Между тем: сервер в idle всё равно потребляет 40–60% от пика, виртуалки без дела гонят процессор, плохая конфигурация C-стейтов или отключённый EIST — и CPU никогда не уходит в пониженные частоты. Энергия уходит, работа — нет, а счёт идёт.

Сколько на самом деле стоит электричество для среднего ЦОДа

Возьмём в качестве примера относительно типовой дата-центр на 40 стоек. Если каждая стойка рассчитана на 15 кВт, но реально загружена процентов на 70, то ИТ-нагрузка составит примерно 420 кВт. При PUE в районе 1.6 (а это уже хорошо, но не идеально), общее энергопотребление составит около 670 кВт.

Перемножаем: 670 кВт × 24 часа в сутки × 30 дней — и получаем около 480 МВт·ч ежемесячно. Теперь умножаем это на средний тариф, скажем, 4,72 рубля за киловатт-час. Итого — почти 2,2 млн рублей в месяц только за электричество. Без генераторов, без капексов, без поддержки, только электричество.

За год — больше 26 млн. И это не для какого-нибудь гиперскейла с кластером на 10 мегаватт, это вполне себе скромный дата-центр, даже не перегретый.

Теперь представим, что у тебя не 40 стоек, а 100. Или половина стоек отведена под GPU, которые потребляют в 3–5 раз больше энергии, чем обычные серверы. Или ты не оптимизировал вентиляцию, у тебя PUE не 1.6, а 2.0. И всё — счёт за электричество удваивается.

Вывод

Если упростить всё до одного предложения: электричество — самая дорогая статья в бюджете ЦОДа, потому что всё в нём существует ради того, чтобы непрерывно питать нагрузку и избавляться от её тепла.

Серверы, хранилки, виртуалки — это не «главное», а полезная надстройка. Основная задача инженерной части — завести киловатты, распределить их с минимальными потерями, обеспечить отказоустойчивость и держать температуру в рамках. И платить за всё это каждый час.

Скорость процессора, количество RAM и тип виртуализации — всё это важно, но если ты не рассчитал энергетику — ничего из этого не будет работать. Или будет, но быстро выйдет из строя, а платить за электричество придётся всё равно.

© 2025 ООО «МТ ФИНАНС»

Комментарии (8)


  1. woodiron
    24.06.2025 09:51

    За давностью уже не помню точно, но когда толи фейсбук толи гугл разместил свои сервера в Швеции, вроде бы в Лулео, средняя температура воздуха в районе размещения поднялась на 2-4 градуса.


  1. antrks
    24.06.2025 09:51

    Где-то ошибка в расчетах: Итого — почти 2,2 млн рублей в месяц только за электричество.  За год — больше 260 млн


    1. SrvTrantor Автор
      24.06.2025 09:51

      Исправил, спасибо!


  1. unicorn_style
    24.06.2025 09:51

    В двух ЦОД после расширения пытался договорится о том чтобы по счетчику считали, а не по номиналу блоков.

    И в двух ЦОД в разных городах мне ответили что они не платят за расход электричества, а покупают емкость. Сколько она стоит я не знаю, но звучит логично.

    К абзацу охлаждения у меня тоже есть вопросы.

    Классический кондиционер - перенос тепла/холода из одного места в другое с помощью изменения агрегатного состояния.

    И в домашних кондиционерах соотношения генерации тепла/холода от электричества примерно 1:3. Тратя 1кв электричества ты получаешь 3кв тепла/холода в среднем (конечно там внешние условия влияют)

    И тут вопрос, а как 30-40% электричества тратится на охлаждение при классическом кондиционере и погоде жаркой (когда нет возможности фрикулинг делать) 2-3 месяца в году (я про Питер и Москву)?


    1. unicorn_style
      24.06.2025 09:51

      Между тем: сервер в idle всё равно потребляет 40–60% от пика, виртуалки без дела гонят процессор, плохая конфигурация C-стейтов или отключённый EIST — и CPU никогда не уходит в пониженные частоты. Энергия уходит, работа — нет, а счёт идёт

      Откуда вы взяли эти данные, у меня есть gen9 на 2699v4 на блоках 500 + 8SAS, сейчас специально посмотрел что он жрет 110W. Пик у него около 650W и это довольно старый сервер, на очень горячих процессорах. Классическая история это процессоры 2620/30 и думаю там будет 80-90W потолок в idle. Это опять же 20%, у вас опять вы цифрами играете.


      1. SrvTrantor Автор
        24.06.2025 09:51

        Спасибо за комментарий — вы правы, в коммерческих ЦОД арендаторам часто выставляют счёт не по фактическому потреблению, а по выданной мощности. Это удобно для резервирования, но не всегда отражает реальную нагрузку. В статье речь шла о расходах самого дата-центра в целом.

        По охлаждению, COP у классических кондиционеров может достигать 3, но в серверных работают прецизионные системы, у которых эффективность ниже — особенно с учётом постоянной работы, вентиляции, насосов и резервов.

        Что касается idle — приведённые цифры усреднены, в ряде конфигураций простои действительно могут тянуть 40–60% от пика, особенно если отключены C-стейты или EIST.


      1. wizard_s
        24.06.2025 09:51

        Современные системы еще горячее. 2x9654, забитый памятью недавно выдал 1.55квт. Интелы давно за киловатт на юнит перевалили. А 2630 - древняя древность, которую в цод ставить дороже, чем он стоит


  1. wizard_s
    24.06.2025 09:51

    • CPU-нагрузка (типичный web/DB): 200–400 Вт/сервер;

    Где вы такие цифры видели? Лет 10 назад так и было. Современные серверы уже по 1.5квт/1u бывают и это без gpu и без набивки дисками под завязку. Несчастный 2x6430+1тб ram и 2 nvme под нагрузкой до 1.1-1.2 разгоняется легко. 400вт у него практически в покое. Да, можно повключать энергосбережение, а потом ловить потери пакетов, тормоза и т.п, но зачем... Отсюда и по 5 серверов на шкаф, т.к. до сих пор некоторые строят ЦОДы по 5-7.5квт на шкаф. Под коммутаторы, наверное... а может все ждут бума ARM серверов?