
Если кто-то ещё думает, что дата-центр — это про стойки, клауд и «пятую зону отказоустойчивости», стоит посмотреть на его платёжку за свет. В реальности ЦОД — это про энергетику: большинство современных ЦОДов потребляют мегаватты ежедневно, и именно за киловатты приходится платить больше всего.
Даже если ИТ-нагрузка у вас составляет 1 мегаватт, реальное потребление ЦОДа будет 1,5–2 МВт — в зависимости от архитектуры. И пока стоимость железа и лицензий списывается по амортизации, электричество капает в счёт каждый час. День за днём. Год за годом.
Эта статья — про то, почему энергия дороже всего, как устроено энергопотребление дата-центров и почему архитектурные решения, режимы охлаждения и плотность стоек в итоге превращаются в рубли.
Из чего складывается энергопотребление ЦОДа
Когда говорят «электричество уходит на серверы», это только часть правды. Даже в относительно современных ЦОДах на ИТ-нагрузку приходится 40–50% потребления, а остальное — это цена за то, чтобы эти серверы не превратились в пепел.
Компонент |
Доля от общего потребления |
Почему? |
Серверы и хранилища |
40–50% |
Зависит от плотности стоек и их загрузки |
Охлаждение (HVAC) |
30–40% |
Вентиляторы, чиллеры, холодные коридоры |
ИБП, трансформаторы |
10–20% |
Потери при преобразовании и передаче |
Свет, системы охраны |
1–5% |
На фоне остального — мелочь, но тоже есть |
Реальный показатель эффективности — это PUE (Power Usage Effectiveness), то есть насколько «чисто» электроэнергия уходит именно на ИТ. Если PUE = 2.0 — это значит, что на каждый 1 кВт для серверов тратится ещё 1 кВт на всё остальное. Хорошим считается PUE в районе 1.2–1.4, но в реальности по России средний ближе к 1.6–1.8, а в старых ЦОДах — и все 2.0.
Простой расчёт: если серверы тянут 500 кВт, и у вас PUE = 1.6, значит, общая нагрузка на ввод — 800 кВт. При цене 4 ₽ за кВт·ч — это почти 3,2 млн ₽ в месяц, только за свет.
Серверы едят электричество — это понятно. Но почему столько уходит на «всё остальное»?
Системы охлаждения
Современные 2U/4U серверы выделяют 400–600 Вт тепла каждый. Если у вас в стойке 20–30 таких, выходит под 10 кВт тепловой нагрузки на 0,6 м² площади.

Обычные кондиционеры с таким объёмом не справятся, поэтому ставят прецизионные кондиционеры, водяные чиллеры, а в продвинутых ЦОД — фрикулинг, адиабатику и даже жидкостное охлаждение.
Всё это само по себе — оборудование, которое потребляет энергию. Чем горячее железо, тем выше счёт за его охлаждение.
ИБП и трансформаторы
ИБП (источники бесперебойного питания) работают по схеме двойного преобразования: сначала переменное → в постоянное, потом обратно. Каждый такой цикл — это потери. У хороших UPS КПД 94–96%, но если таких цепочек несколько — теряется ощутимо.
Трансформаторы, коммутация, щиты — всё это тоже вносит потери: сопротивление проводов, рассеяние на дросселях, работа вентиляторов. На больших мощностях даже 2% потерь — это десятки тысяч рублей в сутки.
Резервы и избыточность
Большинство ЦОДов построены по схеме N+1 или 2N, чтобы выдерживать отказ любого элемента. Это значит, что часть мощностей работает вхолостую или с минимальной нагрузкой.
То же касается дизель-генераторов и аккумуляторов — они почти всегда включены в сеть, и хоть напрямую не жрут много, требуют регулярной подзарядки, вентиляции и обслуживания.
Когда киловатты вытекают сквозь проект
Когда смотришь на два дата-центра с одинаковым количеством стоек, но разными счетами за электричество, разница почти всегда кроется в архитектуре. То, как спроектирован ЦОД, на что он рассчитан и как используется, определяет эффективность не меньше, чем модель серверов в стойке.
Гиперскейл против «корпоративной классики»
Гиперскейл-ЦОД — это промышленный объект, заточенный под экономию. Там оптимизировано всё: сдвоенные стойки с изоляцией горячих коридоров, свободное охлаждение через внешние шахты, минимум человеческого вмешательства. Такие ЦОДы спокойно держат PUE 1.1–1.2.
Корпоративные ЦОДы — это часто компромиссы. Их проектировали под расширяемость, но без плотной загрузки. Много резервов, кондиционеры «на всякий», вентиляция проектировалась без CFD-моделирования. И в итоге — PUE 1.6–2.0, а иногда и выше.
Простой расчёт: если нагрузка 500 кВт и PUE = 1.2, весь ЦОД тянет 600 кВт.
А при PUE = 2.0 — уже 1 МВт. В два раза больше счета за тот же результат.
Высокая плотность — высокая цена за ошибку
С переходом на HPC и GPU-нагрузки выросла плотность стоек. Если раньше 10 кВт в стойке было максимумом, сейчас 20–30 кВт — норма. Один сервер на 8×A100 может выжигать до 2–2,5 кВт, и это только железо. Добавим сюда потери на VRM, чипсет, вентиляторы и на каждую GPU-стойку.

Ошибки тут дороги:
недостаточный воздухообмен — и у тебя термотроттлинг и перегрев;
резерв не рассчитан — ИБП начинает орать и сбрасывать нагрузку;
отсутствие зонального охлаждения — и PUE взлетает на ровном месте.
Классическая ошибка — проект под пиковую нагрузку
Многие ЦОДы до сих пор проектируются под максимальную возможную мощность, а не под реальное потребление. В итоге:
ставится мощный ИБП, который большую часть времени работает на 30% загрузки, а значит, падает КПД,
чиллеры и вентиляторы работают на холостом ходу,
в стойках по 5 серверов вместо 20, воздух гоняется просто так.
Всё это — пустые киловатты. За которые приходится платить, даже если серверы в полусне и не обрабатывают реальных задач.
CPU, GPU, загрузка: что на самом деле влияет на счёт
Современные AI/ML-стэки — это в первую очередь GPU, и это проблема. Один H100 (или A100) может потреблять до 700 Вт, и таких в одном узле может быть 4–8. Плюс CPU, память, SSD. Итог — 2–3 кВт на сервер, не считая питания для системы охлаждения. Сравнение:
CPU-нагрузка (типичный web/DB): 200–400 Вт/сервер;
GPU-нагрузка (инференс/тренировка): 1500–3000 Вт/сервер.
Разница — в 5–10 раз. И чем выше потребление, тем больше тепла, тем больше нагрузки на охлаждение, тем выше итоговое потребление ЦОДа.
Кроме того, никто не любит об этом говорить, но огромное количество стоек в ЦОДах работает вполсилы. Серверы включены, подсветка горит, вентиляторы крутятся — а нагрузка 10–20%.
Дело не в технике, а в эксплуатации: кто-то боится консолидировать, кто-то «держит запас», кто-то просто не следит.
Между тем: сервер в idle всё равно потребляет 40–60% от пика, виртуалки без дела гонят процессор, плохая конфигурация C-стейтов или отключённый EIST — и CPU никогда не уходит в пониженные частоты. Энергия уходит, работа — нет, а счёт идёт.
Сколько на самом деле стоит электричество для среднего ЦОДа
Возьмём в качестве примера относительно типовой дата-центр на 40 стоек. Если каждая стойка рассчитана на 15 кВт, но реально загружена процентов на 70, то ИТ-нагрузка составит примерно 420 кВт. При PUE в районе 1.6 (а это уже хорошо, но не идеально), общее энергопотребление составит около 670 кВт.
Перемножаем: 670 кВт × 24 часа в сутки × 30 дней — и получаем около 480 МВт·ч ежемесячно. Теперь умножаем это на средний тариф, скажем, 4,72 рубля за киловатт-час. Итого — почти 2,2 млн рублей в месяц только за электричество. Без генераторов, без капексов, без поддержки, только электричество.
За год — больше 26 млн. И это не для какого-нибудь гиперскейла с кластером на 10 мегаватт, это вполне себе скромный дата-центр, даже не перегретый.
Теперь представим, что у тебя не 40 стоек, а 100. Или половина стоек отведена под GPU, которые потребляют в 3–5 раз больше энергии, чем обычные серверы. Или ты не оптимизировал вентиляцию, у тебя PUE не 1.6, а 2.0. И всё — счёт за электричество удваивается.
Вывод
Если упростить всё до одного предложения: электричество — самая дорогая статья в бюджете ЦОДа, потому что всё в нём существует ради того, чтобы непрерывно питать нагрузку и избавляться от её тепла.
Серверы, хранилки, виртуалки — это не «главное», а полезная надстройка. Основная задача инженерной части — завести киловатты, распределить их с минимальными потерями, обеспечить отказоустойчивость и держать температуру в рамках. И платить за всё это каждый час.
Скорость процессора, количество RAM и тип виртуализации — всё это важно, но если ты не рассчитал энергетику — ничего из этого не будет работать. Или будет, но быстро выйдет из строя, а платить за электричество придётся всё равно.
© 2025 ООО «МТ ФИНАНС»
Комментарии (8)
antrks
24.06.2025 09:51Где-то ошибка в расчетах: Итого — почти 2,2 млн рублей в месяц только за электричество. За год — больше 260 млн
unicorn_style
24.06.2025 09:51В двух ЦОД после расширения пытался договорится о том чтобы по счетчику считали, а не по номиналу блоков.
И в двух ЦОД в разных городах мне ответили что они не платят за расход электричества, а покупают емкость. Сколько она стоит я не знаю, но звучит логично.
К абзацу охлаждения у меня тоже есть вопросы.
Классический кондиционер - перенос тепла/холода из одного места в другое с помощью изменения агрегатного состояния.
И в домашних кондиционерах соотношения генерации тепла/холода от электричества примерно 1:3. Тратя 1кв электричества ты получаешь 3кв тепла/холода в среднем (конечно там внешние условия влияют)
И тут вопрос, а как 30-40% электричества тратится на охлаждение при классическом кондиционере и погоде жаркой (когда нет возможности фрикулинг делать) 2-3 месяца в году (я про Питер и Москву)?
unicorn_style
24.06.2025 09:51Между тем: сервер в idle всё равно потребляет 40–60% от пика, виртуалки без дела гонят процессор, плохая конфигурация C-стейтов или отключённый EIST — и CPU никогда не уходит в пониженные частоты. Энергия уходит, работа — нет, а счёт идёт
Откуда вы взяли эти данные, у меня есть gen9 на 2699v4 на блоках 500 + 8SAS, сейчас специально посмотрел что он жрет 110W. Пик у него около 650W и это довольно старый сервер, на очень горячих процессорах. Классическая история это процессоры 2620/30 и думаю там будет 80-90W потолок в idle. Это опять же 20%, у вас опять вы цифрами играете.
SrvTrantor Автор
24.06.2025 09:51Спасибо за комментарий — вы правы, в коммерческих ЦОД арендаторам часто выставляют счёт не по фактическому потреблению, а по выданной мощности. Это удобно для резервирования, но не всегда отражает реальную нагрузку. В статье речь шла о расходах самого дата-центра в целом.
По охлаждению, COP у классических кондиционеров может достигать 3, но в серверных работают прецизионные системы, у которых эффективность ниже — особенно с учётом постоянной работы, вентиляции, насосов и резервов.
Что касается idle — приведённые цифры усреднены, в ряде конфигураций простои действительно могут тянуть 40–60% от пика, особенно если отключены C-стейты или EIST.
wizard_s
24.06.2025 09:51Современные системы еще горячее. 2x9654, забитый памятью недавно выдал 1.55квт. Интелы давно за киловатт на юнит перевалили. А 2630 - древняя древность, которую в цод ставить дороже, чем он стоит
wizard_s
24.06.2025 09:51CPU-нагрузка (типичный web/DB): 200–400 Вт/сервер;
Где вы такие цифры видели? Лет 10 назад так и было. Современные серверы уже по 1.5квт/1u бывают и это без gpu и без набивки дисками под завязку. Несчастный 2x6430+1тб ram и 2 nvme под нагрузкой до 1.1-1.2 разгоняется легко. 400вт у него практически в покое. Да, можно повключать энергосбережение, а потом ловить потери пакетов, тормоза и т.п, но зачем... Отсюда и по 5 серверов на шкаф, т.к. до сих пор некоторые строят ЦОДы по 5-7.5квт на шкаф. Под коммутаторы, наверное... а может все ждут бума ARM серверов?
woodiron
За давностью уже не помню точно, но когда толи фейсбук толи гугл разместил свои сервера в Швеции, вроде бы в Лулео, средняя температура воздуха в районе размещения поднялась на 2-4 градуса.