Большинство дискуссий относительно неэффективности работы дата-центров а также их «узких» мест ведутся относительно недостаточной загрузки серверов. Речь идет о том, что в большинстве дата-центров оборудование используется далеко не на все 100%, большая часть серверов работает с неполной загрузкой, а некоторые и вовсе вхолостую. По данным специалистов из Стэнфорда, около 10 миллионов серверов по всему миру работают вхолостую, что обходится в огромную сумму — 30 миллиардов долларов ежегодно. Основные убытки — напрасно расходуемая электроэнергия.
Но есть и другая проблема. Это неэффективное охлаждение. Ни для кого не секрет, что охлаждение может съедать около 50% энергии, потребляемой всем дата-центром. Конечно, ДЦ таких гигантов, как Google, Facebook, Microsoft работают очень эффективно, и энергия здесь расходуется разумно. Об этих компаниях и их дата-центрах много пишут, о них много говорят. Но все это — только вершина айсберга. Остальная часть айсберга — это ДЦ никому не известных компаний, небольшие дата-центры, которых масса. О них никто не пишет и мало кто знает, но именно они — главные потребители энергии в ИТ-секторе.
При этом в таких ДЦ зачастую работают очень неэффективные системы охлаждения. В большинстве случаев потому, что у владельца просто нет средств (да и желания) апгрейдить инфраструктуру. В случае же, если ДЦ является частью государственной организации или научно-исследовательского института, команде, в общем-то, все равно, сколько энергии расходуется — все покрывается сверху, и руководство ДЦ может особо о расходах и не думать.
В этом году компания Future Resource Engineering, занимающаяся проектированием и поддержкой ДЦ, нашла способ повышения эффективности использования энергии всего в 40 ДЦ. Экономия при этом составила 24 млн кВт*ч. В основном команда занималась улучшением охлаждения. Площадь указанных дата-центров составляла от нескольких сотен до нескольких тысяч квадратных метров.
И основная проблема этих ДЦ (как и многих других) — избыточное охлаждение. При этом большинство владельцев дата-центров осознают, что охлаждение избыточное, но иного выхода просто нет. Причин тому две — резервная система охлаждения, которая может работать одновременно с основной, и «горячие точки». Во втором случае охлаждать ДЦ приходится сильнее, чем если бы все оборудование грелось равномерно. Избыточное охлаждение — обычный, хотя и чрезвычайно неэффективный способ борьбы с горячими точками. Для небольших дата-центров указанная проблема особенно актуальна. Если некоторые серверы греются больше других, оператор охлаждает помещение так, чтобы температура самого горячего участка падала до требуемого уровня. А это зачастую означает, что все остальные участки ДЦ чуть ли не заморожены.
Еще одна распространенная проблема — слабое разделение потоков горячего и холодного воздуха. Если система управления потоками воздуха несовершенна, то горячий воздух может перемешиваться с холодным. Естественно, в этом случае эффективность охлаждения падает, а холодный воздух приходится охлаждать «с запасом», чтобы опустить температуру машзала до приемлемого уровня.
Есть и проблема, когда холодный воздух засасывается в систему охлаждения вместе с горячим, вместо того, чтобы быть использованным по назначению.
У Google, например, такой проблемы просто нет, поскольку в дата-центрах этой компании эффективно используется каждый ватт энергии. Управляет всем этим система с элементами искусственного интеллекта. Аналогичная ситуация наблюдается и в дата-центрах Facebook и Microsoft.
В основном, приоритет саппорта небольшого дата-центра — это бесперебойная работа своего объекта. Каким образом это обеспечивается — дублированием ли основных систем, избыточным охлаждением или чем-то еще, мало кого волнует. Но если система надежна и неэффективна, в этом случае владелец ДЦ тратит гораздо больше средств, чем он тратил бы при создании нормальной, современной системы управления инфраструктурой своего дата-центра. И если ничего не поменяется, то большинство дата-центров так и останутся неэффективными. И неважно, насколько продвинутыми будут в этом случае ДЦ телекоммуникационных гигантов — на «общей температуре по больнице» это не скажется.
Комментарии (9)
achekalin
14.12.2015 15:48+1Смысл поста непонятен. Обсудили то, что и так всем ясно. Пост для галочки? Ну, может кому в реферате/курсовике пригодится ))
> У Google, например, такой проблемы просто нет, поскольку в дата-центрах этой компании эффективно используется каждый ватт энергии
«У него нет проблемы с выбором еды, потому что он кушает только то, что нужно». На вопрос «как» — ответа-то и нет :)
А самое важное — в маленьком «ДЦ» (особенно если это просто комната с 2-3 стойками) кто сможет сделать что-то толковое? 99 (нет, 100) процентов организаторов таких комнат максимум что могут сделать для улучшения охлаждения — установить/повесить не один, а два бытовых сплита, просто для надежности. О точном соблюдении параметров воздуха речь не идет в принципе — не умеет такое железо этого. Ну, может, 5, а то и 0.5%, админов потом еще соберут с одной из железок значение температуры, и будут на него смотреть при регулировке кондеев, но это такое «пальцем в небо» — обычно сплиты тупо будут дуть в морду/бок стоек, и дело с концом.
А решение одно: пока расходы на охлаждение никого не взволнуют (т.е. пока их в себестоимости работы ДЦ не будет сильно заметно), нет никакого резона, кроме разве что если у строителей пунктик про «зеленость», городить что-то серьезное. Большой ДЦ — да, его сложнее охлаждать, там и тема экономии масштабнее видна.
Ivan22
14.12.2015 17:33+1Речь идет о том, что в большинстве дата-центров оборудование используется далеко не на все 100%, большая часть серверов работает с неполной загрузкой, а некоторые и вовсе вхолостую.
Речь идет о том, что в большинстве дата-центров админы используется далеко не на все 100%, большая их часть работает с неполной загрузкой, а некоторые и вовсе вхолостую
VolCh
15.12.2015 05:55И неважно, насколько продвинутыми будут в этом случае ДЦ телекоммуникационных гигантов — на «общей температуре по больнице» это не скажется.
«невидимая рука рынка» рассудит
Dimd13
15.12.2015 06:23Написали бы лучше пост о том как эту самую эффективность повысить, как уплотнить свои мощности, чтоб снизить процент работы «вхолостую», на что обращать внимание при выборе ДЦ, как понять что в машзале не эффективное охлаждение и т.д.
И как можно сравнивать ДЦ корпораций-гигантов, которые они строят сами для себя, заточенные под свои нужды, с оборудованием разработанным и изготовленным специально для этих нужд и ДЦ который может себе позволить средняя, а то и крупная компания со стандартным оборудованием, обычными потребностями, и которые в 75% случаев ориентируются насамый важный показательцену вопроса.VolCh
15.12.2015 07:38Ну, цена вопроса состоит из двух частей минимум: первичных вложений и постоянных расходов. Очень часто не только в ДЦ и ИТ вообще, но и в бизнесе в целом, и в государствах, и в быту люди выбирают поменьше первого, не взирая на то что второе будет больше и через какое-то время постоянные расходы съедят всю экономию первичных вложений.
tangro
16.12.2015 13:48Так понятное дело как эффективность повысить — всё уже давно придумано Амазоном. Нужно продавать лишние в данный момент мощности на аукционах по небольшим ценам и без гарантий доступности. В результате на «холостых» мощностях будут бегать какие-нибудь веб-краулеры, пережималки видео и воркер-пулы каких-нибудь систем, не критично страдающих от пропадания части рабочих мощностей. Уж электричество-то всяко будет отбиваться.
TimsTims
15.12.2015 11:05В этом году компания Future Resource Engineering, занимающаяся проектированием и поддержкой ДЦ, нашла способ повышения эффективности использования энергии всего в 40 ДЦ.
Ну и какой способ то? Где раскрытие вопроса?
О чем вообще статья? Практические советы на обозначенные проблемы, иначе статья выглядит незавершенной.
DancingOnWater
Если мы говорим об энергоэффективности, то не оптимизированный код даст всем фору в пару кругов.