Большинство дискуссий относительно неэффективности работы дата-центров а также их «узких» мест ведутся относительно недостаточной загрузки серверов. Речь идет о том, что в большинстве дата-центров оборудование используется далеко не на все 100%, большая часть серверов работает с неполной загрузкой, а некоторые и вовсе вхолостую. По данным специалистов из Стэнфорда, около 10 миллионов серверов по всему миру работают вхолостую, что обходится в огромную сумму — 30 миллиардов долларов ежегодно. Основные убытки — напрасно расходуемая электроэнергия.

Но есть и другая проблема. Это неэффективное охлаждение. Ни для кого не секрет, что охлаждение может съедать около 50% энергии, потребляемой всем дата-центром. Конечно, ДЦ таких гигантов, как Google, Facebook, Microsoft работают очень эффективно, и энергия здесь расходуется разумно. Об этих компаниях и их дата-центрах много пишут, о них много говорят. Но все это — только вершина айсберга. Остальная часть айсберга — это ДЦ никому не известных компаний, небольшие дата-центры, которых масса. О них никто не пишет и мало кто знает, но именно они — главные потребители энергии в ИТ-секторе.

При этом в таких ДЦ зачастую работают очень неэффективные системы охлаждения. В большинстве случаев потому, что у владельца просто нет средств (да и желания) апгрейдить инфраструктуру. В случае же, если ДЦ является частью государственной организации или научно-исследовательского института, команде, в общем-то, все равно, сколько энергии расходуется — все покрывается сверху, и руководство ДЦ может особо о расходах и не думать.

В этом году компания Future Resource Engineering, занимающаяся проектированием и поддержкой ДЦ, нашла способ повышения эффективности использования энергии всего в 40 ДЦ. Экономия при этом составила 24 млн кВт*ч. В основном команда занималась улучшением охлаждения. Площадь указанных дата-центров составляла от нескольких сотен до нескольких тысяч квадратных метров.

И основная проблема этих ДЦ (как и многих других) — избыточное охлаждение. При этом большинство владельцев дата-центров осознают, что охлаждение избыточное, но иного выхода просто нет. Причин тому две — резервная система охлаждения, которая может работать одновременно с основной, и «горячие точки». Во втором случае охлаждать ДЦ приходится сильнее, чем если бы все оборудование грелось равномерно. Избыточное охлаждение — обычный, хотя и чрезвычайно неэффективный способ борьбы с горячими точками. Для небольших дата-центров указанная проблема особенно актуальна. Если некоторые серверы греются больше других, оператор охлаждает помещение так, чтобы температура самого горячего участка падала до требуемого уровня. А это зачастую означает, что все остальные участки ДЦ чуть ли не заморожены.

Еще одна распространенная проблема — слабое разделение потоков горячего и холодного воздуха. Если система управления потоками воздуха несовершенна, то горячий воздух может перемешиваться с холодным. Естественно, в этом случае эффективность охлаждения падает, а холодный воздух приходится охлаждать «с запасом», чтобы опустить температуру машзала до приемлемого уровня.

Есть и проблема, когда холодный воздух засасывается в систему охлаждения вместе с горячим, вместо того, чтобы быть использованным по назначению.

У Google, например, такой проблемы просто нет, поскольку в дата-центрах этой компании эффективно используется каждый ватт энергии. Управляет всем этим система с элементами искусственного интеллекта. Аналогичная ситуация наблюдается и в дата-центрах Facebook и Microsoft.

В основном, приоритет саппорта небольшого дата-центра — это бесперебойная работа своего объекта. Каким образом это обеспечивается — дублированием ли основных систем, избыточным охлаждением или чем-то еще, мало кого волнует. Но если система надежна и неэффективна, в этом случае владелец ДЦ тратит гораздо больше средств, чем он тратил бы при создании нормальной, современной системы управления инфраструктурой своего дата-центра. И если ничего не поменяется, то большинство дата-центров так и останутся неэффективными. И неважно, насколько продвинутыми будут в этом случае ДЦ телекоммуникационных гигантов — на «общей температуре по больнице» это не скажется.

Комментарии (9)


  1. DancingOnWater
    14.12.2015 14:48

    Если мы говорим об энергоэффективности, то не оптимизированный код даст всем фору в пару кругов.


  1. achekalin
    14.12.2015 15:48
    +1

    Смысл поста непонятен. Обсудили то, что и так всем ясно. Пост для галочки? Ну, может кому в реферате/курсовике пригодится ))

    > У Google, например, такой проблемы просто нет, поскольку в дата-центрах этой компании эффективно используется каждый ватт энергии

    «У него нет проблемы с выбором еды, потому что он кушает только то, что нужно». На вопрос «как» — ответа-то и нет :)

    А самое важное — в маленьком «ДЦ» (особенно если это просто комната с 2-3 стойками) кто сможет сделать что-то толковое? 99 (нет, 100) процентов организаторов таких комнат максимум что могут сделать для улучшения охлаждения — установить/повесить не один, а два бытовых сплита, просто для надежности. О точном соблюдении параметров воздуха речь не идет в принципе — не умеет такое железо этого. Ну, может, 5, а то и 0.5%, админов потом еще соберут с одной из железок значение температуры, и будут на него смотреть при регулировке кондеев, но это такое «пальцем в небо» — обычно сплиты тупо будут дуть в морду/бок стоек, и дело с концом.

    А решение одно: пока расходы на охлаждение никого не взволнуют (т.е. пока их в себестоимости работы ДЦ не будет сильно заметно), нет никакого резона, кроме разве что если у строителей пунктик про «зеленость», городить что-то серьезное. Большой ДЦ — да, его сложнее охлаждать, там и тема экономии масштабнее видна.


  1. Ivan22
    14.12.2015 17:33
    +1

    Речь идет о том, что в большинстве дата-центров оборудование используется далеко не на все 100%, большая часть серверов работает с неполной загрузкой, а некоторые и вовсе вхолостую.

    Речь идет о том, что в большинстве дата-центров админы используется далеко не на все 100%, большая их часть работает с неполной загрузкой, а некоторые и вовсе вхолостую


  1. VolCh
    15.12.2015 05:55

    И неважно, насколько продвинутыми будут в этом случае ДЦ телекоммуникационных гигантов — на «общей температуре по больнице» это не скажется.


    «невидимая рука рынка» рассудит


  1. Dimd13
    15.12.2015 06:23

    Написали бы лучше пост о том как эту самую эффективность повысить, как уплотнить свои мощности, чтоб снизить процент работы «вхолостую», на что обращать внимание при выборе ДЦ, как понять что в машзале не эффективное охлаждение и т.д.
    И как можно сравнивать ДЦ корпораций-гигантов, которые они строят сами для себя, заточенные под свои нужды, с оборудованием разработанным и изготовленным специально для этих нужд и ДЦ который может себе позволить средняя, а то и крупная компания со стандартным оборудованием, обычными потребностями, и которые в 75% случаев ориентируются на самый важный показатель цену вопроса.


    1. VolCh
      15.12.2015 07:38

      Ну, цена вопроса состоит из двух частей минимум: первичных вложений и постоянных расходов. Очень часто не только в ДЦ и ИТ вообще, но и в бизнесе в целом, и в государствах, и в быту люди выбирают поменьше первого, не взирая на то что второе будет больше и через какое-то время постоянные расходы съедят всю экономию первичных вложений.


    1. tangro
      16.12.2015 13:48

      Так понятное дело как эффективность повысить — всё уже давно придумано Амазоном. Нужно продавать лишние в данный момент мощности на аукционах по небольшим ценам и без гарантий доступности. В результате на «холостых» мощностях будут бегать какие-нибудь веб-краулеры, пережималки видео и воркер-пулы каких-нибудь систем, не критично страдающих от пропадания части рабочих мощностей. Уж электричество-то всяко будет отбиваться.


  1. TimsTims
    15.12.2015 11:05

    В этом году компания Future Resource Engineering, занимающаяся проектированием и поддержкой ДЦ, нашла способ повышения эффективности использования энергии всего в 40 ДЦ.

    Ну и какой способ то? Где раскрытие вопроса?
    О чем вообще статья? Практические советы на обозначенные проблемы, иначе статья выглядит незавершенной.


    1. VolCh
      23.12.2015 10:58

      Убрать избыточное охлаждение :)