На хабре и в нашем блоге о корпоративном IaaS мы много пишем о том, как использование облаков может быть полезно бизнесу, и рассказываем истории конкретных компаний, решившихся на перенос инфраструктуры (вот пара таких примеров: раз и два). Однако до сих пор мы не затрагивали тему построения инфраструктуры самого IaaS-провайдера — чтобы это исправить, сегодня мы расскажем о том, какими критериями руководствовались при выбору дата-центра, и покажем ЦОД, где сейчас размещается облако ИТ-ГРАД.
На что обращать внимание
При выборе ЦОД мы обращали внимание не только на гарантии обеспечения надежности (о том, как проверить надежность дата-центра мы писали здесь), но и другими важными характеристиками. В их числе:
- Инфраструктура — качество обеспечения электроснабжения, охлаждения, наличие систем пожаротушения;
- Организация безопасности оборудования и интеллектуальной собственности, размещаемой на нем;
- Обеспечение непрерывности бизнеса;
- Экономическая целесообразность использования конкретного ЦОД.
Все эти элементы очень важны — их можно сравнить с частями пазла. Если убрать хоть один, цельной картины уже не получится.
По результатам анализа различных вариантов мы остановились на московском дата-центре DataSpace — одном из крупнейших ЦОД России. Он расположен в отдельно стоящем здании на 12 машинных залов и 1000 стоек. DataSpace прошел полный цикл сертификации Tier III Gold по стандартам Uptimes Institute, что подтверждает его высокую надежность. Но взглянем на различные аспекты размещения в этом ЦОД повнимательнее.
Электроснабжение: Резервирование и PUE
Uptime Institute приводит описание более 4000 инцидентов, связанных с электропитанием, многие из которых произошли по причине халатного отношения к одному из важнейших составляющих инфраструктуры ЦОД — электроснабжением.
В выбранном нами дата-центре надежность систем электропитания обеспечивается за счет резервирования по схеме N+1 — каждый машинный зал получает энергию от двух устройств распределения электроэнергии. Каждое из них, в свою очередь, подключено к двум раздельным цепям. В самих помещениях ЦОД организованы шесть независимых цепей электропитания.
Критически важные механические системы подключены через распределительные щиты с двойным независимым питанием. Каждый из источников электропитания подключен к отдельным системам ИБП и дизель-генераторов, которые обеспечивают работу в течение 84 часов.
Для определения эффективности электроснабжения ЦОД используют специальный коэффициент PUE — он показывает, что вся поступившая на объект электроэнергия расходуется исключительно на серверные стойки, а не на их охлаждение, освещение или другие сопутствующие процессы. Значение PUE получают путем деления показателя общего энергопотребления всего ЦОД на количество электроэнергии, расходуемой оборудованием. Чем выше полученный результат, тем больше энергии расходуется на сопутствующие процессы, чем значение ближе к единице, тем эффективность ближе к 100%.
Охлаждение: как все устроено
На охлаждение инженерных систем и стоек типового дата-центра уходит около 40% всей электроэнергии. Однако с помощью технологии автоматизации (Building Management System) показатели расхода по различным подсистемам могут быть снижены почти на 60%.
В DataSpace такая система обеспечивает контроль и поддержку на заданном уровне температуры, влажности, качества воздуха, системы освещения, бесперебойного питания, пожарной сигнализации и т.д. Также по схеме распределенного резервирования N+1 установлены чиллеры и воздухоохладители. Для обеспечение наилучшего охлаждения оборудования холодный воздух подводится под фальшполом.
Организация безопасности
Периметр здания ЦОД и все внутренние помещения оснащены восьмиуровневой системой безопасности — это помимо вооруженной охраны на территории объекта. Действует строгий пропускной контроль — даже сами сотрудники, забывшие паспорт, не смогут попасть на свое рабочее место. Видеокамеры и датчики движения обеспечивают полное покрытие всей территории дата-центра.
Чтобы пройти в зону приема посетителей, необходимо пройти через бронированные шлюзовые кабины, каждая из которых оснащена считывателями карт доступа и биометрических данных и работает по принципу сканирования отпечатка ладони.
Для входа в машинные залы и помещения с критическим оборудованием предоставляется не только при наличии карты доступа, также сканируются биометрические данные — сетчатка глаза и отпечатки ладони.
Пожаротушение
Все серверные залы и комнаты с критически важным оборудованием ЦОД оснащены современной централизованной системой газового пожаротушения с применением вещества без цвета и запаха NOVEC 1230.
Также используется система сверхраннего обнаружения пожара — аспирационный дымовой извещатель VESDA. Расположенные в разных частях зала датчики следят за пожарной обстановкой — выполняется оценка проб воздуха с помощью калиброванной системы обнаружения возгорания.
Кроме того, даже в случае, если пожар все-таки начнется, ЦОД еще довольно долгое время сможет его выдерживать — его стены, пол и потолок имеют двухчасовой предел огнестойкости.
Связь
Одним из важнейших моментов, которые могут сделать использование того или иного ЦОД невозможным, является наличие возможности свобожного выбора поставщиков телекоммуникационных услуг. В DataSpace с этим нет проблем — в ЦОД приходят магистральные трассы более 20 крупных операторов связи, таких как «Ростелеком», «Гарс Телеком», «АКАДО Телеком», «Билайн», «Мегафон», МТС, Orange и многие другие. Также в здании присутствуют два независимых телекоммуникационных ввода от двух разных колодцев МГТС на расстоянии более 100 метров друг от друга и шесть разных 100-миллиметровых кабельных каналов, ведущих к главной точке ввода данных (MPoE) и к дополнительной точке ввода данных (SPoE).
Заключение
IaaS-провайдер обязан уделять серьезное внимание выбору площадки для размещения собственного оборудования, чтобы повысить надежность собственных услуг. ЦОД должен не только соответствовать требованиям по разным направлениям от электроснабжения до безопасности, но и иметь «запас прочности» на длительное время вперед.