Сфера телекоммуникаций развивается очень быстро. Буквально каждую неделю появляются новые разработки, некоторые из которых быстро становятся стандартом. В этом году появилось несколько интересных новинок, которые стандартом еще не стали, но, возможно, это произойдет в скором времени. Среди разработчиков новых технологий — Google, Microsoft и другие гиганты рынка телекоммуникаций. Есть и решения более мелких игроков, не менее интересные.
Microsoft's Project Natick
В самом начале этого корпорация Microsoft представила прототип облачного дата-центра, который должен располагаться не на суше, а под водой. Проект получил название Microsoft's Project Natick.
Компания решила поместить оборудование под воду для того, чтобы получить бесплатное охлаждение. По мнению авторов методики, холодная вода должна охладить серверы, так что энергия на это тратиться не будет. Более того, энергию планируется получать за счет движения волн.
Уже проведены испытания прототипа — это стальная капсула диаметром 2,4 м. Продолжительность испытаний — 105 дней. Результаты, по словам представителей компании практически идеальны. В ходе одного из тестов модуль с оборудованием обрабатывал данные сервиса Microsoft Azure.
Лазер с прямой модуляцией на кремниевой подложке
Эта технология находится еще на очень ранней стадии разработки. В начале этого года группе ученых из Кардиффского и Шэффилдского университетов удалось создать лазер на кремниевой подложке. Такой лазер излучает на длине волны в 1300 нам и может работать долгое время: 100 тысяч часов при температуре до 120 °C.
По мнению ряда специалистов, такая технология позволяет объединить электронику с фотоникой. Лазеры с прямой модуляцией на кремниевой подложке обеспечивают огромную скорость передачи данных в электронных системах с одновременным понижением затрат энергии. Такие лазеры, к примеру, можно интегрировать с волноводами и управляющей электроникой.
Проект, в рамках которого ведутся работы по объединению электроники и фотоники, носит название DIMENSION (Directly Modulated Lasers on Silicon). В нем участвуют представители ряда европейских стран и различных компаний. По мнению участников проекта, реализация технологии в промышленных масштабах позволит создать дата-центры нового поколения.
Охлаждение без затрат
Еще один пример системы охлаждения дата-центра, где роль системы охлаждения играет природа. А вернее — прохладный воздух Ирландии. В Клони, Ирландия, располагается дата-центр Facebook. В этом дата-центре планируется использовать обычный воздух для охлаждения оборудования. Здесь очень прохладный климат, рядом — океан, и все это способствует низкой температуре. Правда, есть одна проблема — перед тем, как пустить прохладный воздух в систему охлаждения, нужно очистить его от капель соленой воды. Если этого не сделать, вся система очень быстро подвергнется коррозии.
ДЦ располагается в 15 километрах от Дублина. Это второй европейский дата-центр компании. Еще один интересный момент — это то, что все оборудование и сам ДЦ, в котором оно расположено, спроектировано с нуля. Facebook активно продвигает свой проект Open Compute Project, и этот ДЦ полностью соответствует концепции OCP. Пока что дата-центр еще достраивается, на полную мощность он выйдет не ранее 2017 года.
Искусственный интеллект в дата-центрах Google
ИИ от DeepMind (так называемая слабая форма ИИ) специалисты Google научили контролировать серверное оборудование и элементы инфраструктуры (например, системы охлаждения). Для контроля было выделено 120 различных параметров работы дата-центра, включая управление работой кондиционеров, закрытие или открытие окон, скорость работы вентиляторов и т.п.
Управляющие алгоритмы были разработаны после детального анализа информации о работе дата-центров компании за пять лет. На основе полученных данных удалось создать эффективную предиктивную модель потребления энергии дата-центром. Основной критерий здесь — количество задействованных серверов и другого оборудования в различное время. ИИ «скормили» такие данные, как температуру оборудования, скорость работы насосов, активность работы охлаждающего оборудования, количество использованной энергии и т.п.
«Люди обычно используют множество физических функциональных элементов для установления контроля над дата-центром. Работа команды людей более-менее слажена, но при этом сотрудники-люди упускают из виду множество важных факторов», — говорит представитель DeepMind. А ИИ может учитывать подавляющее большинство важных факторов в своей работе. Именно благодаря этому удалось добиться снижения использования энергии на 40% в системах охлаждения дата-центра.
Микро дата-центры
Идея создания небольших унифицированных ДЦ не нова. Но сейчас она получает все большее признание, а микро дата-центры распространяются по миру. В основном такие объекты создаются для обеспечения нормальной работы периферии сети, включая города второго и третьего уровня. Используют их и компании, плотно работающие с «Интернетом вещей».
Микро дата-центры являются полностью автономными объектами, и содержат все компоненты, обычные для своих «старших братьев». Это вычислительное оборудование, телекоммуникационный модуль, хранилище данных, системы бесперебойного питания, системы охлаждения, система пожаротушения.
При желании такой миниатюрный дата-центр можно кастомизировать под свои нужды. Если есть необходимость, несколько микро ДЦ можно собрать вместе, увеличив общую производительность системы. Микро дата-центры унифицированы, поэтому каждый из них может служить модулем для системы более высокого уровня.
Среди таких решений попадаются и сверх-компактные. Так, компания Arnouse Digital Device Corp предлагает сервера размером с кредитную карту, которые помещаются в компактные стойки-контейнеры. Выглядят эти контейнеры, как кейсы. Изначально система разрабатывалась для Министерства обороны США.
Технология замкнутого локального охлаждения (Close Coupled Cooling, CCC)
Системы типа Close Coupled Cooling разработаны для охлаждения оборудования, размещенного в ДЦ с высокой плотностью. В среднем ДЦ энергетическая плотность оборудования составляет менее 2-4 кВт на стойку. И для охлаждения такого оборудования хватает модулей CRAC (Computer Room Air Condition) и прохладного воздуха, подаваемого в пространство под фальшполом.
CCC-системы охлаждения могут располагаться рядом с генерирующим тепло оборудованием. В таком случае используются системы охлаждения, которые размещаются между стойками, в самих стойках или над стойками. Кроме того, есть еще один вариант — можно использовать шкафы с встроенными в заднюю дверь теплообменниками. Плюс ко всему, при установке таких систем рекомендуется организовывать горячие и холодные коридоры.
Close Coupled Cooling ранее использовались в качестве нестандартного решения. Сейчас же, по мере увеличения плотности оборудования в ДЦ, эти системы становятся все более и более востребованными. Они уже не воспринимаются, как нечто необычное, а постепенно переходят в разряд стандартного решения.
В качестве вывода: компании продолжают строить дата-центры. Это делают и крупные и мелкие игроки рынка. Часть старых дата-центров, которые уже не удовлетворяют современным требованиям, модифицируются и перестраиваются. Количество дата-центров увеличивается на 10%-15% ежегодно. И в каждом таком новом ДЦ используется что-то новое. Возможно, перечисленные выше новинки будут использоваться в ряде новых дата-центров, построенных какой-либо компанией уже в ближайшее время. Все предпосылки к этому есть.
И конечно, мы указали только малую толику того, о чем стало известно в этом году. Возможно, вы считаете какую-либо технологию, не попавшую в этот материал, перспективной? Давайте обсудим ее в комментариях.
Поделиться с друзьями
SemperFi
опечатка?
глубина, наверное
alekssamos
Или имели в виду минут.