На этой неделе мы говорили о плюсах и минусах виртуальной ИТ-инфраструктуры и рассказывали о том, как выбрать направление для развития ИТ-проекта на основе своего опыта работы над провайдером виртуальной инфраструктуры 1cloud.

Сегодня хотелось бы поговорить о технологических трендах и направлениях, которые развиваются в сфере хранения и управления данными, ИТ-инфраструктурой и дата-центрами. Появление новых технологий и подходов к построению инфраструктуры оказывает серьезное влияние на то, как сейчас выглядят дата-центры и на то, какими они будут уже в ближайшем будущем.

Одним из самых масштабных трендов является повсеместное проникновение облачных технологий — если еще в 2012 году по данным различных исследований и опросов такие технологии использовали не более трети компаний, то в 2016 году подход гибридного облака применяли 77%. Но облака сами по себе — не единственный фактор, формирующий облик современного ЦОД. Сегодня мы поговорим о том, как дата-центры меняются прямо сейчас, и о том, какие факторы этому способствуют.

Облачные технологии меняют все


Развитие технологий виртуализации привело к активному распространению «облаков» — по данным Gartner, в 2016 году на облачные ресурсы придется значительная часть трат всех ИТ-бюджетов. А по данным компании-производителя телекоммуникационного оборудования Cisco, уже к 2018 году до 78% всех рабочих нагрузок будут обрабатываться облачными дата-центрами. К тому же году 59% общей облачной нагрузки придется на SaaS. Goldman Sachs прогнозирует, что рынок облачной инфраструктуры до 2018 года вырастет более чем на 19,5% с 2015 года, достигнув $43 млрд. к указанному сроку.

Растущая популярность облачных технологий и их более широкое применение меняет и то, как работают сами ЦОД. Эксперты перечисляют сразу несколько причин, повлиявших на то, как работают и управляются дата-центры. К примеру, стремление компаний добиться более гибкого и эффективного использования ресурсов фактически привело к появлению новой профессии «архитекторов» — эти люди управляют инфраструктурой так, чтобы добиваться ее наибольшей эффективности. При проектировании и управлении ЦОД используются новые подходы: от DevOps до DCIM.

Претерпело изменения и само «железо» — концепция «конвергентной инфраструктуры» требует большей эффективности. В этой связи компании все чаще внедряют технологии, которые могут обеспечивать большую удельную мощность при сокращении занимаемых дата-центром площадей. Кроме того, облака оказали значительное влияние на эволюцию сетевых решений и решений в области хранения данных — от непосредственного «железа» до новых видов приложений, которые обрабатывают клиентские запросы.

Энергоэффективность


По данным Statista.com, всего пару лет назад, в 2012 году, годовой объем трафика дата-центров составлял 1 эксабайт, а в 2015 году он приблизился к 3 эксабайтам. По прогнозам экспертов, в 2019 году трафик ЦОД составит 8,6 эксабайт в год. Для поддержания работоспособности систем, обрабатывающих такие объёмы данных, требуется много энергии. По данным исследовательской компании Forsythe, к 2020 году расположенные в США дата-центры будут потреблять энергии в шесть раз больше, чем весь Нью-Йорк.

Многие современные дата-центры проектировались и строились от нескольких лет до пары десятилетий назад. Это значит, что им трудно соответствовать растущим требованиям и нагрузке на ЦОД. Компании, управляющие дата-центрами, пытаются повысить удельную мощность (power density), создавая более компактную инфраструктуру с меньшим количеством стоек, которые вмещают больше серверов. Это позволяет не только сэкономить место и ресурсы, которые требовались на его отопление и охлаждение, но и избавиться от лишней инфраструктуры (провода, фальшпол, вентиляция и т.п.)

Многие спроектированные ранее дата-центры сегодня не отвечают потребностям современной конвергентной инфраструктуры — в итоге мощности одной стойки могут потребляться одним-двумя устройствами, а остальное место остается неиспользованным. Это приводит к серьезным финансовым потерям и неэффективному расходованию ресурсов. Принимая во внимание проблему «коматозных» серверов (которые не выполняют никакой полезной работы — в одних только США их до 30% от всех машин, а в мире до 10 млн. таких серверов), потери могут быть еще выше.

Поэтому все большее количество ЦОД начинают работать над повышением «плотности» своих мощностей. И эксперты называют это одним из трендов текущего года.

Изменение способов построения ЦОД: диски и флеш-память


Многие эксперты уверены в том, что развитие технологий хранения и флеш-памяти приведет к изменению структуры дата-центров. В последние пару лет было представлено сразу несколько перспективных разработок, начиная с 256-гигабитных 48-слойных микросхем от Samsung и Toshiba, которые имеют крайне высокую скорость чтения и потребляют на 40% меньше энергии, чем 128-гигабитные утройства предыдущих поколений, и заканчивая энергонезависимой технологией Intel-Micron 3D Xpoint.

Она обладает в тысячу раз меньшей латентностью, чем флеш. Эта технология способна породить новую категорию энергонезависимой памяти: достаточно быструю, чтобы использовать шину DRAM, и достаточно емкую, чтобы хранить большое количество данных.

Разработчики архитектур дата-центров уже экспериментируют с появляющимися новыми технологиями хранения данных. В частности, известен опыт по созданию кластера из микросхем флеш-памяти под управлением чипа, эмулирующего контроллер диска. Этот SSD заменяет жесткие диски в критически важных местах – и это то, что происходит в дата-центрах уже на протяжении нескольких лет.

Кроме того, не прекращаются попытки по переносу обрабатываемых данных с дисков в оперативную память. Эксперты прогнозируют появление all-flash-хранилищ данных, созданных с помощью технологий DDR, DRAM и DIMM на флеше.

В результате структура хранилищ данных кардинально изменится — небольшое количество DRAM станет большим массивом высокопроизводительной флеш-памяти, что позволит «обойти» операционную систему и гипервизор, работая с серверными DIMM в режиме прямого доступа. Благодаря этому значительно снизится латентность, а накопители данных можно будет располагать как можно ближе к самим серверам даже в случае облачных ЦОД. В результате DRAM, DIMM-флеш, память, соединенная RDMA-каналом, и «холодные» хранилища формируют концентрические слои кэша, создавая бесшовную архитектуру, плавно переходящую от кэша первого уровня к постоянному хранилищу на другом конце сети.

Заключение


Бизнес всегда стремится к снижению издержек и повышению доходов. При этом ИТ-технологии играют все большую роль в жизни сотен тысяч компаний по всему миру. Их руководители не хотят терять деньги из-за простоев — и, тем не менее, даже в Северной Америке компании каждый год теряют $26,5 млрд из-за сбоев ИТ-систем — или, к примеру, хакерских атак.

А значит, широкое распространение получат технологии и подходы, которые позволят добиться более эффективного использования текущей инфраструктуры и повышения уровня безопасности. Поэтому перечисленные в статье тренды развития будут только набирать мощь в течение ближайших лет.

P.S. Наши посты о разработке провайдера виртуальной инфраструктуры 1cloud:

Поделиться с друзьями
-->

Комментарии (3)


  1. Dobryak88
    06.05.2016 15:23

    Еженедельно читаю новости о переносе вычислений в «облака» и растущей доле облачных сервисов, и всё больше сомневаюсь в перспективах. Напоминает «экологически чистые» электромобили: сам автомобиль почти не вредит окружающей среде, но ведь где-то кто-то произвёл для него электроэнергию в некоторой степени грязным способом (ТЭС, АЭС).
    По аналогии с этим: сократив вычислительные ресурсы компании и перенеся сервисы в «облако», необходимо нарастить вычислительные ресурсы «облака» И нарастить ресурсы инфраструктуры (увеличение интернет трафика), особенно, это должны будут почувствовать провайдеры.


    1. At0mik
      09.05.2016 18:01

      Вы частично правы: вычислительные ресурсы в любом случае надо откуда-то взять.
      Но все дело в мутуализации, ведь «простаивающий сервер» = «ресурсы на ветер».

      На примере хранения данных:
      есть 1000 рабочих станций. Можно поставить 2тб жесткий диск в каждую станцию для хранения документов.
      А документы то важные ..., значит используем рейд 1. Как результат, нужны 2*2тб. Из этих 1тб, некоторые пользователи будут использовать от силы 100гб. А другим будет мало. При 1000 станциях, последнее с чем вы хотите иметь дело, это машины с «не стандартной конфигурацией». Т.е. те которым вы поставили 4тб хдд по запросу :).

      Альтернатива: используем сетевое хранилище.
      Вместо 1000 * 2* 2Тб, можно обойтись, скажем, суммарными 500тб. Там вам будет и сохранность данных… и дедубликация. Об проблемах этого решения я не говорю… они очевидны. С другой стороны, снижение стоимости и потребляемой энергии на лицо.

      В случае с автомобилем: двигатель внутреннего сгорания выбрасывает углекислый газ. А вот электродвигателю плевать как электричество сделано. Вероятно эти машины сегодня и хуже чем обычные (производство/реутилизация аккумуляторов грязное дело) + энергия часто выработана в «экологически грязных» термоэлектростанциях. Но,
      1) кто знает как мы эту энергию будем добывать через 50 лет?
      2) даже сегодня… на термоэлектростанциях можно на законодательном уровне заставить использовать фильтры… ведь станций мало и проверить их легко. Заставить всех граждан менять фильтры вовремя труднее ;)


    1. Kell
      09.05.2016 18:01

      Здесь есть два аспекта:
      1. Перенос сервиса в виртуальную среду позволяет очень гибко оперировать ресурсами для него: можно выделить ровно столько ресурсов, сколько необходимо, а не сколько встроено на сервере, позволяя на том же количестве железа уместить больше сервисов. А облака сейчас это в основном виртуализация.
      2. Перенос сервисов в облака помогает опять таки сохранить ресурсы — один ЦОД гораздо энергоэффективнее и дешевле чем множество серверных аналогичной суммарной мощности. В ЦОДах используются более эффективные системы охлаждения, энергосбережения, банально обслуживание множества стоек за раз более экономично, нежели их разделение по разным местам.

      Критичным местом здесь как раз становится доступность удаленных сервисов, задержки и ширина канала, но если их оптимизировать, то оно частенько стоит того.