Современные предприятия все чаще сталкиваются с задачами, для которых традиционные серверы и СХД уже не могут служить идеальным решением. Объединить вычислительную платформу, виртуальные машины и систему хранения данных в единую распределенную инфраструктуру позволяет гиперконвергентная инфраструктура Cisco HyperFlex.
image


Со времен появления первых центров обработки данных главными составляющими ЦОД были серверная ферма, сеть хранения данных и локальная сеть. Последняя объединяла первые два элемента в работоспособную систему.

После распространения виртуализации дата-центры стали представлять из себя платформу, состоящую из виртуализированных серверов, сетевых устройств и систем хранения. Поскольку возникла необходимость обеспечить физическим и виртуальным серверам доступ к данным в равной степени, требования к системам хранения существенно возросли, ведь теперь к СХД мог быть подключен не десяток серверов, а сразу несколько сотен виртуальных машин. Как итог, системы хранения эволюционировали в виртуализированные программно-аппаратные хранилища. Кроме того, возникла необходимость в виртуализации коммутаторов для поддержки разных протоколов, каналов, подсетей, приоритетов и скоростей на одном устройстве. Получившаяся архитектура объединила в себе разные типы оборудования, протоколы связи и операционные системы, получив название конвергентной.

Однако аппаратные виртуализированные системы хранения тем не менее продолжали оставаться всего лишь комплектом «железа» — контроллерами и подключенными к ним дисковыми полками, работающими под руководством операционной системы. Такую ОС можно «упаковать» в виртуальную машину, запустив ее на основном сервере, и на него же поместить саму систему хранения в качестве еще одной служебной ВМ – многоядерность и мощность современных процессоров позволяет сделать это. Причем такая система хранения будет обеспечивать не только функциональность СХД, но и позволит организовать хранилище на группе серверов. Объединить все это локальной сетью также не составит труда – Ethernet со скоростью 10 Гб/c сегодня является стандартом для корпоративной сети, а многие предприятия начинают внедрять каналы на 40 и 100 Гб/с.

Все это привело к появлению так называемых гиперконвергентных решений. Такие платформы – уже не просто сервер, а мини-дата-центр, в котором ресурсы распределяются между приложениями и пользователями с высокой степенью гибкости. Именно такую систему представляет собой Cisco Hyperflex. Давайте разберемся, что же она из себя представляет.

Что в упаковке?

Как уже была сказано, основу ЦОД составляют три большие подсистемы: вычисления, коммутация и хранение. В качестве четвертого элемента следует добавить в этот список управление. Первая подсистема в HyperFlex представлена серверами UCS C220 или UCS C240. Для наращивания вычислительной мощности ее можно расширить посредством шасси с блейд-серверами, для увеличения пространства хранения – добавить стандартную систему хранения.

Сетевая составляющая включает пару коммутаторов на основе виртуализированного «конвергентного» коммутатора Nexus – UCS Fabric Interconnect 62xx. Такое решение универсально, поскольку поддерживает любой протокол (IP/FC/FCoE/iSCS), кроме того, оно включает систему управления Cisco UCS Manager с бесплатной лицензией, предоставляющую широкие возможности управления серверами и их сетевой частью.

Что касается системы хранения, то диски, основной элемент любого хранилища данных, располагаются непосредственно в серверах (узлах), составляющих платформу. СХД виртуализирована и имеет практически все функции, которые требуются от современных хранилищ данных в информационных инфраструктурах. В то же время управляется она как один из объектов в среде виртуализации VMware vSphere. Стоит также отметить, что гипервизор VMware vSphere ESXi 6.0 уже предустановлен на всех узлах HyperFlex. Фактически для управления всей системой организации достаточно иметь в штате специалиста по VMware начального уровня.

В итоге внедряя решение Cisco HyperFlex, заказчик получает полноценный ЦОД «из коробки», конфигурацию которого можно начать всего с трех узлов. При этом у пользователя сразу оказывается и система хранения, распределенная по тем же узлам, дающая по результатам тестов довольно высокие показатели производительности. Важным является тот факт, что для такого виртуализированного кластера требуется организация 10-ти или 40-гигабитной локальной сети, которая не всегда существует в инфраструктуре организаций. Пара универсальных коммутаторов UCS Fabric interconnect гарантируют высокую производительность сетевой части решения и корректную работу распределенной системы хранения.

Особенности масштабирования

Однако при современном динамичном развитии ИТ-отрасли рано или поздно компания столкнется с нехваткой ресурсов и необходимостью масштабирования имеющейся инфраструктуры. В случае с Cisco HyperFlex все достаточно просто.

При нехватке вычислительных ресурсов необходимо просто докупить память до 768 ГБ – это по 24 слота как в HX220с, так и в HX240с. Также можно подключить шасси UCS5108, что дает возможность получить еще 8 блейд-серверов в общем пуле ресурсов. Проблема нехватки дискового пространства решается доустановкой еще одной ноды HX240c до 24 дисков, что одновременно увеличит и дисковое пространство, и объем памяти, и число процессоров для виртуальных машин. То есть наращивать решение можно как по критическим характеристикам, так и комплексно, расширяя кластер. Последний вариант особенно удобен, так как новые узлы прибывают на площадку заказчика уже в подготовленном виде и существующий кластер HyperFlex автоматически распознает новый узел и включает его в работу. Никаких особых действий от администратора решения при этом не требуется.

В случае, когда виртуальным машинам требуется много пространства или у них есть задача делать резервные копии на старое аппаратное хранилище, можно в пару конвергентных коммутаторов UCS Fabric Interconnet подключить классическую систему хранения любого производителя по 1- или 10-гигабитному протоколу NFS/CIFS/iSCSI/FCoE или по по Fiber Channel.

Основа для ЦОД

В том случае, если просто «ЦОДа из коробки» уже не достаточно, а необходим полноценный центр обработки данных с классическими инфраструктурами, Cisco HyperFlex также позволяет сохранить инвестиции – ведь целый ряд необходимых компонентов уже в наличии. Например, ноды серии HX2XX — они же сервера UCS-C-series, которые легко встраиваются в ЦОД. Интерконнекты Nexus 6200 применяются и в полноразмерном дата-центре, а UCS Manager позволяет обслуживать до 160 физических серверов и/или систем хранения с любым протоколом подключения.

Дисковое пространство, расположенное на виртуальном хранилище в составе HyperFlex, может быть доступно другим платформам.

Кроме того, не стоит забывать и о таком факторе, как свободное место в серверной, расширить которую далеко не всегда есть возможность. Для установки в существующую стойку блейд-шасси также придется потрудиться, меняя местами оборудование и разводку кабелей. А для внедрения HyperFlex в стойку понадобится всего 5 юнитов – по одному для каждой из трех нод и два для интерконнектов. Даже более серьезное решение с нодами HX 240c потребует всего 8 RU. Стоит отметить, что юниты не обязательно должны располагаться подряд – главное подключить ноды к фабрик-интерконнекту, а сами узлы могут быть «разбросаны» по датацентру, занимая 1 или 2 U там, где есть место.

В качестве заключения

Исходя из всего вышесказанного, Cisco HyperFlex станет удачным выбором для компаний, начинающим внедрять комплексную ИТ-инфраструктуру. Особенно на это решение стоит обратить внимание организациям, которые планируют внедрение в максимально сжатые сроки и при этом не обладают огромным ИТ-департаментом. Инсталляция HyperFlex всего на 3 сервера позволяет организовать полноценную 10-гигабитную IP- и FC-инфраструктуру и обеспечить управление ЦОД. Система станет ядром дата-центра, в том числе благодаря возможностям Fabric Interconnect.
Поделиться с друзьями
-->

Комментарии (3)


  1. paralon
    28.04.2017 12:43
    +1

    Как только начнут поддерживать Hyper-V и KVM… как только уйдут от СХД на AllFlash… так сразу


  1. askbow
    28.04.2017 14:07

    Чтобы эта система поднялась, у вас заранее уже должен быть vCenter и существующая инфраструктура для развёртывания инсталляционной VM. А ещё NTP стабильный и, желательно, DNS. Нормальные коммутаторы тоже. ЦОД «из коробки», не иначе.

    Стоит также отметить, что гипервизор VMware vSphere ESXi 6.0 уже предустановлен на всех узлах HyperFlex.


  1. kelevra
    28.04.2017 14:56
    +1

    Всё описанное в статье — полная фигня, такое есть у многих вендоров. Самая главная фишка виртуализации на ucs — это vmfex (virtual machine fabric extender). Сетевушки на серверах ucs создаются с помощью vic (virtual interface card) и этих сетевушек на каждом из подключенных к фабрикам серверах может быть гораздо больше двух.

    Так вот, vmfex позволяет часть из этих «гораздо больше двух сетевушек» прокидывать напрямую внутрь виртуальных машин с включением directpath i/o. Причём не просто прокидывать (это умеют любые сервера), а прокидывать так, чтобы vmotion оставался функциональным. Вот такого не умеет уже никто кроме ucs.

    Зачем нужны directpath i/o сетевушки внутри виртуалок? В первую очередь — это обработка большого количества видеопотоков в реальном времени. Без разделения по отдельным сетевушкам и без directpath i/o работа с большим количеством потоков видео невозможна без ухудшения качества.

    Второе приложение — это очистка трафика. Например, ddos на гипервизор с двумя обычными сетевушками положит сетевушки гипервизора полностью, вместе со всеми виртуалками, которые используют эти сетевушки. А вот с vmfex — нет. В подобном случае нагрузка будет только на сетевую подсистему конкретной виртуалки, остальных участников кластера проблема не затронет.