Чем заменить на санкционном безрыбье системы хранения данных Dell, HPE, Huawei и других покинувших нас вендоров? Мы уже долго изучаем этот вопрос и протестировали большинство доступных альтернатив enterprise-уровня.

И что думаете? Кажется, нашли приемлемое решение — СХД китайского вендора Maipu с привычными функциями, перспективными возможностями и не только. Мы привезли его в лабораторию и первыми на российском рынке протестировали — срочно делимся впечатлениями и результатами.

Мы регулярно проводим эксперименты: тесты серверов, систем хранения данных и разнообразного инфраструктурного софта — это обычная практика. У нас накопленная база знаний и приличный опыт. Большую часть железа покупаем сами, что-то получаем от вендоров, тестируем и формируем демо-фонд, который предлагаем заказчикам.

Купили Maipu посмотреть что к чему

С этими китайцами мы уже знакомы и довольно тесно работали в 2022 году в части телекоммуникационного оборудования. Реализовали несколько проектов — вендор неплохо себя проявил, заказчикам и коллегам зашло. В результате в этом году число наших совместных проектов кратно выросло.

И вот мы решили попробовать СХД Maipu, которые в Китае используют многие госструктуры и банки, местный аналог РЖД и всякие крупные предприятия. 

Особенно вдохновляло, что функциональное описание модели обещало все привычные возможности: поддержку репликации: как в режиме active-active метрокластера, так и просто синхронную/асинхронную, снепшоты, клоны, QoS и т. д. Вот она — полноценная mid-range СХД, похоже, единственная на рынке с официальной поставкой и прямой гарантией от производителя.

Гибридное хранилище MPS5520G2 Storage
Гибридное хранилище MPS5520G2 Storage

Мы приобрели в лабу пару Maipu MPS5520G2 в исполнении all-flash. Они относятся к самым ходовым системам хранения, которые закрывают потребности большинства компаний. Эта модель СХД предлагает хорошую производительность и функциональность и подходит для решения распространенных бизнес-задач. 

Смотрим, что представляет собой MPS5520G2 на бумаге:  

  • Шасси высотой 4U, в которое установлены два контроллера (SPs), 2 блока питания, 2 FAN-модуля, 2 батарейных модуля, 24 слота под диски 3.5/2.5, 6 IO-модулей (по 3 на контроллер);

  • У каждого контроллера встроены 3 интерфейса Ethernet 1 Гбит/с и 4 интерфейса Ethernet 10 Гбит/с. Дополнительные порты добавляются IO-модулями 10/25/40/100 Gb/s Ethernet, 8/16/32gb/s FC, 10Gb/s FCoE и др.; 

  • Вертикально расширяется дисковыми полками SAS до 3200 дисков на пару контроллеров;

  • Горизонтально расширяется до 32 контроллеров;

  • Поддерживает метрокластер (symmetric dual-active), репликацию, зеркалирование, снэпшоты;

  • Поддерживает кэш объемом до 1,5 ТБ, что повышает производительность хранилища;

  • Использует открытое программное обеспечение для управления хранением данных и открытый API-интерфейс.

Вообще у Maipu большая линейка хранилищ - гибридные/флеш модели от простого начального уровня до производительных и хорошо масштабируемых, а также отдельная линейка all-NVMe систем с окончанием “MACH” в названии моделей - полный список привели в таблицах ниже. Мы заказали не самую базовую, а более продвинутую модель, которую сочли самой универсальной, подходящей под потребности большинства клиентов и стали потирая руки ждать заказанное железо. 

Модели Hybrid/Flash

Model 

MPS2500G2

MPS3000G2-24D

MPS5520G2

MPS5580G2

MPS7000G2

Product forms

dual-control, disk-control integrated

dual-control, disk-control integrated

dual-control, disk-control integrated

dual-control, disk-control separated

dual-control, disk-control separated

Max. controllers

16

24

32

32

48

Dual-control Max. cache

128GB

256GB

1.5TB

1.5TB

3TB

Max. disks

1200/dual-control

1600/dual-control

3200/dual-control

3200/dual-control

3200/dual-control

Hard disk drive

SSD, SAS, NL-SAS, SATA

NVMe, SSD, SAS, NL-SAS, SATA

Dual-control

IO module

2

4

6

22

16

Dual-control max. host interfaces

34

42

54

80

72

Front-end supporting

FC, iSCSI

FC, iSCSI, NVMe over FC, NVMe over RoCE

Front-end port type

1/10/25/40/100G  Ethernet module, 8/16/32G FC module, 10G FCoE module

Expansion cabinet type

4U24

2U25

4U24

2U25

2U25(NVMe)

Модели All-NVMe

Model 

MPS5500G2

-Mach

MPS7000G2

-Mach

Product forms

dual-control,

disk-control integrated

dual-control, 

disk-control integrated

Max. controllers

32

48

Dual-control Max. cache

1.5TB

3TB

Max. disks

25/dual-control

(expansible)

50/dual-control

Hard disk drive

NVMe

Dual-control

IO module

4

4

Dual-control max. host interfaces

32

36

Front-end supporting

FC, iSCSI, NVMe over FC, NVMe over RoCE

Front-end port type

1/10/25/40/100G  Ethernet module, 8/16/32G FC module, 10G FCoE module

Expansion cabinet type

2U25(NVMe)                                                            no

Ну как же без сюрприза

Ура, приехало! Инсталляция довольно простая, без особенностей — поставили в стойку, подключили и запустили. Опытный инженер, который видел эту СХД впервые, справился с монтажом и базовой настройкой примерно за два часа.

1. Контроллер. 2. Планки кэш-памяти контроллеров с радиатором процессора. 3. IO-модули 10 и 16 Гбит.   4. М.2 модуль для загрузки системы.
1. Контроллер. 2. Планки кэш-памяти контроллеров с радиатором процессора. 3. IO-модули 10 и 16 Гбит. 4. М.2 модуль для загрузки системы.

Выглядит вполне себе как enterprise-решение снаружи и внутри. Первое впечатление подпортила лишь нерабочая батарея — непонятно, то ли заводской брак, то ли пострадала при транспортировке, но осадочек остался.

Та самая батарея (сверху) - устанавливается внутрь единого батарейного и FAN-модуля
Та самая батарея (сверху) - устанавливается внутрь единого батарейного и FAN-модуля
Вид батарейного и FAN-модуля спереди. Он же отвечает за охлаждение прилегающего к нему контроллера
Вид батарейного и FAN-модуля спереди. Он же отвечает за охлаждение прилегающего к нему контроллера

Зато сразу проверили, как работает сервис производителя. Нет худа без добра, как говорится.

Спойлер

Поддержка самая что ни на есть официальная и реально работает— еще расскажем об этом отдельно. Это важный момент: бывает, привезешь железо, и хорошо, если все работает и не приходится сталкиваться с гарантийной заменой. И можно сильно приуныть от того, как все долго и трудно. Нам же сразу подтвердили, что батарея неисправна — посмотрели по логам, проанализировали телеметрию и отправили новую запчасть.

Первоначальная настройка СХД тоже не вызвала особых проблем. User guide на английском - это типовое. Однако, в нем есть только базовые вещи. Что-то посложней, например Rest API, описано только на китайском, но нам не привыкать.

Ну а что? Понятная инструкция!
Ну а что? Понятная инструкция!

В ней вполне реально разобраться, если прогнать через онлайн-переводчик. С более глубокими вопросами мы уже обращаемся к вендору, а он дает развернутый ответ. По крайней мере, старается.

Что там приехало такое интересное

У Maipu в линейке есть модели all flash, которые полностью построены на NVMe, а к нам на тесты попал hybrid flash storage, система хранения данных, которая поддерживает NVMe, SSD, SAS, NL-SAS, SATA.  Аппаратно это — центральный контроллер, в него можно установить 24 диска на 3,5 и 2,5 дюйма, плюс дополнительные дисковые полки.

Конфигурация СХД: 

  • MPS5520G2-AF storage controller dual controllers;

  • 16Gb-FC-IO modules, 4 штуки (I/O Модуль 16GB FC 4 портовый);

  • 10GE-iSCSI-IO module, 2 штуки (I/O Модуль 10GB ethernet  4 портовый);

  • Полка расширения 25 дисков SFF 2.5” , 1 штука;

  • Диски SAS SSD 3.84TB, 25 штук;

  • Кэш 512 гб  на массив (256 на контроллер);

  • 1GbE Base-T встроенные порты, 4 штуки;

  • 1GbE Base-T management port встроенные порты, 2 штуки;

  • 10 GbE SFP+ , 8 штук .

Мы установили в лаборатории сразу пару таких систем (кодовые имена Biba и Boba), чтобы проверить их функциональность вместе и по отдельности.

Biba в левом верхнем углу, Boba — в нижнем (да, мы их различаем), справа вверху SSD из полки, справа внизу — 1 из 4 дисков на которых живет операционная система массива
Biba в левом верхнем углу, Boba — в нижнем (да, мы их различаем), справа вверху SSD из полки, справа внизу — 1 из 4 дисков на которых живет операционная система массива

Тестовый стенд выглядел так: 

  • 4 x лезвия dell poweredge m620 в каждом из которых:

    • 2 x Intel(R) Xeon(R) CPU E5-2660 0 @ 2.20GHz;

    • RAM 128 GB;

  • 2 x SAN-коммутатора FC 8 GB.

Получилась так называемая симметричная Dual-Active схема. Ее смысл в том, чтобы взять пару СХД, установить в разных ЦОД и резервировать данные. Получается катастрофоустойчивая инфраструктура — даже если целый дата-центр выйдет из строя, то сохранность информации обеспечит вторая СХД. Все живет и растянуто на двух ЦОД и переключается автоматически. При этом инфраструктура, приложения и пользователи даже не заметят сбоя. В общем, классический метрокластер.

А что система может в реальности?

Мы уже сталкивались с тем, что у продукции некоторых производителей в реальности работают не все заявленные функции, либо они работают, но не совсем так, как ожидаешь. Поэтому хотели лично проверить, что с Maipu MPS5520G2 все в порядке. Только это позволяет убедиться нам в том, что решение можно использовать в проектах и предлагать заказчикам. 

У нас своя многократно обкатанная методика тестирования, которая состоит из последовательных блоков: 

  1. Административные тесты.

  2. Тесты конфигурации дисковой подсистемы.

  3. Тестирование интеграции с VMware.

  4. Проверка работы в SSH.

  5. Тестирование работы Rest API.

  6. Проверка работы при одиночном сбое аппаратных компонентов.

  7. Тестирование производительности.

В каждом блоке — множество шагов, которые нужно пройти и зафиксировать результаты.

Например, функциональные тесты административного теста выглядят примерно так: войти в GUI → подключиться к массиву с помощью браузера → попасть в интерфейс управления → зафиксировать 3 варианта результата: что хорошего/возможности и идеи доработки/что плохого, нерабочего. 

Ну что, погнали? Посмотрим, на что способна эта малышка.​​

Проверили производительность синтетическими тестами

Синтетические тестирования мы сначала проводили на платформе виртуализации VMware 6.7 с помощью HCIBench на стенде, о котором я рассказывал выше.

Во всех случаях тестирования мы использовали следующие параметры пула:

  • 24 диска SAS SSD 3.84 TB;

  • размер Cell 1 GB;

  • в основу пула легли популярные рейды, которые используются у заказчиков;

  • политика spare равна двум дискам или пространству равному двум дискам.

Выбирая профили нагрузки, ориентировались на типовые кейсы, с которыми сталкиваемся чаще всего. Также решили сравнить будет ли разница в производительности между CRAID-P и CRAID-V. Посмотрев на тесты, можно сделать вывод, что в данном случае результаты CRAID-P и CRAID-V идентичные. 

Проверили отказоустойчивость

На этом этапе мы по полной нарушаем инструкцию по эксплуатации. Прямо во время работы вырубаем питание, выдергиваем жесткие диски и всячески издеваемся над СХД. В результате одновременное извлечение блоков питания контроллеров и полок, самих контроллеров, I/O модулей, SAS и FC-кабелей ожидаемо не повлияло на доступность данных. Отметили только небольшую просадку на время перестроения путей.

Метрокластер тоже не вызвал никаких вопросов и отработал ожидаемо.

Все хорошо, но есть нюансы

В целом тесты дали положительные результаты — вся заявленная функциональность отрабатывает корректно. Массив прост и понятен в администрировании: очевидно, куда нужно нажать, если хочешь, например, сделать снапшот, или еще что-то. Все очень наглядно.

Но есть и некоторые странности. Например, веб-интерфейс, похоже, позиционируется, как основное средство управление СХД. Подключение через командную строку как бы есть, но используется только специалистами техподдержки. Документации по ней как таковой нет и команды при помощи tab-ов не подбираются. 

Что из технических особенностей: 

  • У контролеров нет централизованного управления. Чтобы изменить настройки, нужно ходить непосредственно на каждый узел.

  • Еще заявлена мультитенантность, но по факту она пока не реализована. 

  • Очень широкая политика настройки прав пользователей: прямо 33 параметра, которыми можно разграничить права на разных уровнях. 

  • Есть проблема с заведением массива в Zabbix. Сейчас обсуждаем с вендором эту тему. Пока нам предоставили шаблон, но он довольно сырой, в нем нет триггеров и графиков, чтобы все заработало, придется сделать их самостоятельно.

Контакты с вендором как отдельный повод для позитива

Взаимодействие с техподдержкой вендора у нас пока складывается исключительно положительное. Помимо гарантийной замены батареи на старте, уже в процессе тестирования мы вместе решали  вопросы по конфигурации СХД. И вот у нас есть чатик в Telegram, куда мы кидаем вопросы. А вендор сразу отвечает или идет уточнять эту информацию у разработчиков.

Была выявлена проблема с настройкой репликационных линков, которые связывают два массива. Как мы сработали: отправляли конфигурацию вендору, он говорил да-да, нет-нет. Однажды даже они подключались удаленно, чтобы что-то проверить, и после проверки дали итоговую конфигурацию, сказали, как подключить — и все работает. 

Для нас это необычный кейс. Ведь обычно как: получил систему и все вопросы задаешь через службу сервисной поддержки, которым присваивается низкий уровень критичности и жди ответа в течение недели. А здесь фактически живое общение с сотрудниками компании, которые быстро и спокойно решают вопросы, даже каверзные.

Что в сухом остатке

После всех тестов и впечатлений резюме по Maipu MPS5520G2 Storage у нас такое: 

  • Это СХД, которую можно привезти легально (с точки зрения вендора) и получить полную поддержку производителя. Совсем как в старые добрые времена. 

  • Все тесты система выдержала достойно — мы планируем активно использовать ее в клиентских проектах. 

  • Пока это самое функциональное решение среди официально доступных, что мы нашли на рынке. С привычными техническими характеристиками, позволяющими закрывать основные задачи бизнеса.

  • Решение подойдет enterprise-компаниям, которым нужна система хранения данных, и они планируют модернизировать или расширить существующую инфраструктуру. 

И в конце вишенка на торте – мы собрали в удобную табличку сравнительный анализ функционала Maipu c решениями российских и ушедших иностранных вендоров.

А дополнительным бонусом вы можете запросить полную сравнительную таблицу по имеющимся решениям у меня - AlZotov@k2.tech

Комментарии (6)


  1. Sabirman
    25.05.2023 13:40
    +1

    А есть рекомендации по использованию для баз данных ? 4.57 - довольно большое время отклика.


    1. alzotov Автор
      25.05.2023 13:40

      Запросим рекомендации у вендора, пришлите профиль нагрузки вашей базы.


  1. Samhuawei
    25.05.2023 13:40

    Я уж грешным делом подумал что и железо там китайское. Ан нет, Интел Ксеон. То есть механизм давления на контору прост до безобразия. А значит сервисные контракты не стоят той бумаги на которой они напечатаны.


    1. alzotov Автор
      25.05.2023 13:40
      +1

      Во-первых, мы предоставляем нашим заказчикам сервисную поддержку. У нас команда инженеров с многолетним опытом обеспечения саппорта для ключевых заказчиков в режиме 24*7 с жестким SLA. Мы формируем свои склады ЗИП, у нас круглосуточно доступна группа дежурных инженеров. Поэтому, я бы сильно не беспокоился. Партнеры отлично закрывают практически все запросы заказчиков.

      Во-вторых на самом деле все вендоры на рынке находятся в плюс-минус одинаковых условиях. Но тут все-таки преимущество в наличии прямых поставок и прямой вендорской поддержки. Это важно для наших заказчиков.


  1. cugoonderr
    25.05.2023 13:40

    чем кунап то не усроил тот же китай или ето не достатчно enterprise уровень для уас


    1. alzotov Автор
      25.05.2023 13:40
      +3

      Я бы сказал, что у вендоров и решений совершенно разное позиционирование по инфраструктурам, где они применимы. СХД от Maipu - это другой уровень по функционалу, отказоустойчивости, характеристикам.

      QNAP - это все же SMB преимущественно, Maipu - хороший mid-range и решает задачи большинства корпоративных заказчиков.