Чем заменить на санкционном безрыбье системы хранения данных Dell, HPE, Huawei и других покинувших нас вендоров? Мы уже долго изучаем этот вопрос и протестировали большинство доступных альтернатив enterprise-уровня.
И что думаете? Кажется, нашли приемлемое решение — СХД китайского вендора Maipu с привычными функциями, перспективными возможностями и не только. Мы привезли его в лабораторию и первыми на российском рынке протестировали — срочно делимся впечатлениями и результатами.
Мы регулярно проводим эксперименты: тесты серверов, систем хранения данных и разнообразного инфраструктурного софта — это обычная практика. У нас накопленная база знаний и приличный опыт. Большую часть железа покупаем сами, что-то получаем от вендоров, тестируем и формируем демо-фонд, который предлагаем заказчикам.
Купили Maipu посмотреть что к чему
С этими китайцами мы уже знакомы и довольно тесно работали в 2022 году в части телекоммуникационного оборудования. Реализовали несколько проектов — вендор неплохо себя проявил, заказчикам и коллегам зашло. В результате в этом году число наших совместных проектов кратно выросло.
И вот мы решили попробовать СХД Maipu, которые в Китае используют многие госструктуры и банки, местный аналог РЖД и всякие крупные предприятия.
Особенно вдохновляло, что функциональное описание модели обещало все привычные возможности: поддержку репликации: как в режиме active-active метрокластера, так и просто синхронную/асинхронную, снепшоты, клоны, QoS и т. д. Вот она — полноценная mid-range СХД, похоже, единственная на рынке с официальной поставкой и прямой гарантией от производителя.
Мы приобрели в лабу пару Maipu MPS5520G2 в исполнении all-flash. Они относятся к самым ходовым системам хранения, которые закрывают потребности большинства компаний. Эта модель СХД предлагает хорошую производительность и функциональность и подходит для решения распространенных бизнес-задач.
Смотрим, что представляет собой MPS5520G2 на бумаге:
Шасси высотой 4U, в которое установлены два контроллера (SPs), 2 блока питания, 2 FAN-модуля, 2 батарейных модуля, 24 слота под диски 3.5/2.5, 6 IO-модулей (по 3 на контроллер);
У каждого контроллера встроены 3 интерфейса Ethernet 1 Гбит/с и 4 интерфейса Ethernet 10 Гбит/с. Дополнительные порты добавляются IO-модулями 10/25/40/100 Gb/s Ethernet, 8/16/32gb/s FC, 10Gb/s FCoE и др.;
Вертикально расширяется дисковыми полками SAS до 3200 дисков на пару контроллеров;
Горизонтально расширяется до 32 контроллеров;
Поддерживает метрокластер (symmetric dual-active), репликацию, зеркалирование, снэпшоты;
Поддерживает кэш объемом до 1,5 ТБ, что повышает производительность хранилища;
Использует открытое программное обеспечение для управления хранением данных и открытый API-интерфейс.
Вообще у Maipu большая линейка хранилищ - гибридные/флеш модели от простого начального уровня до производительных и хорошо масштабируемых, а также отдельная линейка all-NVMe систем с окончанием “MACH” в названии моделей - полный список привели в таблицах ниже. Мы заказали не самую базовую, а более продвинутую модель, которую сочли самой универсальной, подходящей под потребности большинства клиентов и стали потирая руки ждать заказанное железо.
Модели Hybrid/Flash
Model |
MPS2500G2 |
MPS3000G2-24D |
MPS5520G2 |
MPS5580G2 |
MPS7000G2 |
Product forms |
dual-control, disk-control integrated |
dual-control, disk-control integrated |
dual-control, disk-control integrated |
dual-control, disk-control separated |
dual-control, disk-control separated |
Max. controllers |
16 |
24 |
32 |
32 |
48 |
Dual-control Max. cache |
128GB |
256GB |
1.5TB |
1.5TB |
3TB |
Max. disks |
1200/dual-control |
1600/dual-control |
3200/dual-control |
3200/dual-control |
3200/dual-control |
Hard disk drive |
SSD, SAS, NL-SAS, SATA |
NVMe, SSD, SAS, NL-SAS, SATA |
|||
Dual-control IO module |
2 |
4 |
6 |
22 |
16 |
Dual-control max. host interfaces |
34 |
42 |
54 |
80 |
72 |
Front-end supporting |
FC, iSCSI |
FC, iSCSI, NVMe over FC, NVMe over RoCE |
|||
Front-end port type |
1/10/25/40/100G Ethernet module, 8/16/32G FC module, 10G FCoE module |
||||
Expansion cabinet type |
4U24 2U25 |
4U24 2U25 2U25(NVMe) |
Модели All-NVMe
Model |
MPS5500G2 -Mach |
MPS7000G2 -Mach |
Product forms |
dual-control, disk-control integrated |
dual-control, disk-control integrated |
Max. controllers |
32 |
48 |
Dual-control Max. cache |
1.5TB |
3TB |
Max. disks |
25/dual-control (expansible) |
50/dual-control |
Hard disk drive |
NVMe |
|
Dual-control IO module |
4 |
4 |
Dual-control max. host interfaces |
32 |
36 |
Front-end supporting |
FC, iSCSI, NVMe over FC, NVMe over RoCE |
|
Front-end port type |
1/10/25/40/100G Ethernet module, 8/16/32G FC module, 10G FCoE module |
|
Expansion cabinet type |
2U25(NVMe) no |
Ну как же без сюрприза
Ура, приехало! Инсталляция довольно простая, без особенностей — поставили в стойку, подключили и запустили. Опытный инженер, который видел эту СХД впервые, справился с монтажом и базовой настройкой примерно за два часа.
Выглядит вполне себе как enterprise-решение снаружи и внутри. Первое впечатление подпортила лишь нерабочая батарея — непонятно, то ли заводской брак, то ли пострадала при транспортировке, но осадочек остался.
Зато сразу проверили, как работает сервис производителя. Нет худа без добра, как говорится.
Спойлер
Поддержка самая что ни на есть официальная и реально работает— еще расскажем об этом отдельно. Это важный момент: бывает, привезешь железо, и хорошо, если все работает и не приходится сталкиваться с гарантийной заменой. И можно сильно приуныть от того, как все долго и трудно. Нам же сразу подтвердили, что батарея неисправна — посмотрели по логам, проанализировали телеметрию и отправили новую запчасть.
Первоначальная настройка СХД тоже не вызвала особых проблем. User guide на английском - это типовое. Однако, в нем есть только базовые вещи. Что-то посложней, например Rest API, описано только на китайском, но нам не привыкать.
В ней вполне реально разобраться, если прогнать через онлайн-переводчик. С более глубокими вопросами мы уже обращаемся к вендору, а он дает развернутый ответ. По крайней мере, старается.
Что там приехало такое интересное
У Maipu в линейке есть модели all flash, которые полностью построены на NVMe, а к нам на тесты попал hybrid flash storage, система хранения данных, которая поддерживает NVMe, SSD, SAS, NL-SAS, SATA. Аппаратно это — центральный контроллер, в него можно установить 24 диска на 3,5 и 2,5 дюйма, плюс дополнительные дисковые полки.
Конфигурация СХД:
MPS5520G2-AF storage controller dual controllers;
16Gb-FC-IO modules, 4 штуки (I/O Модуль 16GB FC 4 портовый);
10GE-iSCSI-IO module, 2 штуки (I/O Модуль 10GB ethernet 4 портовый);
Полка расширения 25 дисков SFF 2.5” , 1 штука;
Диски SAS SSD 3.84TB, 25 штук;
Кэш 512 гб на массив (256 на контроллер);
1GbE Base-T встроенные порты, 4 штуки;
1GbE Base-T management port встроенные порты, 2 штуки;
10 GbE SFP+ , 8 штук .
Мы установили в лаборатории сразу пару таких систем (кодовые имена Biba и Boba), чтобы проверить их функциональность вместе и по отдельности.
Тестовый стенд выглядел так:
-
4 x лезвия dell poweredge m620 в каждом из которых:
2 x Intel(R) Xeon(R) CPU E5-2660 0 @ 2.20GHz;
RAM 128 GB;
2 x SAN-коммутатора FC 8 GB.
Получилась так называемая симметричная Dual-Active схема. Ее смысл в том, чтобы взять пару СХД, установить в разных ЦОД и резервировать данные. Получается катастрофоустойчивая инфраструктура — даже если целый дата-центр выйдет из строя, то сохранность информации обеспечит вторая СХД. Все живет и растянуто на двух ЦОД и переключается автоматически. При этом инфраструктура, приложения и пользователи даже не заметят сбоя. В общем, классический метрокластер.
А что система может в реальности?
Мы уже сталкивались с тем, что у продукции некоторых производителей в реальности работают не все заявленные функции, либо они работают, но не совсем так, как ожидаешь. Поэтому хотели лично проверить, что с Maipu MPS5520G2 все в порядке. Только это позволяет убедиться нам в том, что решение можно использовать в проектах и предлагать заказчикам.
У нас своя многократно обкатанная методика тестирования, которая состоит из последовательных блоков:
Административные тесты.
Тесты конфигурации дисковой подсистемы.
Тестирование интеграции с VMware.
Проверка работы в SSH.
Тестирование работы Rest API.
Проверка работы при одиночном сбое аппаратных компонентов.
Тестирование производительности.
В каждом блоке — множество шагов, которые нужно пройти и зафиксировать результаты.
Например, функциональные тесты административного теста выглядят примерно так: войти в GUI → подключиться к массиву с помощью браузера → попасть в интерфейс управления → зафиксировать 3 варианта результата: что хорошего/возможности и идеи доработки/что плохого, нерабочего.
Ну что, погнали? Посмотрим, на что способна эта малышка.
Проверили производительность синтетическими тестами
Синтетические тестирования мы сначала проводили на платформе виртуализации VMware 6.7 с помощью HCIBench на стенде, о котором я рассказывал выше.
Во всех случаях тестирования мы использовали следующие параметры пула:
24 диска SAS SSD 3.84 TB;
размер Cell 1 GB;
в основу пула легли популярные рейды, которые используются у заказчиков;
политика spare равна двум дискам или пространству равному двум дискам.
Выбирая профили нагрузки, ориентировались на типовые кейсы, с которыми сталкиваемся чаще всего. Также решили сравнить будет ли разница в производительности между CRAID-P и CRAID-V. Посмотрев на тесты, можно сделать вывод, что в данном случае результаты CRAID-P и CRAID-V идентичные.
Проверили отказоустойчивость
На этом этапе мы по полной нарушаем инструкцию по эксплуатации. Прямо во время работы вырубаем питание, выдергиваем жесткие диски и всячески издеваемся над СХД. В результате одновременное извлечение блоков питания контроллеров и полок, самих контроллеров, I/O модулей, SAS и FC-кабелей ожидаемо не повлияло на доступность данных. Отметили только небольшую просадку на время перестроения путей.
Метрокластер тоже не вызвал никаких вопросов и отработал ожидаемо.
Все хорошо, но есть нюансы
В целом тесты дали положительные результаты — вся заявленная функциональность отрабатывает корректно. Массив прост и понятен в администрировании: очевидно, куда нужно нажать, если хочешь, например, сделать снапшот, или еще что-то. Все очень наглядно.
Но есть и некоторые странности. Например, веб-интерфейс, похоже, позиционируется, как основное средство управление СХД. Подключение через командную строку как бы есть, но используется только специалистами техподдержки. Документации по ней как таковой нет и команды при помощи tab-ов не подбираются.
Что из технических особенностей:
У контролеров нет централизованного управления. Чтобы изменить настройки, нужно ходить непосредственно на каждый узел.
Еще заявлена мультитенантность, но по факту она пока не реализована.
Очень широкая политика настройки прав пользователей: прямо 33 параметра, которыми можно разграничить права на разных уровнях.
Есть проблема с заведением массива в Zabbix. Сейчас обсуждаем с вендором эту тему. Пока нам предоставили шаблон, но он довольно сырой, в нем нет триггеров и графиков, чтобы все заработало, придется сделать их самостоятельно.
Контакты с вендором как отдельный повод для позитива
Взаимодействие с техподдержкой вендора у нас пока складывается исключительно положительное. Помимо гарантийной замены батареи на старте, уже в процессе тестирования мы вместе решали вопросы по конфигурации СХД. И вот у нас есть чатик в Telegram, куда мы кидаем вопросы. А вендор сразу отвечает или идет уточнять эту информацию у разработчиков.
Была выявлена проблема с настройкой репликационных линков, которые связывают два массива. Как мы сработали: отправляли конфигурацию вендору, он говорил да-да, нет-нет. Однажды даже они подключались удаленно, чтобы что-то проверить, и после проверки дали итоговую конфигурацию, сказали, как подключить — и все работает.
Для нас это необычный кейс. Ведь обычно как: получил систему и все вопросы задаешь через службу сервисной поддержки, которым присваивается низкий уровень критичности и жди ответа в течение недели. А здесь фактически живое общение с сотрудниками компании, которые быстро и спокойно решают вопросы, даже каверзные.
Что в сухом остатке
После всех тестов и впечатлений резюме по Maipu MPS5520G2 Storage у нас такое:
Это СХД, которую можно привезти легально (с точки зрения вендора) и получить полную поддержку производителя. Совсем как в старые добрые времена.
Все тесты система выдержала достойно — мы планируем активно использовать ее в клиентских проектах.
Пока это самое функциональное решение среди официально доступных, что мы нашли на рынке. С привычными техническими характеристиками, позволяющими закрывать основные задачи бизнеса.
Решение подойдет enterprise-компаниям, которым нужна система хранения данных, и они планируют модернизировать или расширить существующую инфраструктуру.
И в конце вишенка на торте – мы собрали в удобную табличку сравнительный анализ функционала Maipu c решениями российских и ушедших иностранных вендоров.
А дополнительным бонусом вы можете запросить полную сравнительную таблицу по имеющимся решениям у меня - AlZotov@k2.tech
Комментарии (6)
Samhuawei
25.05.2023 13:40Я уж грешным делом подумал что и железо там китайское. Ан нет, Интел Ксеон. То есть механизм давления на контору прост до безобразия. А значит сервисные контракты не стоят той бумаги на которой они напечатаны.
alzotov Автор
25.05.2023 13:40+1Во-первых, мы предоставляем нашим заказчикам сервисную поддержку. У нас команда инженеров с многолетним опытом обеспечения саппорта для ключевых заказчиков в режиме 24*7 с жестким SLA. Мы формируем свои склады ЗИП, у нас круглосуточно доступна группа дежурных инженеров. Поэтому, я бы сильно не беспокоился. Партнеры отлично закрывают практически все запросы заказчиков.
Во-вторых на самом деле все вендоры на рынке находятся в плюс-минус одинаковых условиях. Но тут все-таки преимущество в наличии прямых поставок и прямой вендорской поддержки. Это важно для наших заказчиков.
cugoonderr
25.05.2023 13:40чем кунап то не усроил тот же китай или ето не достатчно enterprise уровень для уас
alzotov Автор
25.05.2023 13:40+3Я бы сказал, что у вендоров и решений совершенно разное позиционирование по инфраструктурам, где они применимы. СХД от Maipu - это другой уровень по функционалу, отказоустойчивости, характеристикам.
QNAP - это все же SMB преимущественно, Maipu - хороший mid-range и решает задачи большинства корпоративных заказчиков.
Sabirman
А есть рекомендации по использованию для баз данных ? 4.57 - довольно большое время отклика.
alzotov Автор
Запросим рекомендации у вендора, пришлите профиль нагрузки вашей базы.