Ряд предыдущих статей мы посвятили подробным обзорам различных продуктов Qsan. В основном это были их блочные СХД серий XCubeSAN и All Flash массивы XCubeFAS. Выбор объектов для обзоров был не случаен. Ведь именно эти серии составляют львиную долю продаж не только в РФ (в том числе благодаря нам), но и во всем мире. Надежность и высокая производительность, вкупе с простым и понятным управлением, сделали продукты весьма популярными. Однако, в настоящее время сугубо блочные СХД уже не выглядят локомотивом прогресса. Поэтому настало время поговорить о Unified системах Qsan – серии XCubeNXT.
Данная линейка является уже вторым поколением NXT и формально существует на рынке с конца 2023 года. Несмотря на это, мы не торопились продвигать ее главным образом из-за того, что ряд ключевых и весьма интересных функций был не доступен в момент старта продаж. Сейчас же, наконец, даташит начал воплощаться в реальность. И поэтому есть повод для обзора.
На всякий случай напомним, что Unified в терминах СХД – это наличие как блочного, так и файлового доступа в рамках единого устройства. Подавляющее большинство современных СХД именно Unified. В отличие от чисто блочных устройств, в таких СХД обязательно присутствует внутренняя файловая система, поверх которой работают те или иные сервисы. Именно наличие файловой системы позволяет реализовать множество высокоуровневых функций. Давайте же посмотрим, что здесь предлагает Qsan.
Hardware
Аппаратная часть полностью заимствована от блочных СХД XCubeSAN. Т.е. физически это – те же самые СХД, но работающие под управлением иной операционной системы – QSM4. Выбор «железа» был не случаен, т.к. использование отлично зарекомендовавшей себя и со всех сторон обкатанной платформы позволяет нивелировать «детские болячки» и сразу предложить надежное решение. Да и унификацию компонентов также стоит иметь в виду. Кратко напомним основные аппаратные характеристики, а с подробностями можно ознакомится в нашей предыдущей статье.
Контроллеры двух серий XN8100 и XN5100. Основное отличие – более мощный процессор и удвоенный объем ОЗУ (16ГБ против 8ГБ) в старшей модели
Порты ввода/вывода по умолчанию (на контроллер): 4x 10GbE sfp+ и 1x 1GbE (по идее играет роль Management, но при желании может использоваться и для данных), 2x SAS 12G для подключения полок расширения
В каждом контроллере есть два слота для опциональных карт: 4x 10GbE SFP+, 2x/4x 25GbE, 2x/4x FC 16G, 2x FC 32G
Доступны корпуса LFF: 2U12/3U16/4U24 и SFF 2U26
Расширение полками серии XCubeDAS и сторонними полками высокой плотности WD/Seagate
Сразу отметим, что несмотря на полное аппаратное совпадение с серией XCubeSAN, переход SAN -> Unified или обратно не предусмотрен. Все же программные отличия (в том числе и микропрограммные) очень велики.
Software
В качестве управляющей операционной системы, как уже отмечалось, используется QSM4. Внешне она очень похожа на Xevo, так что навыки работы с ней могут пригодиться. Как и в SAN системах, используется принцип минимального лицензирования функционала. Здесь существуют всего лишь две платные лицензии: синхронная репликация для блочных ресурсов и дедупликация для файловых ресурсов. Остальной функционал доступен «из коробки».
Для блочных протоколов (iSCSI и Fibre Channel) доступны:
SSD кэш
Auto tiering
Снапшоты
Клоны
Асинхронная репликация (работает через iSCSI независимо от используемого протокола)
Для файловых протоколов (CIFS, NFS, FTP) доступны:
SSD кэш
Auto tiering
Rsync (в том числе real time – аналог синхронной репликации)
Дедупликация и компрессия
Отметим, что ряд функций (размер SSD кэша, максимальный размер дедуплицируемых данных) напрямую зависит от размера ОЗУ в контроллере. Т.е. чем больше объем ОЗУ, тем выше показатели упомянутых функций. Подробности, разумеется, есть в документации.
Радует, что весьма востребованные функции вроде SSD кэша и Auto Tiering доступны бесплатно. Расстраивает, что дедупликация доступна лишь для файловых ресурсов и работает только на SSD пулах. На наш взгляд это – весьма спорное решение. Но, как сказал классик, «жираф большой, ему видней».
Производительность
Не будем скрывать, что в первую очередь нам хотелось бы увидеть, насколько серия NXT будет отставать от XCubeSAN, построенной на той же аппаратной платформе. В том, что отставание будет, сомнений изначально не было. Все же наличие дополнительной прослойки в виде внутренней файловой системы не может остаться бесследным по сравнению с прямым доступом к дискам в SAN. Однако потенциальное наличие различных оптимизаций в софте может значительно сократить отставание.
Скрытый текст
Использовались СХД XCubeSAN XS5326D и XCubeNXT 8126D с ОЗУ 32GB на контроллер, 24x SSD Samsung PM1643a 960GB, 2 пула RAID6 из 12 SSD, 8 томов на пул, тома распределены между двумя серверами с прямым подключением к встроенным портам 10GbE (4 порта на сервер), использовалось ПО fio
XS5326 iSCSI |
XN8126 iSCSI |
XN8126 CIFS |
XN8126 NFS |
|
Sequential read 128KB |
7950 MB/s |
5900 MB/s |
4100 MB/s |
4300 MB/s |
Sequential write 128KB |
6435 MB/s |
4450 MB/s |
2500 MB/s |
2600 MB/s |
Random read 4KB |
790K IOPS |
420K IOPS |
165K IOPS |
180K IOPS |
Random write 4KB |
165K IOPS |
120K IOPS |
80K IOPS |
90K IOPS |
Разница при использовании iSCSI, конечно, заметна. Однако, фатального провала не наблюдается. Что же касается файловых протоколов, то их производительность заметно ниже блочных просто из-за специфики работы самих протоколов. Впрочем, будем надеяться, что еще имеется пространство для тюнинга со стороны программной части. И в будущем мы сможем наблюдать более интересные результаты.
Выводы
На первый взгляд серия XCubeNXT выглядит весьма привлекательно. Тем более, что Unified системы обычно воспринимаются как некие универсальные устройства для всех типов задач. Если требуется только блочный доступ, то можно рассматривать как NXT, так и уже хорошо зарекомендовавшую серию XCubeSAN. Если же цель – именно файловое хранилище (в том числе набирающая популярность NFS в виртуализации на базе Linux в виде Proxmox и пр.), то тут, конечно, NXT - безальтернативное решение среди продуктов Qsan.
ildarz
А как вы эти цифры получаете, можете подробнее расписать? С 4-х 25G портов у меня больше ~220К не получается снять на этих полках, причем, похоже, упирается именно в таргет - увеличение количества хостов/iscsi сессий и т.п. ничего не дает. У дисковой производительность заведомо избыточна (сейчас вот на рейд-0 из 7 pm1643a смотрю, но и на большем количестве мерял).
Skilline Автор
2 пула, 8 томов на каждом пуле. 2 физических сервера.
Пропускной способности вполне хватит и на 4x 10GbE, в принципе