Ряд предыдущих статей мы посвятили подробным обзорам различных продуктов Qsan. В основном это были их блочные СХД серий XCubeSAN и All Flash массивы XCubeFAS. Выбор объектов для обзоров был не случаен. Ведь именно эти серии составляют львиную долю продаж не только в РФ (в том числе благодаря нам), но и во всем мире. Надежность и высокая производительность, вкупе с простым и понятным управлением, сделали продукты весьма популярными. Однако, в настоящее время сугубо блочные СХД уже не выглядят локомотивом прогресса. Поэтому настало время поговорить о Unified системах Qsan – серии XCubeNXT.

Данная линейка является уже вторым поколением NXT и формально существует на рынке с конца 2023 года. Несмотря на это, мы не торопились продвигать ее главным образом из-за того, что ряд ключевых и весьма интересных функций был не доступен в момент старта продаж. Сейчас же, наконец, даташит начал воплощаться в реальность. И поэтому есть повод для обзора.

На всякий случай напомним, что Unified в терминах СХД – это наличие как блочного, так и файлового доступа в рамках единого устройства. Подавляющее большинство современных СХД именно Unified. В отличие от чисто блочных устройств, в таких СХД обязательно присутствует внутренняя файловая система, поверх которой работают те или иные сервисы. Именно наличие файловой системы позволяет реализовать множество высокоуровневых функций. Давайте же посмотрим, что здесь предлагает Qsan.

Hardware

Аппаратная часть полностью заимствована от блочных СХД XCubeSAN. Т.е. физически это – те же самые СХД, но работающие под управлением иной операционной системы – QSM4. Выбор «железа» был не случаен, т.к. использование отлично зарекомендовавшей себя и со всех сторон обкатанной платформы позволяет нивелировать «детские болячки» и сразу предложить надежное решение. Да и унификацию компонентов также стоит иметь в виду. Кратко напомним основные аппаратные характеристики, а с подробностями можно ознакомится в нашей предыдущей статье.

  • Контроллеры двух серий XN8100 и XN5100. Основное отличие – более мощный процессор и удвоенный объем ОЗУ (16ГБ против 8ГБ) в старшей модели

  • Порты ввода/вывода по умолчанию (на контроллер): 4x 10GbE sfp+ и 1x 1GbE (по идее играет роль Management, но при желании может использоваться и для данных), 2x SAS 12G для подключения полок расширения

  • В каждом контроллере есть два слота для опциональных карт: 4x 10GbE SFP+, 2x/4x 25GbE, 2x/4x FC 16G, 2x FC 32G

  • Доступны корпуса LFF: 2U12/3U16/4U24 и SFF 2U26

  • Расширение полками серии XCubeDAS и сторонними полками высокой плотности WD/Seagate

Сразу отметим, что несмотря на полное аппаратное совпадение с серией XCubeSAN, переход SAN -> Unified или обратно не предусмотрен. Все же программные отличия (в том числе и микропрограммные) очень велики.

Software

В качестве управляющей операционной системы, как уже отмечалось, используется QSM4. Внешне она очень похожа на Xevo, так что навыки работы с ней могут пригодиться. Как и в SAN системах, используется принцип минимального лицензирования функционала. Здесь существуют всего лишь две платные лицензии: синхронная репликация для блочных ресурсов и дедупликация для файловых ресурсов. Остальной функционал доступен «из коробки».

Для блочных протоколов (iSCSI и Fibre Channel) доступны:

  • SSD кэш

  • Auto tiering

  • Снапшоты

  • Клоны

  • Асинхронная репликация (работает через iSCSI независимо от используемого протокола)

Для файловых протоколов (CIFS, NFS, FTP) доступны:

  • SSD кэш

  • Auto tiering

  • Rsync (в том числе real time – аналог синхронной репликации)

  • Дедупликация и компрессия

Отметим, что ряд функций (размер SSD кэша, максимальный размер дедуплицируемых данных) напрямую зависит от размера ОЗУ в контроллере. Т.е. чем больше объем ОЗУ, тем выше показатели упомянутых функций. Подробности, разумеется, есть в документации.

Радует, что весьма востребованные функции вроде SSD кэша и Auto Tiering доступны бесплатно. Расстраивает, что дедупликация доступна лишь для файловых ресурсов и работает только на SSD пулах. На наш взгляд это – весьма спорное решение. Но, как сказал классик, «жираф большой, ему видней».

Производительность

Не будем скрывать, что в первую очередь нам хотелось бы увидеть, насколько серия NXT будет отставать от XCubeSAN, построенной на той же аппаратной платформе. В том, что отставание будет, сомнений изначально не было. Все же наличие дополнительной прослойки в виде внутренней файловой системы не может остаться бесследным по сравнению с прямым доступом к дискам в SAN. Однако потенциальное наличие различных оптимизаций в софте может значительно сократить отставание.

Скрытый текст

Использовались СХД XCubeSAN XS5326D и XCubeNXT 8126D с ОЗУ 32GB на контроллер, 24x SSD Samsung PM1643a 960GB, 2 пула RAID6 из 12 SSD, 8 томов на пул, тома распределены между двумя серверами с прямым подключением к встроенным портам 10GbE (4 порта на сервер), использовалось ПО fio

XS5326 iSCSI

XN8126 iSCSI

XN8126 CIFS

XN8126 NFS

Sequential read 128KB

7950 MB/s

5900 MB/s

4100 MB/s

4300 MB/s

Sequential write 128KB

6435 MB/s

4450 MB/s

2500 MB/s

2600 MB/s

Random read 4KB

790K IOPS

420K IOPS

165K IOPS

180K IOPS

Random write 4KB

165K IOPS

120K IOPS

80K IOPS

90K IOPS

Разница при использовании iSCSI, конечно, заметна. Однако, фатального провала не наблюдается. Что же касается файловых протоколов, то их производительность заметно ниже блочных просто из-за специфики работы самих протоколов. Впрочем, будем надеяться, что еще имеется пространство для тюнинга со стороны программной части. И в будущем мы сможем наблюдать более интересные результаты.

Выводы

На первый взгляд серия XCubeNXT выглядит весьма привлекательно. Тем более, что Unified системы обычно воспринимаются как некие универсальные устройства для всех типов задач. Если требуется только блочный доступ, то можно рассматривать как NXT, так и уже хорошо зарекомендовавшую серию XCubeSAN. Если же цель – именно файловое хранилище (в том числе набирающая популярность NFS в виртуализации на базе Linux в виде Proxmox и пр.), то тут, конечно, NXT - безальтернативное решение среди продуктов Qsan.

Комментарии (2)


  1. ildarz
    05.09.2024 11:52

    Random read 4KB

    790K IOPS

    А как вы эти цифры получаете, можете подробнее расписать? С 4-х 25G портов у меня больше ~220К не получается снять на этих полках, причем, похоже, упирается именно в таргет - увеличение количества хостов/iscsi сессий и т.п. ничего не дает. У дисковой производительность заведомо избыточна (сейчас вот на рейд-0 из 7 pm1643a смотрю, но и на большем количестве мерял).


    1. Skilline Автор
      05.09.2024 11:52

      2 пула, 8 томов на каждом пуле. 2 физических сервера.

      Пропускной способности вполне хватит и на 4x 10GbE, в принципе