Сегодня мы расскажем о масштабируемой системе хранения данных начального уровня DX 100 S3 компании Fujitsu. Причем акцент на масштабируемость и унификацию делается неспроста. Дело в том, что данная система может расширяться до старших моделей путем простой замены контроллерных блоков и имеет возможность предоставлять как блочный (через Fibre Channel, FCoE, iSCSI, SAS и InfiniBand), так и файловый доступ к данным (NFS), причем без каких бы то ни было дополнительных устройств (файлеров). Хотя нужно отметить, что есть возможность сэкономить: если файловый доступ не требуется, можно приобрести версию, в заводской комплектации которой в контроллерном блоке будет отсутствовать плата, отвечающая за файловый доступ.

Данная система принадлежит к обновленной линейке ETERNUS S3, получившей интерфейс SAS3 (12 Gbit SAS), что вдвое увеличило ее пропускную способность. А ОС VxWorks (разработанная компанией Wind River Systems), на которой работает СХД, является многопоточной 64-разрядной операционной системой реального времени, обеспечивающей высокую производительность и безопасность. Подобная операционная система применяется в космической программе NASA, в частности, под ее управлением осуществлялась посадка аппарата Curiosity на поверхность Марса.

Основные функции и преимущества СХД ETERNUS DX 100 S3:
  • Резерв производительности и емкости, обеспечивающий объединение данных для виртуализации серверов, электронной почты, баз данных и коммерческих приложений в одной системе
  • Поддержка высоких темпов роста объема данных при низких затратах и защита капиталовложений благодаря высокой степени расширяемости в пределах системы и возможности перехода к более мощным системам
  • Включенный в стоимость пакет ПО ETERNUS SF Express Management с широким набором функций
  • Гибкость аварийного восстановления
  • Встроенные интеллектуальные функции формирования моментальных снимков для резервного копирования
  • Удобная и экономичная эксплуатация с минимальными затратами усилий на администрирование
  • Применение унифицированной системы доступа к дисковым накопителям SAN и NAS, способствующей быстрой окупаемости
  • Снижение затрат на эксплуатацию за счет унификации функций управления во всех системах данного семейства
  • Поддерживается широкий диапазон и различные комбинации типов сетей, а также прямое подключение к серверу
  • Поддержка различных сочетаний дисков размеров 2,5 и 3,5 дюйма


Технические характеристики:
  • Интерфейсы – Fibre Channel (до 16 Гбит/с), FCoE (10 Гбит/с), iSCSI (10/1 Гбит/с), SAS (12/6/3 Гбит/с), CIFS, NFS
  • Дисковые устройства (максимально) – 144 x SSD, SAS и Nearline SAS в смешанных конфигурациях (3,5 дюйма/2,5 дюйма)
  • Вместимость (максимально) – 576 TB
  • Кол-во хост-интерфейсов – 4
  • Кол-во подключаемых хост-портов – макс. 1024
  • Уровень RAID – 0, 1, 1+0, 5, 5+0, 6


Конфигурация тестируемой системы:
  • СХД Fujitsu ETERNUS DX 100S3 с блочным доступом, коммутация по каналу FC 8 Gbit.
  • 10 дисков SAS 900 GB/10K rpm – RAID 10
  • Сервер Fujitsu PRIMERGY RX200 S8, Intel Xeon E5-2660, 8x8Gb RAM, 2x QLogic FC HBA
  • ESXi 5.5 + vm Windows Server 2012R2 + LUN 100GB




С точки зрения физического исполнения устройства придраться не к чему, но и выделить что-либо особенное тоже не получится. ETERNUS DX 100 S3 – добротная система, сделанная из качественных материалов, с уже устоявшимся среди всех производителей дизайном, продиктованным стоечным исполнением.

Графический интерфейс управления СХД аскетичен и ничем особым не выделяется, это все те же верхние вкладки с горизонтальными древовидными подпунктами и таблицами выбора параметров. Самой слабой стороной данного интерфейса можно назвать реализацию мониторинга производительности, он как бы есть, но присутствует скорее «для галочки». Первое что напрягает – то, что мониторинг нужно включить обязательно, иначе показания будут ровны нулю, а включение его происходит совершенно в другом меню, так что не сразу и найдёшь. Но и после включения мы получаем ненастраиваемый перечень показаний, без каких бы то ни было графиков и визуализации, правда, с возможностью сохранения лога за некоторый период времени. Но всю неприглядность GUI компенсирует без преувеличения выдающееся в данном сегменте систем хранения данных количество настроек. Например, гибкое конфигурирование маппинга, как по портам, так и по порт-группам, LUN-группам и хостам. Есть возможность выбора режима работы с хостом, а именно: мы можем выбрать, по какой схеме будет работать асимметричный доступ к логическому диску ALUA (Asymmetric Logical Unit Access): Active-Active, Active-Passive или Preferred Path. Также мы можем указать, какое количество кэш-памяти будет доступно определенному логическому диску и многое другое.







Исходя из заявлений производителя о том, что данная система является полноценным Active-Active устройством, можно ожидать обработки данных параллельно двумя контроллерными блоками, независимо от контроллера-«владельца» логического диска, что и подтвердилось при тестировании системы. Выбрав режим ALUA Active-Active на стороне СХД и применив политику мультипасинга Round Robin в настройках ESXi для диска, презентуемого гипервизору от DX 100 S3, мы получили два активных канала и распределение нагрузки на оба контроллера. Это видно на графике мониторинга ESXi и показаниями равномерной загрузки CPU обоих контроллеров СХД при записи тестового файла программой IOmeter.



На графике можно увидеть, что общая скорость записываемых данных приблизилась к 500 000 килобайтам в секунду, пропуская через адаптеры (FC HBA – vmhba 1 и 2), подключенные к разным контроллерам, по 250 000 Kb/s.
Ниже показаны усредненные результаты тестирования различными утилитами, работающими в виртуальной ОС Windows Server 2012, развернутой в среде виртуализации VMware ESXi 5.5

AnvilBenchmark








Данные результаты тестирования не однозначны, утилиты Anvil и CrystalDiskMark отразили очень хорошие показатели производительности для данного сегмента, а IOmeter, напротив, ничего выдающегося. Это связанно с тем, что СТАНДАРТНЫЕ синтетические тесты Anvil и CrystalDiskMark имеют заданные параметры, предназначенные больше для тестирования дисков (SSD, HHD) нежели СХД, и отражают, в основном, скорость дисковой подсистемы с учетом быстрого кэша (в нашем случаи 8 Гб, по 4 Гб на контроллер): чем больше кэша и дисков тем больше операций ввода/вывода мы получаем. IOmeter позволяет более гибко нагрузить систему, переполнить кэш, и увеличить очередь запросов. А для достижения максимальных результатов, приближенных к реальной нагрузке, нужно точно знать, чего мы хотим от системы хранения данных – сколько IOPS (Input/Output Operations Per Second) нам нужно (для этого мы набираем нужное количество дисков, иначе системе их просто неоткуда будет взять), какой процент будет приходиться на чтение, а какой на запись, сколько примерно одновременных запросов будет приходить (глубина очереди) и так далее. И здесь возможность гибкой настройки Fujitsu ETERNUS DX придется очень кстати. Но даже если использовать ее «как есть», с параметрами по умолчанию, мы получим максимум возможностей, помноженных на современную надежную программную и аппаратную составляющую.

Подводя итог, стоит отметить два основных фактора, формирующих мнение о Fujitsu ETERNUS DX 100 S3. Первое – легкость ввода в эксплуатацию (никаких ошибок, проблем или затруднений с настройкой и подключением, все понятно и все работает), второе – гибкость системы (это и множество настроек, и возможность получить как блочный, так файловый доступ, а также апгрейд до более производительной системы хранения путем простой замены контроллеров).

Подготовлено по материалу Третьякова Вячеслава, инженера компании «Парадигма». Полную версию статьи смотрите здесь.

Комментарии (3)


  1. quartz64
    18.04.2016 16:15
    +2

    Результаты тестов вызывают большие сомнения. Какие ещё 9 или тем более 65 тысяч IOPS с десяти дисков 10k? Тут кэш 4 ГБ на контроллер, а вы берете CrystalDiskMark с файлом в 500МБ и пытаетесь им что-то измерить, объясняя расхождение результатов с IOmeter туманной фразой про стандартные синтетические тесты. Так нельзя.
    Я охотно верю, что потолок производительности ETERNUS DX100 S3 находится на уровне аналогичных СХД, но «нащупать» его при помощи десятка HDD точно нельзя, тем более такими методами.


    1. NoWE
      19.04.2016 11:04

      Так все эти «9 или тем более 65 тысяч IOPS» как раз и взялись оттого, что CrystalDiskMark по сути кэш и тестировал, а максимальный размер тестового файла он не позволяет выставить более 4 Гб, который так же ложится в рамки существующего кэша (и результат был бы тем же). Отсюда и «туманное» выражение о синтетике тестирования подобных утилит. А с IOmeter можно играться серьезнее, что и позволило выйти за рамки кэша и показать те несчастные 2779.862 IOps, которые и полагаются десяти дискам 10к.
      И целью обзора не было показать потолок производительности (с чего вы взяли?) ETERNUS DX100 S3. Целью обзора был, собственно, обзор, такой, на который хватило времени пребывания у нас СХД и ее дисковых ресурсов. А «нащупать» потолок при помощи десятка HDD" нельзя точно, и не только такими, но и другими методами (опять же, имею в виду ту конфигурацию, что была у нас).
      На счет туманности выводов, отчасти согласен… Наверное, надо было более широко раскрыть мысль.


  1. Fujitsu_Admin
    19.04.2016 11:05

    Согласны с вами. Но изюминкой данного обзора является продемонстрированная в нем простота настройки и поддержка всех современных технологий. Здесь нет даже упоминания о новейших фишках, таких как кэширование на SSD, снимки, поддержка технологий VMware VVOL, Microsoft ODX, и все это в базе, без дополнительных лицензий!
    А что касается потолка производительности, то это, как говорится, it depends. В этом случае лучше смотреть на результаты независимого тестирования, такого как www.storageperfomance.org И вот тут уже результат тестирования DX100S3 всего на 8 дисках SSD – более 55 000 IOPS и это, заметьте, при времени отклика порядка 0,8 мсек.
    Executive Summary
    Full Disclosure Report
    Submitted: 6 October 2014
    При этом стоит заметить, что заявленная производительность массива порядка 150 000 операций ввода-вывода при задержке 1 мс. Это говорит лишь о том, что тест SPC-1 не универсален, и имеет строго определенные рамки проведения нагрузочного тестирования. Внутренние тесты, как правило, у каждого производителя всегда имеют результаты выше как по IOPS, так и по времени отклика.
    Например:
    Sizing Tool for ETERNUS DX
    Connection: SAN
    Workload: Manual setting
    RAID type: RAID1
    Member disk: 1+1
    Disk type: SSD(12Gbps)
    Disk size: 2.5inch
    Disk capacity: 400GB
    Disk speed: SSD
    Access type: Random
    Block size: 8 KB
    R/W rate: 100:0
    Response time: 1,0000 ms
    Read hit rate: 50%
    Host I/F: FC 16Gbps
    Model (CM): ETERNUS DX100 S3(2CM) [V10L50]
    CA / port: 2/4
    Number of RAID: 4

    Performance of 1 RAID: 74509 IOPS
    Performance of estimated configuration: 149018 IOPS (104302 IOPS/TB)
    Number of Disk: 8 disks, 1,42 TB