Сегодня мы расскажем о масштабируемой системе хранения данных начального уровня DX 100 S3 компании Fujitsu. Причем акцент на масштабируемость и унификацию делается неспроста. Дело в том, что данная система может расширяться до старших моделей путем простой замены контроллерных блоков и имеет возможность предоставлять как блочный (через Fibre Channel, FCoE, iSCSI, SAS и InfiniBand), так и файловый доступ к данным (NFS), причем без каких бы то ни было дополнительных устройств (файлеров). Хотя нужно отметить, что есть возможность сэкономить: если файловый доступ не требуется, можно приобрести версию, в заводской комплектации которой в контроллерном блоке будет отсутствовать плата, отвечающая за файловый доступ.
Данная система принадлежит к обновленной линейке ETERNUS S3, получившей интерфейс SAS3 (12 Gbit SAS), что вдвое увеличило ее пропускную способность. А ОС VxWorks (разработанная компанией Wind River Systems), на которой работает СХД, является многопоточной 64-разрядной операционной системой реального времени, обеспечивающей высокую производительность и безопасность. Подобная операционная система применяется в космической программе NASA, в частности, под ее управлением осуществлялась посадка аппарата Curiosity на поверхность Марса.
Основные функции и преимущества СХД ETERNUS DX 100 S3:
- Резерв производительности и емкости, обеспечивающий объединение данных для виртуализации серверов, электронной почты, баз данных и коммерческих приложений в одной системе
- Поддержка высоких темпов роста объема данных при низких затратах и защита капиталовложений благодаря высокой степени расширяемости в пределах системы и возможности перехода к более мощным системам
- Включенный в стоимость пакет ПО ETERNUS SF Express Management с широким набором функций
- Гибкость аварийного восстановления
- Встроенные интеллектуальные функции формирования моментальных снимков для резервного копирования
- Удобная и экономичная эксплуатация с минимальными затратами усилий на администрирование
- Применение унифицированной системы доступа к дисковым накопителям SAN и NAS, способствующей быстрой окупаемости
- Снижение затрат на эксплуатацию за счет унификации функций управления во всех системах данного семейства
- Поддерживается широкий диапазон и различные комбинации типов сетей, а также прямое подключение к серверу
- Поддержка различных сочетаний дисков размеров 2,5 и 3,5 дюйма
Технические характеристики:
- Интерфейсы – Fibre Channel (до 16 Гбит/с), FCoE (10 Гбит/с), iSCSI (10/1 Гбит/с), SAS (12/6/3 Гбит/с), CIFS, NFS
- Дисковые устройства (максимально) – 144 x SSD, SAS и Nearline SAS в смешанных конфигурациях (3,5 дюйма/2,5 дюйма)
- Вместимость (максимально) – 576 TB
- Кол-во хост-интерфейсов – 4
- Кол-во подключаемых хост-портов – макс. 1024
- Уровень RAID – 0, 1, 1+0, 5, 5+0, 6
Конфигурация тестируемой системы:
- СХД Fujitsu ETERNUS DX 100S3 с блочным доступом, коммутация по каналу FC 8 Gbit.
- 10 дисков SAS 900 GB/10K rpm – RAID 10
- Сервер Fujitsu PRIMERGY RX200 S8, Intel Xeon E5-2660, 8x8Gb RAM, 2x QLogic FC HBA
- ESXi 5.5 + vm Windows Server 2012R2 + LUN 100GB
С точки зрения физического исполнения устройства придраться не к чему, но и выделить что-либо особенное тоже не получится. ETERNUS DX 100 S3 – добротная система, сделанная из качественных материалов, с уже устоявшимся среди всех производителей дизайном, продиктованным стоечным исполнением.
Графический интерфейс управления СХД аскетичен и ничем особым не выделяется, это все те же верхние вкладки с горизонтальными древовидными подпунктами и таблицами выбора параметров. Самой слабой стороной данного интерфейса можно назвать реализацию мониторинга производительности, он как бы есть, но присутствует скорее «для галочки». Первое что напрягает – то, что мониторинг нужно включить обязательно, иначе показания будут ровны нулю, а включение его происходит совершенно в другом меню, так что не сразу и найдёшь. Но и после включения мы получаем ненастраиваемый перечень показаний, без каких бы то ни было графиков и визуализации, правда, с возможностью сохранения лога за некоторый период времени. Но всю неприглядность GUI компенсирует без преувеличения выдающееся в данном сегменте систем хранения данных количество настроек. Например, гибкое конфигурирование маппинга, как по портам, так и по порт-группам, LUN-группам и хостам. Есть возможность выбора режима работы с хостом, а именно: мы можем выбрать, по какой схеме будет работать асимметричный доступ к логическому диску ALUA (Asymmetric Logical Unit Access): Active-Active, Active-Passive или Preferred Path. Также мы можем указать, какое количество кэш-памяти будет доступно определенному логическому диску и многое другое.
Исходя из заявлений производителя о том, что данная система является полноценным Active-Active устройством, можно ожидать обработки данных параллельно двумя контроллерными блоками, независимо от контроллера-«владельца» логического диска, что и подтвердилось при тестировании системы. Выбрав режим ALUA Active-Active на стороне СХД и применив политику мультипасинга Round Robin в настройках ESXi для диска, презентуемого гипервизору от DX 100 S3, мы получили два активных канала и распределение нагрузки на оба контроллера. Это видно на графике мониторинга ESXi и показаниями равномерной загрузки CPU обоих контроллеров СХД при записи тестового файла программой IOmeter.
На графике можно увидеть, что общая скорость записываемых данных приблизилась к 500 000 килобайтам в секунду, пропуская через адаптеры (FC HBA – vmhba 1 и 2), подключенные к разным контроллерам, по 250 000 Kb/s.
Ниже показаны усредненные результаты тестирования различными утилитами, работающими в виртуальной ОС Windows Server 2012, развернутой в среде виртуализации VMware ESXi 5.5
AnvilBenchmark
Данные результаты тестирования не однозначны, утилиты Anvil и CrystalDiskMark отразили очень хорошие показатели производительности для данного сегмента, а IOmeter, напротив, ничего выдающегося. Это связанно с тем, что СТАНДАРТНЫЕ синтетические тесты Anvil и CrystalDiskMark имеют заданные параметры, предназначенные больше для тестирования дисков (SSD, HHD) нежели СХД, и отражают, в основном, скорость дисковой подсистемы с учетом быстрого кэша (в нашем случаи 8 Гб, по 4 Гб на контроллер): чем больше кэша и дисков тем больше операций ввода/вывода мы получаем. IOmeter позволяет более гибко нагрузить систему, переполнить кэш, и увеличить очередь запросов. А для достижения максимальных результатов, приближенных к реальной нагрузке, нужно точно знать, чего мы хотим от системы хранения данных – сколько IOPS (Input/Output Operations Per Second) нам нужно (для этого мы набираем нужное количество дисков, иначе системе их просто неоткуда будет взять), какой процент будет приходиться на чтение, а какой на запись, сколько примерно одновременных запросов будет приходить (глубина очереди) и так далее. И здесь возможность гибкой настройки Fujitsu ETERNUS DX придется очень кстати. Но даже если использовать ее «как есть», с параметрами по умолчанию, мы получим максимум возможностей, помноженных на современную надежную программную и аппаратную составляющую.
Подводя итог, стоит отметить два основных фактора, формирующих мнение о Fujitsu ETERNUS DX 100 S3. Первое – легкость ввода в эксплуатацию (никаких ошибок, проблем или затруднений с настройкой и подключением, все понятно и все работает), второе – гибкость системы (это и множество настроек, и возможность получить как блочный, так файловый доступ, а также апгрейд до более производительной системы хранения путем простой замены контроллеров).
Подготовлено по материалу Третьякова Вячеслава, инженера компании «Парадигма». Полную версию статьи смотрите здесь.
Комментарии (3)
Fujitsu_Admin
19.04.2016 11:05Согласны с вами. Но изюминкой данного обзора является продемонстрированная в нем простота настройки и поддержка всех современных технологий. Здесь нет даже упоминания о новейших фишках, таких как кэширование на SSD, снимки, поддержка технологий VMware VVOL, Microsoft ODX, и все это в базе, без дополнительных лицензий!
А что касается потолка производительности, то это, как говорится, it depends. В этом случае лучше смотреть на результаты независимого тестирования, такого как www.storageperfomance.org И вот тут уже результат тестирования DX100S3 всего на 8 дисках SSD – более 55 000 IOPS и это, заметьте, при времени отклика порядка 0,8 мсек.
Executive Summary
Full Disclosure Report
Submitted: 6 October 2014
При этом стоит заметить, что заявленная производительность массива порядка 150 000 операций ввода-вывода при задержке 1 мс. Это говорит лишь о том, что тест SPC-1 не универсален, и имеет строго определенные рамки проведения нагрузочного тестирования. Внутренние тесты, как правило, у каждого производителя всегда имеют результаты выше как по IOPS, так и по времени отклика.
Например:
Sizing Tool for ETERNUS DX
Connection: SAN
Workload: Manual setting
RAID type: RAID1
Member disk: 1+1
Disk type: SSD(12Gbps)
Disk size: 2.5inch
Disk capacity: 400GB
Disk speed: SSD
Access type: Random
Block size: 8 KB
R/W rate: 100:0
Response time: 1,0000 ms
Read hit rate: 50%
Host I/F: FC 16Gbps
Model (CM): ETERNUS DX100 S3(2CM) [V10L50]
CA / port: 2/4
Number of RAID: 4
Performance of 1 RAID: 74509 IOPS
Performance of estimated configuration: 149018 IOPS (104302 IOPS/TB)
Number of Disk: 8 disks, 1,42 TB
quartz64
Результаты тестов вызывают большие сомнения. Какие ещё 9 или тем более 65 тысяч IOPS с десяти дисков 10k? Тут кэш 4 ГБ на контроллер, а вы берете CrystalDiskMark с файлом в 500МБ и пытаетесь им что-то измерить, объясняя расхождение результатов с IOmeter туманной фразой про стандартные синтетические тесты. Так нельзя.
Я охотно верю, что потолок производительности ETERNUS DX100 S3 находится на уровне аналогичных СХД, но «нащупать» его при помощи десятка HDD точно нельзя, тем более такими методами.
NoWE
Так все эти «9 или тем более 65 тысяч IOPS» как раз и взялись оттого, что CrystalDiskMark по сути кэш и тестировал, а максимальный размер тестового файла он не позволяет выставить более 4 Гб, который так же ложится в рамки существующего кэша (и результат был бы тем же). Отсюда и «туманное» выражение о синтетике тестирования подобных утилит. А с IOmeter можно играться серьезнее, что и позволило выйти за рамки кэша и показать те несчастные 2779.862 IOps, которые и полагаются десяти дискам 10к.
И целью обзора не было показать потолок производительности (с чего вы взяли?) ETERNUS DX100 S3. Целью обзора был, собственно, обзор, такой, на который хватило времени пребывания у нас СХД и ее дисковых ресурсов. А «нащупать» потолок при помощи десятка HDD" нельзя точно, и не только такими, но и другими методами (опять же, имею в виду ту конфигурацию, что была у нас).
На счет туманности выводов, отчасти согласен… Наверное, надо было более широко раскрыть мысль.