![](https://habrastorage.org/web/b8e/156/ce9/b8e156ce943c49f98441b3128a213122.jpg)
Всем привет! Ниже вас ждет история о том, как покупка лампы обернулась приездом одной из самых долгожданных новинок в сфере СХД — массива Pure Storage. Осторожно, много фото!
Эта история началась с того, что наша милая PR-менеджер Галя заказала на AliExpress ночник. Ну, знаете, такую небольшую лампу, призванную создавать ощущение уюта по ночам.
Через месяц ей доставили вот такую коробку:
![](https://habrastorage.org/web/f00/e17/f1d/f00e17f1da994e708c817497ba924cf6.jpg)
Галя даже поднять её не смогла — пришлось звать нас с тележкой:
![](https://habrastorage.org/web/5ed/199/3ed/5ed1993ed07142279aac43d7ccdb5a8b.jpg)
Открыв коробку, мы немало удивились — это же первая в России демо-система СХД Pure Storage FlashArray, модель //m20 с 38 Тб Flash (почему – читайте здесь)!
Как говорится, шутки в сторону, давайте рассмотрим полученный аппарат. Массив состоит из двух контроллеров в одном шасси высотой 3U. Модули SSD устанавливаются в контроллерное шасси pack’ами по 10 модулей. Дополнительные дисковые полки тоже состоят из двух pack'ов. m20 расширяется до 40 SSD-модулей, ниже мы подробно расскажем о них.
При объёме SSD-модуля в 7 Tб и при включенной дедупликации с компрессией можно получить на почти базовой модели более 250 TБ эффективной емкости. Неплохо.
Массив Pure Storage m20 без передней панели:
![](https://habrastorage.org/web/111/bc3/deb/111bc3deb40740cca324a2c85097ea20.jpg)
Конкретно в наш массив установлен один capacity pack из 10 модулей SSD по 3,8 Tб каждый. Это дает чуть меньше 21 Тб места для уникальных данных, или 63—100 Тб с учетом технологий дедупликации и сжатия.
Коробку при транспортировке немного помяли, на производительность массива это не повлияло. Почта России с AliExpress — что поделать. Хорошо еще, что в почтовый ящик не засунули :)
![](https://habrastorage.org/web/a6a/63d/dd2/a6a63ddd2d5347e6b29faf4b8be66332.jpg)
И вот, наконец, мы приступили к «вскрытию». Массив упакован качественно, на фото видно подробную инструкцию по установке.
![](https://habrastorage.org/web/08f/72d/b83/08f72db8371e4867a6af46eda4c8eaf8.jpg)
Посередине лежит коробка с лицевой панелью, справа — с кабелями питания и KVM.
![](https://habrastorage.org/web/45b/9e6/1cc/45b9e61ccf204ff3a5e9ae8d3dd1af49.jpg)
Распаковываем коробки, достаём лицевую панель и монтажные рельсы:
![](https://habrastorage.org/web/a32/46d/cf0/a3246dcf029d45b380d6b0804038155e.jpg)
«Ну и лампа! — недоумевает Галя. — Куда же я такую поставлю?»
![](https://habrastorage.org/web/101/676/8ae/1016768ae5514504a8cfd0e923c9639e.jpg)
m20 R2 упакован в полиэтилен, для дополнительной защиты лицевая часть массива защищена картоном.
![](https://habrastorage.org/web/20e/72b/973/20e72b9735b04e0ca41d335a6b96e07f.jpg)
![](https://habrastorage.org/web/79f/753/8f5/79f7538f5a8f4d5e963c37179b3ebf70.jpg)
На лицевой стороне, помимо SSD-модулей, расположены модули NVRAM. В m20 R2 устанавливается два NVRAM по 8 Гб каждый. NVRAM и SSD закручиваются винтами со шлицем torx, что предотвращает возможность случайно достать не тот модуль.
![](https://habrastorage.org/web/667/e68/59b/667e6859b8ac417b9e4b97b66a871f24.jpg)
Ребята даже отвертку специально для этого приложили!
![](https://habrastorage.org/web/43e/b37/24a/43eb3724aa0546bb9a8bad3e02874f44.jpg)
Выдвижная бирка с серийным номером — удобное решение. К сожалению, встречается не на каждом сервере или СХД.
![](https://habrastorage.org/web/14f/cf0/404/14fcf0404c434b829877634d36ddd39e.jpg)
Откручиваем винты и достаём NVRAM и SSD-модули.
![](https://habrastorage.org/web/317/1cc/2ee/3171cc2eea21477cbec436fdd89a5df1.jpg)
NVRAM-модуль отдельно. Как видно, много места в контроллерном шасси он не занимает.
![](https://habrastorage.org/web/e25/d50/87f/e25d5087facc41318bdebb17dc8e49f4.jpg)
Обещанный SSD-модуль объёмом 3,8 Тб вблизи. На самом деле он состоит из двух SSD-дисков Samsung PM863a, каждый объёмом 1,92 TБ. Диски выполнены по технологии V-NAND.
![](https://habrastorage.org/web/4dc/3f5/260/4dc3f5260a04417690d2e8581b7c72ad.jpg)
Производителем Pure Storage заявлен выпуск новых моделей СХД с дисками NVMe. После выхода новых моделей можно произвести обновление имеющейся m20 R2 до NVMe без потери данных. Отвечает за такой апгрейд технология Pure EverGreen, позволяющая «на ходу» модернизировать любой контроллер в старшую модель.
А вот так выглядит массив сзади:
![](https://habrastorage.org/web/bc8/07a/fd8/bc807afd8c5847c6a2c4d2e7b9d51fbe.jpg)
Слева видны два блока питания, остальное пространство занимают два контроллера m20 R2.
Давайте подробно рассмотрим порты массива:
![](https://habrastorage.org/web/e48/b88/e68/e48b88e68d814b3c99e451c25bb5aadd.jpg)
Для подключения дисковых полок используются порты Mini SAS HD, работающие на скорости 12 Гбит/с.
Для управления массивом предназначены порты 1 Гбит Ethernet ETH0. Порт 1 Гбит Ethernet ETH1 можно использовать как для управления, так и для репликации.
Порты ETH2 и ETH3 (10 Гбит Ethernet optical) — только для репликации. В массивах Pure Storage доступна асинхронная репликация, а также построение катастрофоустойчивого хранилища — ActiveCluster. ActiveCluster реализует синхронную репликацию логических томов массивов в режиме Active/Active, то есть операции чтения/записи можно производить на реплицируемые логические тома обоих массивов одновременно.
Порты FC работают на максимальной скорости 16 Гбит/с. Для портов Ethernet (iSCSI) доступна скорость в 40 Гбит/с — таким образом, порты ввода/вывода больше не будут узким местом массива.
Тем временем Галя пытается понять, как же включить эту чертову лампу:
![](https://habrastorage.org/web/e35/24e/e6f/e3524ee6fe9644aa8495a51e2f27b1e5.jpg)
Достаём контроллер из шасси:
![](https://habrastorage.org/web/ec4/a68/1a7/ec4a681a71d4465c88301dfd200149be.jpg)
Контроллер m20 R2 без крышки выглядит вот так:
![](https://habrastorage.org/web/3de/63b/9f2/3de63b9f2d86437a8c5ab643fcacb831.jpg)
В каждом контроллере установлено по два CPU Intel Xeon. Далеко не каждый All-Flash массив (особенно младших моделей) может похвастаться двумя процессорами на контроллер.
Справа видны back-end порты подключения контроллера к общей шине, рядом установлена система охлаждения (занимает всю ширину контроллера), слева — карты портов ввода/вывода. Далее мы рассмотрим всё это подробнее.
Процессор и RAM контроллера крупным планом:
![](https://habrastorage.org/web/b00/e4c/ee7/b00e4cee77014b418ff071c1ae084047.jpg)
Снимаем карту с портами ввода/вывода 10 Гбит Ethernet. Компоненты монтируются/демонтируются удобно, ничего не мешает.
Посадочное место карты ввода/вывода и её разъём подключения:
![](https://habrastorage.org/web/bc3/3b0/883/bc33b08835e84deea75853a5b9ef7899.jpg)
А вот сама карта ввода/вывода с портами 10 Гбит Ethernet:
![](https://habrastorage.org/web/087/f3b/63d/087f3b63dd034993800735df8247f434.jpg)
Обратите внимание, карта FC 16 Гбит/с имеет собственную систему охлаждения:
![](https://habrastorage.org/web/c1e/729/674/c1e72967473b42e1ab99cbd62ae45ead.jpg)
Back-end порты контроллера с системой охлаждения:
![](https://habrastorage.org/web/f16/da8/679/f16da8679be747e28834dbc5f861aeeb.jpg)
Устанавливаем контроллер на рабочее место:
![](https://habrastorage.org/web/abe/b30/57d/abeb3057d8e04382b74f38e8686c0281.jpg)
Блоки питания мощностью 1200 Вт совмещены с вентиляторами. Недлинные, много полезного места в контроллерном шасси не занимают.
![](https://habrastorage.org/web/f3b/7e4/373/f3b7e43737d9451182807171f14f005c.jpg)
Блок питания крупным планом:
![](https://habrastorage.org/web/d6b/862/789/d6b862789a854979b20cabb008d40e42.jpg)
Консольный (KVM) кабель имеет множество портов для подключения:
![](https://habrastorage.org/web/1ad/a16/48d/1ada1648d197462090b552e2e38d5ed4.jpg)
Перейдём непосредственно к монтажу. Pure Storage использует оригинальные ручки для переноски массива. В процессе монтажа они отстёгиваются (главное — потом их не потерять).
![](https://habrastorage.org/web/954/1fc/5d7/9541fc5d7acd446fa3e01140b9c6d9a5.jpg)
Крепления монтажных рельс выполнены новаторским способом:
![](https://habrastorage.org/web/bdc/5aa/1b5/bdc5aa1b5be8445f8f7b13eb3d88e72e.jpg)
Монтажные рельсы целиком:
![](https://habrastorage.org/web/b1b/61a/d8b/b1b61ad8bf8749da824a109f45f27bde.jpg)
Удобнейшие защёлки на монтажных рельсах, весь монтаж не займёт больше 2 минут.
![](https://habrastorage.org/web/dbf/ce8/88d/dbfce888d4b2433e9641876436d4fa11.jpg)
Устанавливаем массив в стоечный шкаф вдвоём, всё строго по инструкции :)
![](https://habrastorage.org/web/eaf/964/510/eaf964510ced4ea6a77b8c6d45c806ea.jpg)
Pure m20 R2 в стоечном шкафу без лицевой панели…
![](https://habrastorage.org/web/47d/f17/c98/47df17c98a974bb6b5dca8bc6b195cff.jpg)
… устанавливаем лицевую панель — массив готов к включению!
![](https://habrastorage.org/web/ef9/6f3/166/ef96f3166e1e497384877d6e9f3a8e93.jpg)
Первый в России массив Pure Storage включен!
![](https://habrastorage.org/web/bb4/468/58d/bb446858d1e543898628893556424c04.jpg)
Дизайн и подсветка лицевой панели яркие, очень выделяются в ряду шкафов. Сразу видно, что вы владелец Pure Storage.
С закрытыми дверьми выглядит еще лучше:
![](https://habrastorage.org/web/b26/5b4/a73/b265b4a736e44323b042186d3b82204e.jpg)
«Шумноват ночник. Но светит хорошо!» ;)
![](https://habrastorage.org/web/6d3/b5f/f9d/6d3b5ff9d5d34977bc98db58316edb04.jpg)
Кажется, Галя довольна!
![](https://habrastorage.org/web/bdf/60d/155/bdf60d155a7640c882fcbaf18dd15c3b.jpg)
Специалисты по системам хранения данных, компания «Инфосистемы Джет»
UPD. Коллеги, сейчас система проходит функциональное и нагрузочное тестирование. Следующая статья будет с техническими результатами, графиками и цифрами.
Комментарии (35)
helpik94
05.09.2017 12:09+2Вот бы и мне вместо очередной ерунды с Aliexpress привезли что-нибудь подобное
KorP
05.09.2017 12:22Даже не знаю, мне больше Галя или Pure Storage понравилась… надо больше фоток Гали, точно!
AlexxSys
05.09.2017 14:27+1+++ Рядом с Галей, даже Pure Storage становиться серой невзрачной жестянкой…
AntonVirtual
05.09.2017 14:58+3Пиар пиарщицы Гали затмил пиар Pure Storage, который пиарщица Галя, по идее, и должна была пиарить…
AntonVirtual
05.09.2017 12:25+221TB форматированного пространства = 63-100 TB с компрессией?
Это означает, что Pure гарантирует 3-5x компрессию или это творчество Jet?
Simplivity обещает 10x компресиию*
* При условии, что вы будете хранить пачку снапшотов и бэкапы на той же системе, и каждый из них считать за полный объем данных, и при этом измененных данных не более, чем 3% в день.
У Pure тоже есть такие условия для красивых цифр?Pinkkoff Автор
05.09.2017 12:44+1средний коэффициент эффективности на всей базе массивов Pure около 5:1. Посмотреть его можно здесь.
Насчет гарантий происходит следующим образом: на этапе предложения заказчик говорит, какие данные будет хранить на массиве (например, VMware 30ТБ, Oracle 15ТБ). Затем Pure высчитывает коэффициент (например, для VMware 5:1, для Oracle 3:1, общий 4:1). В этом случае Pure Storage обещает юридически его гарантировать. Никаких снепшотов и бэкапов с нас не требовал.
Но на нашей тестовой системе мы ничего определенного не храним, поэтому к нам гарантии не применимы) Пробовали на vdbench лить данные с коэффициентом дупликации 6:1 и сжатия 2:1, массив корректно все пожал до 12:1.
Скоро будем пробовать на реальных данных.Taciturn
05.09.2017 14:30+2Что вообще значит «VMware»? Например если сделать виртуальную машину на все 30 терабайт и занять всё место неповторяющимся сжатым видео это «VMware» или уже нет?
Pinkkoff Автор
05.09.2017 15:00Вы правы, зашифрованные и уже сжатые данные не учитываются, иначе так бы все покупали маленькую железку и бесплатно её расширяли=)
MMik
05.09.2017 15:07-1Это средние коэффициенты, которые Pure собирают с клиентов, для разных типов нагрузок (workload'ов). В случае с 30TB неповторяющегося сжатого видео коэффициент конкретно для этого куска данных будет 1:1, что ухудшит показатель коэффициента эффективности всего фрейма.
Alexeyslav
05.09.2017 13:44+1Купи ночник за 10000$ и получи Storage в подарок…
Iliya_karin
05.09.2017 14:32Не знаю как насчёт первый в России, первый с FC возможно, я уже 3 недели гоняю в хвост и гриву наш Pure на iscsi. В моем случае дедуп составил 1.4, но моя фска уже была задедуплена с помощью ms deduplication, а раздедупить уже не так просто.
Pinkkoff Автор
05.09.2017 14:40+1Да, прошу прощения, в статье была ошибка. Это первая и пока единственная демо-система в России, одному из заказчиков (видимо, вам) система пришла чуть раньше.
В статье исправили.Iliya_karin
05.09.2017 14:48+2Мы начали проработку проекта перехода на Pure когда был ещё жив ныне покойный (в России) Violin, так что да путь к Pure был тернист и очень долог, нашу железяку мы получили еще 3 августа.
Железякя конечно потрясающая, очень простая, но очень эффективная. Кстати возможно увидимся 19 числа ;), могу поделиться опытом про iscsi.Pinkkoff Автор
05.09.2017 14:58+1Супер, с удовольствием послушаю про опыт!
Меня можно будет найти рядом с этой системой, мы предоставляем её на мероприятие=)
amarao
05.09.2017 16:07+2Монтаж — это важно. Чтобы потребители СХД делали без компании, которая умеет прикручивать винтики в стойку?
(hint: это хабр. Рассказываете по СХД, рассказывайте. А так — unboxing 19" фигни. Ну фигня, и что?).CherryPah
05.09.2017 16:19+1поставили бы коробку с ним посреди офиса и кидали в нее данные в надежде что они запишутся и дедуплицируются
netwatcher
05.09.2017 16:25а можно ссылочку на Ali, где такие ночники продают? ;) я бы взял парочку домой.
nokogerra
05.09.2017 19:46Про массив не узнал ничего, кроме того, что он, вроде, архитектурно неглупо выполнен. Как, собственно, и у любого приличного вендора. Ни фич, ни цен с лицензированием, ни описания менеджмент интерфейса. Зато есть упоминание про какой-то дедуп рэйт (который часто воображаемый, т.е. маркетинговый). В продуктивной схд дедуп, кажется, не самая популярная вещь, по крайней мере для плебеев вроде меня, которым кажется что i/o потенциал важнее дедупликации. Импакт же все таки должен быть? Хотя я, конечно, не специалист, а просто наблюдатель. Однако, когда видишь статью про первое xxx в Россиии, хочется прочитать про что-то, кроме монтажа.
Зато на девушку посмотрел и на лисов в комментариях. Как будто имэдж борду какую-то посетил.MMik
06.09.2017 01:43+1All-flash массивы практически все с дедупликацией и компрессией, и плюс ещё с переподпиской (overallocation/overprovisioning, достигаемой за счёт thin provisioning'а на стороне СХД). На практике фактический коэффициент дедупликации + компрессии (k) плавает от 3:1 до 10:1 (изменяется прямо в процессе работы, в зависимости от типа хранимых данных), типичная переподписка (для VMware workload'а) – от 5 до 10-кратной.
Из-за такой вариативности требуется:
а) постоянно следить за свободным местом
б) быть готовым вовремя купить и подключить новую дисковую полку, или поменять модули flash дисков на более объёмные
в) иметь резерв объёма
г) анализировать архивные данные и прогнозировать уменьшение свободного места на СХД
В фрейме (шасси) есть два active/active контроллера и встроенный сторадж в двух секциях. Минимальная конфигурация – 5TB RAW (умножьте на k), и до 2x76TB RAW. К контроллёрам фрейма по 12Gbit/s SAS подключается до 4х дисковых полок, в каждой из которых две секции с объёмом от 11 до 90TB RAW.
Максимальная ёмкость массива – 2x76+4x2x90 = 872TB RAW, что при среднем k=5 даст вам ~4.3PB в одном массиве в 11U, но почему-то в спецификациях пока подтверждают max RAW 512TB.
Внутри прошивки есть GPL/BSD/Apache и прочий Open Source код.
Цены – в хорошем случае $1.5/GB (с учётом k, и без переподписки) для all-flash СХД для разных массивов энтерпрайз класса. Сильно зависят от скидок, объёмов поставок, подписок, включенных фич (напр. репликация сразу удвоит цену), и пр. пр. По-этому о цене сходу сложно говорить, и сравнивать «в лоб» два ценника на два решения без детализации поставляемого решения тоже сходу не получается.
Наценка реселлера, например, может быть 15% на железо и 10% на контракты техподдержки. Скидки могут быть тоже самыми разными: и 13%, и 40%. Посмотрите на вот этот прайс-лист, например.
Менеджмент интерфейсы – Web (демо), RESTful API, CLI, PowerShell, Python SDK (напр. для работы в бэкэнде OpenStack Cinder). I/O интерфейсы – 10 и вроде 40Gbit/s iSCSI (для клиентов и для репликации), 8 и 16Gbit/s FC.
I/O потенциал не страдает от дедупликации и компрессии, так как в случае с Pure эти задачи выполняются на одном контроллере, а production I/O на другом.
В целом, по характеристикам all-flash массивов посмотрите этот документ. Он не сильно устарел.
MMik
06.09.2017 14:48Два дополнительных бонуса:
1) при правильно сделанном мониторинге и резерве вы можете больше не заниматься ручной группировкой данных одного типа на одном фрейме ради повышения k, а спокойно писать что попало куда попало
2) можете забыть про RAID вообще, и про RAID group, RAID set, disk group, parity set в частности, как про страшный сон
charypopper
05.09.2017 20:18Не понимаю. Только я люблю сводные таблицы, ссылки на производителя и подобный "сахар" в статьях...
Pinkkoff Автор
05.09.2017 23:26-1amarao nokogerracharypopper
Коллеги, аудитория Хабра очень разная. Кому-то нравится копаться в конфигах vdbench, кому-то смотреть на unboxing интересной коробки с дисками.
Сейчас система тестируется, следующая статья будет с цифрами, графиками, интерфейсом и прочим. Все сделаем.
master65
Pult это ты?
Pinkkoff Автор