![](https://habrastorage.org/getpro/habr/upload_files/56d/641/8d6/56d6418d62c213fca162d57687bd57b6.jpg)
Привет, Хабр! На связи Алексей Зотов из К2Тех, и у меня для вас свежий обзор на железо. Сегодня пришла очередь СХД для бэкапов от ExaGrid — это продукт с продвинутым функционалом дедупликации на хранилище и отдельной фишкой в виде удивительно большого кэша. Под катом вас ждут первое впечатление, результаты тестирования и выводы об этой системе.
В целом, ExaGrid можно рассматривать как замену или альтернативу для Dell DataDomain и HPE StoreOnce. Это такая же стоечная СХД, которую можно подключить к серверам по CIFS/NFS или через плагин и сохранять на нее бэкапы, например, сразу от нескольких СРК.
Основной фишкой системы является двухуровневое хранение данных:
Горячее хранение. По умолчанию ExaGrid забирает под хранение данных без оптимизации 50% места в системе. Это любопытное решение, потому что при восстановлении данных в итоге не требуется процесс регидрации (процесс, обратный дедупликации, который как известно требует значительных ресурсов, как следствие, более долгое восстановление). А также это обеспечивает дополнительную отказоустойчивость, ведь кэш – это единственное доступное пространство извне. У старших моделей, кстати, кэш на более быстрых SSD дисках.
Холодное хранение. Это как раз уже внутреннее пространство, где хранятся данные уже в дедуплицированном виде, только сама система может производить операции чтения/записи в этом разделе. Внешнего доступа ни у кого нет (ни у админа, ни у софта бэкапа, ни у вируса/потенциального злоумышленника).
Установка
Установка системы не преподносит никаких сюрпризов. По сути, процедура схожа с установкой обычного сервера в стойку. В коробке лежит полный набор документации, которого хватает для монтажа и базовой пуско-наладки.
![](https://habrastorage.org/getpro/habr/upload_files/0f3/09e/f14/0f309ef1410211b6e532738b61fc8472.png)
![](https://habrastorage.org/getpro/habr/upload_files/566/90e/8da/56690e8dafe474885772ae399701979e.jpeg)
ExaGrid с завода настроен так, что NIC2 имеет статический адрес 192.168.0.5, а NIC1 завязан на DHCP (в нашем случае мы подключались с ноутбука прямо в лабе к NIC2). При первом входе запускается мастер настройки системы и окружения с базовыми в общем-то вопросами (hostname, IP и т.д.). По окончанию настройки система перезагружается и появляется доступ к дальнейшей конфигурации.
Основной интерфейс системы делится на несколько уровней и выглядит так:
![Глобальные настройки Глобальные настройки](https://habrastorage.org/getpro/habr/upload_files/ecc/585/77b/ecc58577b767ee537f4328ce6a1ff122.png)
![Общие настройки (политики доступа, шары, конфигурация системы и т.д.) Общие настройки (политики доступа, шары, конфигурация системы и т.д.)](https://habrastorage.org/getpro/habr/upload_files/146/79b/e68/14679be687c8fe1c63938bb5ea402fbc.png)
![Локальные настройки конкретной системы Локальные настройки конкретной системы](https://habrastorage.org/getpro/habr/upload_files/dc6/8c4/ef5/dc68c4ef5fc6fdd6940b2798637479e9.png)
Что здесь любопытно — часть функционала закрыта от администратора. Для доступа необходимы специальная учетная запись Support и отдельный пароль, который автоматически генерируется системой:
![](https://habrastorage.org/getpro/habr/upload_files/1e9/5e4/e04/1e95e4e04cae606290b03984c53fbbb9.png)
Если вы заметили, из одной консоли можно управлять всеми системами одновременно. И в терминологии ExaGrid можно создать «Site» — логическое объединение нескольких массивов.
Есть также интерфейс IPMI, который может выручить в определенных ситуациях, но он полностью стандартный и фокусировать на нем внимание я не буду:
![](https://habrastorage.org/getpro/habr/upload_files/403/49d/103/40349d1038b3cb6b8c560ecfcaed6b16.png)
Настройка и тестирование
Разработчики ExaGrid позаботились о том, чтобы СХД работала с различными системами резервного копирования. Система умеет интегрироваться с Veritas NetBackup через специальный плагин по протоколу OpenStorage (OST). А также c Veeam через решение ExaGrid-Veeam Accelerated Data Mover. Для остальных же решений подключение возможно через универсальные CIFS/NFS.
Чтобы проверить, насколько хорошо это все работает, я собрал тестовый стенд с ExaGrid EX18 и подключил к нему сразу четыре системы резервного копирования:
NetBackup и Veeam как основной формат интеграции;
Кибер Бэкап – представитель от России, отвечающий требованиям импортозамещения;
Vinchin – китайская СРК, которой в последнее время все чаще интересуются на рынке.
В качестве исходных данных у нас выступает ферма виртуализации VMWare и пара БД MS SQL. Схема стенда представлена ниже:
![](https://habrastorage.org/getpro/habr/upload_files/80f/c61/85b/80fc6185b546e1e111f9ed8653775fda.png)
Подключение СРК
Начнем с наиболее простых систем – Кибер Бэкапа и Vinchin. Создание новой шары (а в терминологии вендора любое пространство – это шара, аналог MTree на DataDomain) требует настройки Network Access Policy (NAP), где указывается сетевая доступность, как это выглядит у нас для NFS:
![](https://habrastorage.org/getpro/habr/upload_files/de1/7a3/c0b/de17a3c0b2361a16f84fc4656d8d5505.png)
Для CIFS же, помимо этого, дополнительно требуется User Access Policy (UAP) – политика доступа для конкретного юзера к конкретной шаре. Поэтому сначала создаем локальных бэкапных пользователей:
![](https://habrastorage.org/getpro/habr/upload_files/282/ff0/33e/282ff033ed9801e6a593d0af6b548399.png)
А потом связываем их с шарой:
![](https://habrastorage.org/getpro/habr/upload_files/9d9/b32/da9/9d9b32da9a61ee7209f9d7d1977720c9.png)
Со стороны серверов резервного копирования
1. Vinchin (NFS)
Добавляется стандартное NFS хранилище:
![](https://habrastorage.org/getpro/habr/upload_files/afd/bd5/656/afdbd5656ac6378612c40c80eedd2eeb.png)
После чего оно становится доступным для бэкапа:
![](https://habrastorage.org/getpro/habr/upload_files/553/03a/f65/55303af65a21d04db116363966c4494a.png)
2. Кибер Бэкап (CIFS)
Добавляем сетевой каталог через узел хранения:
![](https://habrastorage.org/getpro/habr/upload_files/278/b75/3b6/278b753b64bc42c321a39624dd50ad86.png)
После чего хранилище становится доступным для бэкапов:
![](https://habrastorage.org/getpro/habr/upload_files/b6a/721/374/b6a721374bac725668d0eafdaaf9f3c1.png)
3. NetBackup (OST)
Далее чуть сложнее – NetBackup. Первый шаг схож – создаем NAP, но в протоколе уже выбираем OST:
![](https://habrastorage.org/getpro/habr/upload_files/b5f/d33/e4c/b5fd33e4c8dfb8c0f830314c0eeea629.png)
После чего нужно скачать плагин из веб-интерфейса (Help > Online Library) и поставить его на медиа-сервер согласно инструкции:
Запускаем установщик;
Вписываем IP;
После этого все добавится в автоматическом режиме, включая IP второго интерфейса и имя сайта:
![](https://habrastorage.org/getpro/habr/upload_files/e8b/586/b0b/e8b586b0b219cd40623eb4310c2f4c8d.png)
Далее необходимо настроить новый Storage Server, что в целом стандартно:
![](https://habrastorage.org/getpro/habr/upload_files/33f/500/76b/33f50076bb791a02b0a439d4e62040ca.png)
И дисковый пул:
![](https://habrastorage.org/getpro/habr/upload_files/544/935/5fb/5449355fb545eba5065fc1eed425d398.png)
На выходе получаем систему, которая понимает технологии NBU – Optimized Deduplication, A.I.R. и Accelerator, с киллер фичей в виде хранения данных без дедупа в кэше для возможности более быстрого восстановления. Причем каждый новый бэкап будет ре-синтезирован в полный бэкап.
4. Veeam (ADM)
И последняя СРК в наших тестах – Veeam. Первый шаг не меняется, нужно создать шару с правильным типом и протоколом:
![](https://habrastorage.org/getpro/habr/upload_files/1f7/089/712/1f7089712f8ae9cf073b71418bcb6101.png)
После чего со стороны Veeam добавляется новый репозиторий как устройство с дедупликацией:
![](https://habrastorage.org/getpro/habr/upload_files/80d/b1a/b86/80db1ab863a073621bcfd707e513fe07.png)
Все здесь достаточно стандартно, но в требованиях указано отключить оптимизацию самого вима:
![](https://habrastorage.org/getpro/habr/upload_files/a1c/c23/7e3/a1cc237e347a9f0551e0c16dd487bd81.png)
Система это проверит дополнительно на следующем шаге:
![](https://habrastorage.org/getpro/habr/upload_files/40d/ea2/8e1/40dea28e161474a193d3ac17cb86d3f4.png)
Как это выглядит в самой СРК:
![](https://habrastorage.org/getpro/habr/upload_files/e91/c5a/9d4/e91c5a9d46a046fd5ea9c64ba957f990.png)
По итогу получаем систему соответствующего типа с поддержкой Veeam Data Mover, а наличие кэша позволяет использовать такой функционал как Sure Backup, Virtual Lab, Instant VM Recovery, Copy and Replicate прямо из коробки.
Спустя несколько недель тестов всех вышеописанных СРК, получил коэффициент дедупликации – 22:
![](https://habrastorage.org/getpro/habr/upload_files/8b3/6f7/ae0/8b36f7ae0d58039e05ffdcaa6af0e319.png)
Немного деталей об этой статистике:
Site Capacity – 36 ТБ, это общий объем СХД (система, напомню, у нас EX18);
Landing Zone – 18 ТБ выделено под кэш;
Retention Allocation – 17.83 ТБ выделено для данных;
Primary Retention – 524 ГБ данных находятся в зоне хранения (после всех оптимизаций);
System Reserved – 65 ГБ ушло на системные нужды.
Проверка отказоустойчивости и сохранности данных
А теперь, пожалуй, перейдем к самому интересному – проверка отказоустойчивости кэша. Как ранее было сказано – Retention Zone недоступна извне, благодаря чему потеря Landing Zone не является критичной. Для проверки я сделал доп шару /cyber2, дали ей доступ к серверу Кибер Бэкапа и создали один .txt файлик:
![](https://habrastorage.org/getpro/habr/upload_files/b57/7c3/bc0/b577c3bc057f979a3f7f19039309a298.png)
Спустя пару дней этот файлик мы удалили:
![](https://habrastorage.org/getpro/habr/upload_files/9b9/635/a4b/9b9635a4bfa7eafc5a7381164c943c83.png)
Чтобы его вернуть выполняем следующее – останавливаем шары:
![](https://habrastorage.org/getpro/habr/upload_files/c3a/b41/753/c3ab41753b9c18ac805161e281d276ce.png)
Соглашаемся с предупреждением от системы:
![](https://habrastorage.org/getpro/habr/upload_files/172/37c/c8c/17237cc8c04f8b193753a6d85b80344d.png)
Когда все шары переходят в статус Suspended, становится доступной кнопка Point in Time Recover:
![](https://habrastorage.org/getpro/habr/upload_files/0af/91f/39b/0af91f39b93c94818c9531c699c2a3c5.png)
Далее выбирается дата отката и запускается процесс:
![](https://habrastorage.org/getpro/habr/upload_files/278/856/e9f/278856e9fda70dedd09588e19e9d7b63.png)
По результатам шара перейдет в статус Point Recovered и данные снова будут доступны:
![](https://habrastorage.org/getpro/habr/upload_files/f13/9b6/ee1/f139b6ee137d0f722407e9af76fb144a.png)
![](https://habrastorage.org/getpro/habr/upload_files/144/4e2/821/1444e282107e5ef8b414697811f764f2.png)
Немного о мониторинге
Система умеет отправлять письма (SMTP), работать с SNMP трапами и интегрируется с syslog. В консоли имеется стандартный журнал событий и алерты:
![](https://habrastorage.org/getpro/habr/upload_files/a89/cb3/24d/a89cb324ddb330cc3fa28ebb904132ca.png)
![](https://habrastorage.org/getpro/habr/upload_files/c63/29b/aef/c6329baeff1181360578816c50c3ef95.png)
Также есть несколько дополнительных графиков – статистика хранения:
![](https://habrastorage.org/getpro/habr/upload_files/daf/59c/0f5/daf59c0f5b11d586f17da31e1abf31f9.png)
И скорость передачи:
![](https://habrastorage.org/getpro/habr/upload_files/64b/e18/d2d/64be18d2dd35c66d1a047a1839d543cd.png)
С моей точки зрения, не хватает дополнительной статистики – сколько данных и где хранится, статистика дедупликации, большей информации о шарах.
Выводы
Знакомство с ExaGrid показало, что мы имеем дело с хорошей СХД, заточенной под резервное копирование. Особая фишка массива — это кэш, который обеспечивает как повышенную отказоустойчивость, так и положительно влияет на скорость работы РК.
![](https://habrastorage.org/getpro/habr/upload_files/74a/655/6a8/74a6556a8bf16d3f84232cefa19b696f.jpg)
Отдельно хочу отметить продвинутый функционал дедупликации, который позволяет рассматривать ExaGrid как конкурента Dell DataDomain и HPE StoreOnce. Бонусом система умеет полноценно интегрироваться с Veeam и Veritas NetBackup, что позволяет улучшить процессы как резервного копирования, так и восстановления.
Для других СРК, в том числе из стека импортозамещения, предусмотрена упрощенная интеграция. Мы с вами увидели хороший кейс для использования ExaGrid с Кибер Бэкапом, любые клиенты которого умеют самостоятельно записывать данные на CIFS/NFS шару без использования узла хранения. С учетом дедупликации, оперативной и защищенной зон, может получиться интересное решение. А один из минусов СХД ExaGrid — это, пожалуй, отсутствие эмуляции виртуальной ленточной библиотеки (VTL), которой кому-то может не хватить.
Как итог, система отлично подойдет в качестве первичного хранилища резервных копий с потенциальной возможностью горизонтального масштабирования и построения Data recovery. Благодаря Landing Zone восстановление будет выполняться быстрее конкурентов, в то время как Retention Zone позволяет безопасно и оптимально хранить данные.
Почитать больше о железе:
Комментарии (2)
SvoboniiLogin
08.12.2023 10:05+1Понять не могу - почему современная система не может давать данные для мониторинга в json или еще как. На дворе 2023!. К чему эти SNMP ...боже мой... бомблю как тот, кто пишет мониторинг для того же SCOM/ zabbix
autuna
А где сравнение, простите? Заголовок подразумевает, что вы сравнивали.