Привет, меня зовут Иван. В Nubes я отвечаю за направление виртуализации и поддержку облачных сервисов.  

После ухода с российского рынка известных платформ виртуализации мы стали активно искать альтернативные варианты, и особый интерес у нас вызвали азиатские решения. До этого мы уже успели протестировать несколько сервисов, как отечественных, так и зарубежных, и вот нам попался совершенно новый для нашего рынка продукт — HCl от Sangfor. В этом посте рассказываем про наш опыт по установке Hyper Converged Infrastructure. 

Статья несет в себе исключительно ознакомительную информацию и написана для тех, кому интересно узнать о других, не таких классических, как VMWare, KVM, Hyper-V решениях.

Архитектура решения

Архитектура Sangfor HCI состоит из двух частей: HCI и SCP.

HCI

Sangfor Hyper Converged Infrastructure основан на архитектуре гиперконвергентной инфраструктуры и имеет стандартные решения:

  1. aSV — cерверная виртуализация. Гипервизор.

  2. aSAN — виртуальное хранилище (условный аналог vSAN).

  3. aNET — сетевая часть виртуализации.

  4. aSEC — решение в рамках безопасности.

SCP

Sangfor Cloud Platform — решение для управления ресурсами на базе Sangfor HCI. Более подробно расскажем о нем в следующей статье, посвященной SCP.

Для того чтобы собрать стенд для тестирования, можно использовать два варианта:

  1. Готовое решение с предустановленным aServer.

  2. Third-Party Server.

Мы пошли по второму пути и использовали то, что уже было под рукой, — ThinkSystem SR650 в количестве 3 шт. с такими характеристиками:

  1. Xeon 4216 2.10GHz x2;

  2. 128 Gb RAM;

  3. Intel X722 на два 10 GbE порта;

  4. 1x SSD Lenovo DC S3520 Series 240 Gb под ОС;

  5. 4x Lenovo PM863a 960 Gb под данные.

Стоит учитывать то, что официальная документация рекомендует нам 6* 1 GE портов и + 2 * 10 GE, с агрегацией и другими рекомендациями, но в тесте можно обойтись и нашей конфигурацией.  

Подробнее о настройках кластера и сети будет в следующей статье.

Далее в документации есть требования к конфигурации сервера.

RAID Card:

  1. Должен поддерживаться режим сквозного доступа (JBOD, не raid).

  2. Диск кэша и диск данных должны быть сконфигурированы в сквозном режиме.

  3. Поддерживается RAID1 (используется сторонним сервисным системным диском).

  4. Используйте инструмент развертывания, чтобы проверить совместимость RAID-карты и ее встроенного ПО. Оборудование, которое не соответствует требованиям, не будет разрешено добавлять в виртуальное хранилище.

ЦП:

Рекомендуется, чтобы основная частота процессора была больше 2,0 ГГц (рекомендуется использовать процессор серверного уровня).

RAM:

Объем оперативной памяти должен быть не менее 64 ГБ (мы как раз столько и используем).

Выше также ничего интересного, но далее указаны два наиболее важных пункта.

Системный диск:

  1. В качестве системного диска рекомендуется использовать корпоративный жесткий диск. На системном диске сервера запрещено развертывать один диск RAID0.

  2. Емкость должна быть не менее 128 Гб. Запрещается использовать SD-карту в качестве системного диска HCI. Причина, по которой его нельзя использовать, заключается в том, что у него есть проблемы с надежностью, производительностью и стабильностью.

  3. Сторонний сервис использует два диска для создания RAID1.

Диск с данными:

  1. Распределенное хранилище использует твердотельные накопители в качестве кэш-дисков.

  2. В качестве диска с данными используется SATA (или SAS).

  3. Твердотельный накопитель: чем выше соотношение емкости жесткого диска, тем выше общая производительность.

  4. Используйте инструмент развертывания, чтобы проверить совместимость встроенного ПО SSD. Если он не соответствует требованиям, его нельзя будет добавить в виртуальное хранилище.

Мы столкнулись с ситуацией, описанной в четвертом пункте, но поддержка Sangfor, в рамках теста, смогла пометить диски как подходящие для создания виртуального хранилища. Остальные требования и рекомендации можно описать одной фразой «Используйте энтерпрайз диски, и всё будет хорошо». 

Настройки хостов

Перед установкой необходимо изменить ряд настроек в BIOS'e хостов. Никаких сверхъестественных манипуляций проводить не нужно, все в рамках стандартной подготовки хоста:

  1. Синхронизация времени BIOS — OS.

  2. Включение режима виртуализации.

  3. Выключение режима энергосбережения.

  4. Автовключение при старте.

  5. Конфигурация менеджмент интерфейса.

Каждый пункт подробно и со скриншотами описан в документации. Там есть даже табличка CPU C-state. 

Установка гипервизора

Вот и подобрались к самому интересному — установке гипервизора.

Вот так выглядит первое меню установщика: 

Есть опции для миграции, а также для загрузки в дебаг. Нам ничего не нужно было мигрировать, а трудностями занималась поддержка, поэтому выбрали easy-mode и просто установили гипервизор.

Если заниматься своими делами при загрузке установщика, то можно автоматически провалиться в китайскую версию и ребутаться пару раз, как я. Не повторяйте моих ошибок.

Как видно из скрина ниже, Sangfor не использует для установки гипервизора флешки. 

Чисто теоретически можно использовать флешку на 128 Гб и более, но официальная документация ясно дает понять о том, что "Enterprise hard disk is recommended for system disk." Поддержка, скорее всего, напишет в стиле: «Неподдерживаемое решение. Переставьте гипервизор, учитывая рекомендации. Мы можем закрыть тикет?»

Поэтому имеем несколько вариантов установки гипервизора:

  • Можно собрать диски в Raid1.

  • Можно не собирать рейд и накатить все один диск.

Для установки требуется 111 Гб; если подходящих дисков нет, инсталляция дальше не пойдет. Если таких дисков несколько, то установщик предложит выбрать место для софта:

03
03

Далее появится алерт о том, какие операции будут совершены с диском:

04
04

Затем установщик предложит пройти тест диска:

05
05

И выдаст результаты тестирования:

06
06

Точное время ожидания не скажу, но пару раз у меня возникали сомнения, а не зависло ли все.

07
07

Финальное предупреждение о том, что выбранный диск не является первым смонтированным.

После чего начинается достаточно долгое ожидание при 60% установки. 

Отбросив подозрения о зависшем установщике, мы проваливаемся в меню первичной настройки. Далее вас проведут по пунктам за ручку по сетевым настройкам, и....всё. На этом установка завершится, и через пару минут мы сможем увидеть вполне красивый такой GUI, расположенный точно на том адресе, который мы указали в настройках.

08
08

Настраиваем IP-адрес. Выбираем конфигурацию сети:

09
09

 Отказываемся от настройки IP в других сетях:

10
10

 Соглашаемся произвести настройку VLAN:

11
11

Дальнейшая настройка в интерфейсе VLAN:

12
12

Выбор интерфейса для менеджмента трафика.

Здесь указывается номер VLAN
Здесь указывается номер VLAN

Если у Вас, так же как у меня, появится возможность протестировать решение HCI от Sangfor, то советую внимательно прочитать главу 2 "Installation And Deployment", а потом уже приступать к развертыванию. Если сравнивать с той же VMware, то процесс установки не является каким-то архисложным, но имеет ряд требований и действий, которые необходимо провести до установки.

Мы пока не будем проводить системный сравнительный анализ с VMware, выводы еще делать рано. 

Задавать вопросы можно в комментариях, а я пока буду писать следующие посты, в которых расскажу про настройки кластера и развертывание решения Sangfor SCP (Sangfor Cloud Platform), которое является аналогом VMware Cloud Director.

Комментарии (3)


  1. Thomas_Hanniball
    30.06.2023 18:09
    +1

    А где картинки с интерфейсом самого продукта? Как он хоть внешней выглядит? Как в нём отображается только что установленный сервер?


  1. vesper-bot
    30.06.2023 18:09

    Мало для статьи. "Устанавливаем гипер" - хорошо, но мало. Одни грабли с "совместимостью" (небось по VID/PID либо как нутаникс по имени список проверялся) - хорошо что описали, но тоже мало. В конце концов, HCI это не один только гипер, это и настройка внутренней сети, и описание технологии, на которой сделана гиперконвергенция (грубо, у Nutanix это выделенная ВМ на каждом сервере, которая формирует кластер zookeeper для ресурсов типа ВМ и блоков от их дисков, а здесь что?), и хотя бы описание поддерживаемых источников для миграции на этот Sangfor.


  1. eiw
    30.06.2023 18:09
    +2

    В этом продукте особенно интересно понять, насколько хорошо быстродействие и стабильность стораджевой части, SDS. Как я понимаю, она реализована на GlusterFS, и тут интересно насколько у вендора получится решить врождённые проблемы производительности. Если сможете провести нагрузочные тесты будет очень интересно взглянуть на результат.