Сегодня расскажем о том, как мы совместно с разработчиками ПО протестировали комплексную отечественную гиперконвергентную платформу виртуализации vStack в нашей лаборатории.

Почему мы уделяем большое внимание проверке совместимости аппаратной части и программного обеспечения? Ответ прост. Подтверждение совместимости позволяет избежать таких проблем, как непредвиденные сбои, некорректная работа ПО или оборудования, потеря данных или другие ошибки и служит гарантией качества и надежности решения для заказчика. 

Целью испытаний было проведение функционального и нагрузочного тестирования серверного оборудования Fplus Спутник FPD-R-13-SP и ПО vStack начиная с установки, настройки ПО, запуска различных виртуальных машин (ВМ) и настройки виртуальных сетей и прочего.

По ряду сценариев vStack показал себя относительно быстрее других систем управления виртуализацией на основе oVirt, особенно в режимах создания и загрузки ВМ из готовых образов. В ряде моментов все же возникали вопросы, особенно касающиеся работы консоли и загрузки пользовательских образов, о чем были высказаны пожелания разработчику ПО. Инженеры нашей лаборатории постарались выполнить тестирование и использование данной платформы от лица нашего потенциального заказчика, основываясь только на документации и с минимальным привлечением к работам создателей ПО.

Более подробно расскажем ниже.

Немного о платформе vStack HCP

vStack HCP — отечественная гиперконвергентная платформа, объединяющая управление вычислительными ресурсами (SDC), хранением данных (SDS) и сетями (SDN). Она позволяет развертывать полноценную виртуальную инфраструктуру на базе оборудования с процессорами x86.

Аппаратная часть стенда

Тестирование проводилось на стенде из 4 серверов Fplus Спутник FPD-R-13-SP-221253 со следующей конфигурацией:

  • Процессоры: 2×Intel Gold 5318 Y (24 ядра, 2,10 ГГц)

  • Память: 1ТБ (16×64GB DDR4-3200)

  • Хранилище: 2 SSD 480 ГБ, 4 SSD-7,6 ТБ

  • Контроллер: HBA-адаптер

  • Сеть: Mellanox CX-4 2×25 Гбит/с SFP28

Серверы были объединены в единый кластер через два коммутатора 25 Гбит/с для основной сети и отдельный коммутатор 1 Гбит/с для сети управления. Логическая схема стенда представлена на рисунке ниже:

Функциональное тестирование

Работа с виртуальными машинами

Одним из достоинств решения можно отметить удобство интерфейса и общей логики взаимодействия администратора с системой. С продуктом работать интуитивно просто, большинство операций выполняется последовательно и понятно.

Создание и управление ВМ (виртуальных машин)

Создание новой виртуальной машины — процесс максимально понятен и прост. Достаточно указать базовые параметры виртуальной машина: количество CPU, объем оперативной памяти, размер диска.

Удаление виртуальными машинами также не вызывает сложностей — простое подтверждение действия через веб-интерфейс.

Горячее расширение ресурсов

При работе с виртуальными машинами добавление CPU и RAM не вызывало даже кратковременных «подтормаживаний,», а «горячее» расширение дисков срабатывало быстрее, чем в некоторых других системах.

Подключение и отключение boot media из каталога выполняется просто, через панель управления ВМ.

Выделение ресурсов ЦП для ВМ настраивается гибко с возможностью точного указания количества виртуальных процессоров.

Создание моментальных снимков ВМ работало стабильно, включая поддержку сохранения текущего состояния памяти и конфигурации сетевых интерфейсов.

Восстановление состояния ВМ до момента создания снимка выполняется корректно. Удаление ненужных снимков также реализовано интуитивно понятно.

Поддержка операционных систем

Гостевые ОС — от Windows Server до российских дистрибутивов Linux (Astra Linux, RedOS, ОСнова) — запускались без дополнительных инсталляций.

Запуск ВМ с ОС Windows (2012r2 и позже) проходил штатно, однако при работе с графической консолью гостевых ОС отмечаются «подтормаживания», что иногда снижает

удобство для администраторов, привыкших к консоли. Скорее всего нужны более тонкие настройки сетей либо использование других протоколов удаленного доступа, о чем укажем чуть ниже.

В рамках тестирования запускались ВМ с отечественными операционными системами Astra Linux и RedOS. Указанные ОС устанавливались из базовых профилей без применения дополнительных настроек и стабильно работали в среде vStack.

Linux ОСнова

На тестовом стенде не было создан отдельный профиль ОС ОСнова для установки. Образ ОС Linux ОСнова добавлялся в систему как отдельный диск, после чего выбиралась категория Manual Install Linux. В данном режиме установка ее не вызвала проблем.

Виртуальные дата-центры (vDC)

В ходе тестирования был развернут отдельный виртуальный дата-центр, после чего проверялась корректная работа механизма разграничения прав доступа между пользователями vDC.

Управление правами пользователей

Назначение разных прав для разных пользователей vDC работает корректно с гранулярным контролем доступа.

Квотирование ресурсов

Настройка индивидуальных квот на ресурсы для каждого виртуального дата-центра функционировала стабильно и без замечаний.

Сетевое тестирование

Создание виртуальной сети средствами SDN выполняется через интуитивный интерфейс.

IP Guard

Функция IP Guard показала корректную работу. При добавлении портов для изолированной сети можно независимо включать или отключать IP Guard для каждого порта. При активном IP Guard интерфейс ВМ принимает только пакеты с тем IP-адресом и MAC-адресом, которые назначены через веб-консоль управления.

Если функция отключена — проверяется только MAC-адрес, IP может быть произвольным.

Изоляция VLAN и MTU

Изоляция сетей VLAN работает корректно, обеспечивая необходимую сегментацию.

В рамках тестирования возможности изменений размера MTU для изолированных сетей платформа позволяет задавать параметр выше стандартного значения 1500 байт.

Тестирование отказоустойчивости

Отказоустойчивость хранилища

Тестирование показало отсутствие заметной деградации производительности ВМ при отключении одного любого диска слоя хранения — запись на ВМ не снижается.

Отказоустойчивость узлов кластера

При проведении тестирования была отключена одна из нод (сервер №2) с горячим извлечением. Кластер в этом случае продолжал работать штатно с автоматической эвакуацией пула ВМ на другие хосты.

Процесс автоматической эвакуации виртуальных машин с отказавшего узла

К сожалению, кроме списка хостов в консоли нет возможности увидеть подробно текущее состояние кластера и его параметры.

Миграция ВМ

Перенос пула ВМ между узлами через веб-интерфейс может выполняться как с перезагрузкой гостевых ОС, так и без неё.

Альтернативные подходы к решению задач

В ходе тестирования были выявлены случаи, когда некоторые привычные функции были реализованы через альтернативные механизмы, что требует небольшой адаптации рабочих процессов.

Доступ к виртуальным машинам. Хотя графическая консоль в браузере может показывать сниженную отзывчивость в отдельных сценариях, платформа предоставляет множество альтернативных способов подключения к ВМ. Администраторы могут использовать SSH, RDP, VNC или другие протоколы удаленного доступа, которые демонстрируют стабильную работу и зачастую более удобны для повседневных задач, чем встроенная веб-консоль.

Управление образами операционных систем. Вместо прямой загрузки пользовательских ISO-образов платформа использует подход с готовыми шаблонами и централизованным каталогом образов. Такой механизм обеспечивает стандартизацию развертывания, упрощает управление версиями ОС и повышает безопасность инфраструктуры. Для нестандартных дистрибутивов, как показал пример с Linux ОСнова, предусмотрен режим Manual Install Linux. Процесс установки Linux, для которых нет готовых шаблонов в vStack, отлажен. Надеемся, что разработчики vStack постепенно расширят список OС, входящих в базовые шаблоны.

Мониторинг состояния кластера. Детальная информация о состоянии узлов кластера доступна через API и командную строку, что позволяет интегрировать мониторинг с

внешними системами наблюдения и создавать кастомизированные дашборды в соответствии с требованиями организации.

Выводы

Платформа vStack показала высокую производительность и функциональность, отвечающую требованиям корпоративных систем виртуализации. Успешное тестирование на серверах Fplus подтверждает возможность создания полностью отечественной виртуальной инфраструктуры, что особенно актуально в контексте импортозамещения.

Основные преимущества:

  • Интуитивный интерфейс: с продуктом работать интуитивно просто.

  • Минимальная потребность в документации: Почти не пришлось заглядывать в документацию. При этом продукт отлично документирован производителем.

  • Высокая производительность: По ряду стандартных сценариев: разворачивание ВМ из дистрибутива, или из образа или снэпшота, работа виртуальных рабочих мест как под Windows так и под отечественными Linux vStack субъективно показал себя быстрее некоторых решений на базе oVirt, особенно в части создания и загрузки ВМ.
    Субъективное тестирование показало, что пользователю довольно сложно отличить работу на «голом» железе или работу в выделенной ВМ.

  • Стабильность: VirtIO-интерфейсы работают.

  • Отказоустойчивость: Автоматическая эвакуация ВМ при отказе узлов, отсутствие деградации при отказе дисков.

Результат тестирования

Несмотря на отмеченные нюансы, итоговый вердикт Fplus однозначен: vStack HCP официально совместим с серверами компании и готов к промышленному использованию.

Можно отметить, что после проведения тестов множества решений для виртуализации vStack HCP как продукт находится на высоком уровне готовности и не уступает другим средствам управления виртуализации. Платформа продемонстрировала высокую стабильность и предсказуемость работы во всех тестируемых сценариях. Отдельно может потребоваться проведение нагрузочных тестов под разными профилями приложений для формирования рекомендаций по сайзингу.

Важным результатом тестирования стала возможность создания программно-аппаратных комплексов на базе серверов Fplus и платформы vStack — полностью отечественного решения.

Комментарии (0)