После ухода из России компании VMware и других крупнейших мировых поставщиков решений виртуализации и облачной инфраструктуры, появилась срочная задача найти альтернативу привычным инструментам. В процессе поиска команда Linx исследовала одно из доступных на российском рынке  решений ― программно-аппаратную платформу виртуализации SharxBase. Делимся своими впечатлениями.

Новая перспектива

Большинство участников рынка и госструктур планируют переход на отечественные решения в ближайшей перспективе. Сегодня в этом сегменте рынка представлено около 20 вариантов решений для построения платформы виртуализации российской разработки. Но все они выступают в роли «догоняющих». Бизнесу необходима функциональность, которую предлагали ушедшие компании, но ее пока ни у кого нет ― по крайней мере на все 100%.

Создать аналоги сложных программных продуктов, которые разрабатывались глобальными корпорациями десятилетиями, невозможно за 1-2 года Тем не менее, движение в этом направлении есть.

Для Linx одной из актуальных на сегодняшний день  задач стал выбор отечественной платформы для построения частных облаков. Такие запросы стали поступать от заказчиков, вступивших на путь импортозамещения и при этом планирующих перенести свою инфраструктуру в облако. Одним из заинтересовавших нас решений стала платформа SharxBase.

SharxBase ― это гиперконвергентное решение, построенное на серверах x86_64 архитектуры стандартного форм-фактора с установленными в них твердотельными дисками (SSD или NVMe), высокопроизводительными процессорами и сетевой картой 10 Гбит/с, 25 Гбит/с или 40 Гбит/с.

Плюсы и минусы

Начнем с плюсов: это российский продукт, который внесен в реестр отечественного ПО и имеет сертификат ФСТЭК 4-го уровня, что позволяет использовать его для размещения ГИС, ИСПДн до первого класса включительно, а также КИИ.

Система достаточно зрелая, поскольку появилась на рынке еще в 2018 году. Вендор предоставляет техподдержку 24х7.

Собственный фреймворк для построения логических кластеров и отсутствие выделенных функциональных ролей серверов обеспечивают отказоустойчивость, а интеграция вычислительных мощностей и распределенного хранилища в единую программно-управляемую среду делает возможным централизованную управление платформой.

SharxBase поддерживает создание мультитенантных кластеров до 62 узлов, что позволяет эффективно  управлять ИТ-ландшафтом для различных клиентов или подразделений, соблюдая их индивидуальные технические требования.

Высокопроизводительное хранение: SDS-решения, позволяющее хранить данные в трех экземплярах.

Что можно делать на базе системы:

  • через графический интерфейс управлять ресурсами и виртуальными машинами;

  • создавать виртуальные машины из шаблонов;

  • создавать квоты ресурсов в изолированном контуре с персонифицированным доступом тенанта в данный контур и возможностью управлять распределением выданных квот;

  • гибко масштабировать квоту тенанта;

  • без выключения виртуального сервера расширять и добавлять виртуальные дисковые ресурсы (CPU/RAM ― только для выключенной ВМ);

  • создавать снэпшот/восстанавливать из снэпшотов, без остановки виртуальной машины;

  • осуществлять горячую миграцию виртуальных машин между хостами;

  • выполнять автоматический перезапуск виртуальной машины в случае полного отказа гипервизора на другом гипервизоре.

Каких функций у платформы нет:

  • механизма распределения нагрузки;

  • мониторинга производительности;

  • интеграции с системами внешнего резервного копирования.

Другие особенности:

  • для синхронизации распределенного хранилища и обеспечения сервиса имен системе нужны внешние серверы NTP и DNS;

  • не получится провести качественную диагностику: возможности интеграции с внешними системами мониторинга позволяют лишь получить сигнал о проблеме, которую потом придется искать самостоятельно в интерфейсах платформы;

  • интерфейс избыточен по сравнению с функционалом. В основе SharxBase ПО с открытым и закрытым кодом. В интерфейсе системы осталось много лишних элементов, которые неактивны или работают некорректно. Перед провайдером встает выбор: открыть пользователю минимум функций, либо выдать расширенные права доступа. Во втором случае в интерфейсе появляются кнопки, нажатие на которые может привести к непредсказуемым результатам. Кастомизировать или убрать эти функции невозможно ― только объяснить клиенту, с чем можно работать, а с чем нет.

Как это выглядит

Интерфейс, как видим, построен на OpenNebula, что сближает SharxBase с «Брестом» и «Горизонтом», но, конечно, есть отличия.

 Так выглядит экран общей загрузки кластера:

Для создания ВМ есть заранее установленные шаблоны:

А вот так они выглядят в целом, опции группировки по папкам пока не предусмотрено:

Кластеризация ВМ в SharxBase полностью своя, и служебные базы данных не «разъезжаются», как в классической Nebula при интенсивном использовании инфраструктуры. Реализовано тегирование ВМ для их группировки по нужным параметрам и дальнейшей работы:

Есть опция просмотра графиков производительности каждой ВМ:

Доступно создание снэпшотов для восстановления исходного состояния ВМ:

Можно отслеживать историю событий ВМ:

Отдельно можно просматривать хранилища данных, отслеживать их занятость. Все они ― блочные устройства внутри хостов, распределенные по всему кластеру, что позволяет осуществлять достаточно простой переезд ВМ между узлами:

С точки зрения сети можно быстро получать доступ к структуре виртуальных сетей и их распределению:

При необходимости можно использовать правила межсетевого экранирования:

MPM-модуль используется для отслеживания состояния платформы и позволяет обнаружить визуально проблемы с компонентами вычислительного кластера.

Так выглядит состояние использования накопителей:

Здесь же можно мониторить состояние блоков питания и сетевых карт:

Еще одно отличие SharxBase: разработан отдельный компонент, позволяющий вносить в систему настройки в соответствии с требованиями ФСТЭК:

Это позволяет детально отслеживать действия пользователей в рамках их учетных записей, поднимать логи из архивов, управлять учетными записями, их блокировками и т.д.

Наконец, опция создания виртуального ЦОДа позволяет подтягивать в себя пул ресурсов в соответствии с ИС определенных клиентов, разграничивая их между собой.

Выглядит виртуальный ЦОД так:

Установка и поддержка вендора

SharxBase ― закрытая система, которая не предусматривает самостоятельную установку и настройку. Инсталляцию выполняют специалисты технической поддержки SharxDC. Они же предоставляют список требований к оборудованию и настройкам интерфейсов. Инженеры вендора проверяют совместимость дисков и контроллеров с системой, а затем разворачивают платформу.

3 рабочих дня занимает настройка комплекса на 3 хоста, если заранее предоставить инженерам SharxDC доступ во все необходимые логические и физические сети.

Специалисты вендора проводят обучение сотрудников заказчика, для эффективной подготовки специалист должен иметь опыт работы с платформами виртуализации, а также базовые знания администрирования Linux

При эксплуатации платформы заказчик выступает в роли оператора платформы, имеет возможность управления учетными записями, квотами, образами дисков и ОС, виртуальными машинами и сетями.

При этом добавление и вывод вычислительных узлов, дисков, интеграция со службами каталогов, а также траблшутинг платформы остаются в руках технических специалистов SharxDC.

Сценарии виртуализации

На основе своего опыта мы выделили несколько основных сценариев использования SharxBase.

Первый ― создание инфраструктуры виртуализации для виртуальных ЦОД.

Второй ― использование SharxBase как элемента изолированной ИТ-инфраструктуры. Такие решения называют Silo («силос») или «столб». Они используются в случаях, когда заказчику нужен определенный набор функций.

Вендор или интегратор устанавливает оборудование, разворачивает платформу виртуализации с ВМ и запускает приложение. SharxBase позволяет создавать такие закрытые решения с возможностью масштабирования элементов. Для внешнего мониторинга можно установить стороннее ПО (Prometheus, Zabbix).

SharxBase лучше подходит для статичных ИТ-ландшафтов, где редко меняется число виртуальных серверов. Типичный клиент ― промышленное предприятие с несколькими десятками серверов, параметры которых меняются довольно редко, а нагрузка на виртуальные машины стабильна и предсказуема.

При необходимости платформа позволяет увеличивать или уменьшать число серверов гипервизоров, но возможности делать это самостоятельно нет ― процедура выполняется исключительно вендором.

Миграция с SharxBase на другие платформы виртуализации возможна, но затруднительна, так как требует конвертации дисков ВМ из одного формата в другой. При этом возникает длительный простой сервиса.

Кроме того при наличии установленных в ОС специфических драйверов и приложений конвертированная ВМ может не запуститься.

Итого

По нашей предварительной оценке, в SharxBase сегодня реализовано около 30% привычного уровня функциональности инструментов ведущих мировых вендоров. Система, безусловно, нуждается в дальнейшем развитии, однако, по нашим оценкам, имеющегося на сегодняшний день функционала вполне достаточно, чтобы удовлетворять потребности 50-60% корпоративных клиентов в том, что касается возможностей виртуализации ИТ-инфраструктуры.

Алексей Медведев, руководитель отдела по облачным сервисам Linx

Антон Бахвалов, облачный инженер Linx

Комментарии (7)


  1. Mikhalich93
    26.12.2023 08:31
    +2

    Браво! А на чём основан ваш SDS? Если он у вас есть SDS то ждём сравнения с топ 10 игроков рынка : zvirt, Astra и прочими :)


    1. Linx Автор
      26.12.2023 08:31

      SDS проприетарный SharxBase, подробностей они не разглашают. Как только проведем собственные нагрузочные тесты, обязательно ими поделимся.


    1. mrospax
      26.12.2023 08:31
      +2

      а что у zvirt и Astra кроме opensource Ceph или glusterfs и т.д. есть свой собственный SDS? кстати замечу наличие SDS, гипервизора и панельки управления на тех же узлах не дает права называть это решение гиперконвергентным, потому что при нагрузке SDS может безгранично потреблять ресурсы всего севера, что сильно отразится на работе всего остального. Поэтому в гиперконвергентных продуктах необходимо обязательно наличие компонента или контроллера, который следит за распределением ресурсов железа между SDS и всем остальным, а вот у решений, у которых нет такого компонента или механизма те уже относятся к дезагрегированной среде, когда часть серверов кластера имеют роль только вычислений, а другая часть серверов только для SDS и т.д.


  1. r0steg
    26.12.2023 08:31
    +1

    Прошу прощения, конечно, но аналоги vmware - это proxmox или ovirt например. OpenNebula не про это, это приватное облако которое деплоят поверх нормальной виртуализации или даже в k8s. Главный вопрос еще в поддерживаемых хранилищах, не всем финансово посильно поднять нормальный полноценный CEPH отдельно, OCFS весьма сомнительный вариант. Как дела с бекапами ВМ? Да и пункт сценарии виртуализации скорее описывает явные недостатки, в том числе привязка к вендору.


    1. Linx Автор
      26.12.2023 08:31

      Как дела с бекапами ВМ?

      У SharxBase нет интеграции с каким-либо продуктом резервного копирования. Решение для резервного копирования можно подружить с SharxBase VM только через агента.


    1. medicalnz
      26.12.2023 08:31

      "proxmox и ovirt как аналог vmware" - весьма спорное утверждение. У всех opensource поделок функционал уровня vmware лет 10 назад. в лучшем случае..


  1. masjanja11
    26.12.2023 08:31

    Мне не понятно почему все наши разрабы вцепились в эту опеннебулу. Она ведь не подходит для использования, в качестве классической системы виртуализации, она про облако, либо про хостинг. Астра обожглись на ней, теперь позиционируют свой Брест как хостинг виртуализацию.

    Но как вижу выводы другие компании не делают, вернее делают, но странные: не дадим пользователю лезть в систему и всё сами будем им делать - так себе подход.

    Слава Альту, который сертифицировал proxmox, теперь хоть как-то жить можно.