C ноября 2018 года компания Cisco начинает серию демонстраций нового гиперконвергентного решения Cisco HyperFlex в регионах России. Записаться на демонстрацию можно через форму обратной связи, перейдя по ссылке. Присоединяйтесь!

Екатеринбург – до конца ноября 2018 года
Томск, Новосибирск, Красноярск, Омск – 20 ноября 2018 года – 30 декабря 2018 года
• Южно-Сахалинск: 10 января 2019 года – 10 февраля 2019 года.

Cisco HyperFlex – это новейшая гипергонвергентная система, которая решает проблему высокой сложности отказоустойчивых систем ЦОД-ов и корпоративных инфраструктур.

image

Традиционный подход к построению ЦОД основывается на разделении серверов, сети хранения данных и систем хранения данных. Такой подход делает инфраструктуру крайне сложной и дорогой.

Cisco HyperFlex по сути является «ЦОД-ом в коробке», которая объединяет вычислительную инфраструктуру, виртуальные машины и систему хранения данных в единую отказоустойчивую и высокопроизводительную инфраструктуру.



Также HyperFlex является крайне простым решением для внедрения и позволяет организовать высокодоступную ИТ-инфраструктуру с нуля в максимально сжатые сроки всего из 3-х серверов.

Еще в 2017-ом году независимая лаборатория Enterprise Strategy Group (ESG Lab) провела сравнительные тесты производительности Cisco HyperFlex и конкурентных решений.

Тесты проводились с помощью HCIBench, который является стандартным отраслевым инструментом для тестирования гиперконвергентных решений. В основе HCIBench лежит Oracle Vdbench, который эмулирует рабочую нагрузку на виртуальных машинах.

Тесты проводились для двух сценариев: гибридный и all-flash.

Для гибридного сценария использовался четырехузловой кластер HyperFlex HX220c с одним SSD-диском 480 Гб для кэша и шестью SAS дисками по 1,2 Тб на каждом узле кластера (итого 4xSSD+24xSAS HDD). Нагрузка генерировалась с 140 виртуальных машин (по 35 на ноду кластера), с 4-мя vCPU, 4 GB RAM и виртуальных HDD 20 GB (суммарно на кластер 560 vCPU, 560 GB RAM, 2800 GB HDD).

В ходе тестирования использовались различные профили нагрузки, но при этом всегда со 100% случайными данными, что наиболее характерно для сред с большим количеством виртуальных машин.

Наиболее интересным тестом было измерение задержек относительно значений IOPS при соотношении чтения и записи 70%/30% и блоке 4k, full random.

Результаты приведены на рисунке ниже:


Как видно из результатов, гибридный вариант HyperFlex более чем в два раза превосходит ближайшего конкурента (~120 000 IOPS против ~60 000 IOPS).

Если обраться к тесту All-flash сценария, то в этом случае тестировалась та же нагрузка, но использовался четырехузловой кластер HyperFlex HX220c только из SSD-дисков (один SSD 400 GB для кэша и шесть SSD 960 GB для данных, суммарно 4xSSD 400GB+24xSSD 960 GB на весь кластер). У альтернативного поставщика использовалась аналогичная конфигурация.
При тех же профилях нагрузки (соотношение чтения и записи 70%/30% и блоке 4k, full random) результаты были следующие:



В итоге при All-flash сценарии решение HyperFlex уже в три раза превзошло ближайшего конкурента (400 000 IOPS против 150 000 IOPS).
Полная версия отчета о тестировании HyperFlex от ESG Lab приведена по ссылке ниже:
www.cisco.com/c/dam/global/ru_ru/products/hyperflex/pdf/esg_lab_validation_cisco_hyperflex.pdf

С момента независимого тестирования от ESG lab уже прошел год, и с тех пор в HyperFlex появились новые возможности – растянутый кластер, поддержка платформы разработки с Kubernetes, а недавно SAP сертифицировал HyperFlex для SAP HANA.

Таким образом, Cisco HyperFlex стал первым гиперконвергентным решением, сертифицированным по всем трем классам вычислительной нагрузки SAP: SAP Applications, SAP Data HUB и HANA.

Это еще раз подтверждает, что HyperFlex соединяет в себе высокую надежность, производительность и беспрецедентную простоту использования.

Комментарии (2)


  1. Roto
    20.11.2018 23:36
    +1

    С простотой использования у Cisco частенько всё от «плохо» до «две недели собственный сапорт не разобрался».


  1. vesper-bot
    21.11.2018 10:16

    Подозреваю, что в тестировании на гиперфлексе был включен writeback-кэш, а также активность и производительность были оценены на том уровне нагруженности, с которым остальные производители заведомо не справлялись (140 ВМ). Был бы интересен показатель на 70 и 35 ВМ при тех же аппаратных нагрузках — что-то мне подсказывает, что в этом случае победа гиперфлекса окажется не настолько бесспорной. Например, согласно исследованию Cult of Anarchy по WS2016 S2D, высокая нагрузка на диски дает огромную нагрузку на процессоры, но синтетические тесты дисковой подсистемы на сопоставимом оборудовании (правда, там были NVMe-диски, а не SAS SSD) показывали вполне обгоняющие 600k IOPS при 12 ВМ. Кроме того, настоящий хайлоад на таких маленьких кластерах не живет (в смысле количества нод), а для обслуживания корпоративной нагрузки небольшого бизнеса, на который, похоже, ориентируется гиперфлекс, может хватить даже Nutanix CE кластера.

    И последнее: Непонятно, какая в тесте использовалась сетевая подсистема — здесь на слайдах 10 Гбит/с, в документе 10 Гбайт/с (т.е. или 2х40Гбит/с, или 1х100Гбит/с). Имхо на 10Гбит/с 400к IOPS по 4кбайт просто невозможны.