Отрываем от передней части Ultra capacitor module — штуковина предназначена для работы блоков питания в режиме Active/Passive, а также для гарантированного переключения без просадок питания на резервный БП. Оказывается, его также можно использовать для защиты серверной от потенциального противника, быстро переделывая в мощный электрошокер. И знаете что? С ним пускают в самолёт, когда говоришь «да этот сервер стоит как квартира напротив Кремля!»

Оглядываясь, во что бы ещё воткнуть лом, мы заинтересовались серверным оборудованием Bull и решили взять на тестирование один из серверов. Вообще, есть линейка продуктов Bull компании Atos. Bullion S — это высокопроизводительные сервера с морем памяти на борту на базе серверов x86-архитектуры. Всё, что нужно считать внутри оперативной памяти, — это их епархия. Заявленная фишка — высокая отказоустойчивость в сочетании с мощностью и относительной дешевизной.

В общем, нам достался один такой. Первое удивление было в том, что грузится он 15 минут (вендор говорит: в полной выкладке до получаса), тестирует 768 Гб оперативы. Загрузился — мы начали дёргать всё, что только могли. Ага, прямо на ходу. Железка вела себя достойно. По всем I/O пережил нормально, просто переходили пути, а диски оставались доступными с некоторой задержкой. При выдёргивании других кусков иногда делались короткие ребилды (производительность падала), потом всё восстанавливалось. Восстановилась — мы продолжали откручивать детали дальше. Кстати, если оторвать вот этот капасити-модуль с фото или блок питания, сервер это тоже переживёт без происшествий.

Единственный момент — если вынимать из него во время нагрузки плашки памяти «на горячую» руками, он уйдёт в перезагрузку при определённых условиях (о них ниже расскажу).




Знакомство с сервером bullion S


Итак, мы поставили перед собой задачу проверить эти утверждения, познакомиться и всячески помучить предоставленное оборудование. На 2 недели нам выделили сервер bullion S4, по сути это две x86 ноды, объединённые в один высокопроизводительный сервер. Сервер приехал в качестве готового стенда в 20U-стойке с коммутатором Cisco 2960, консолью с KVM-переключателем и PDU.





Конфигурация и особенности


Особенность сервера — это предустановленная из коробки ОС VMWare ESXi.То есть по сути это уже готовое решение: достал из коробки сервер, подключил и разворачивай виртуалки. По необходимости версию ESXi можно обновлять.

Конфиг сервера представлен в табличке:

bullion S4



Форм-фактор



19 дюймов, 6U



ПРОЦЕССОРЫ



4xCPU Intel Xeon E7v3



Чипсет



Intel C602J



Интерфейс xQPI



Макс. 9,6 ГТ/с



Память



4 блейд-модуля по 6 планок 32Гб DDR4 RDIMM



Встроенные NIC



1Gb Ethernet: 2?2 порта



NIC



1Gb Ethernet: 4 порта на ноду, 10GbE 2 порта на ноду



HBA



8/16 Гбит/с: 2 модуля с 2 портами на ноду



Флеш



SSD, 1,6 ТБ



SAS



12 Гбит/с: 2 внешних разъёма на блейд-модуль



Контроллер



1 блейд-модуль ввода-вывода с RAID 0.1 (12 Гбит/с) Рейд-контроллер 9380 4i4e для RAID 5 /6 на дисках bullion



Блок питания



2 на ноду



FAN



6 на ноду



HDD



2?600 Гб на ноду



Все компоненты сервера зарезервированы, как у любого сервера в хорошей комплектации.





Каждая нода bullion S — это сервер с двумя сокетами, 48 слотами памяти, в максимуме сервер масшабируется до 8 таких нод, что позволяет получить жирный 24U сервер с 16 сокетами, 24Tb памяти и 56 8xPCI-e слотами. Плюс возможен Node Partitioning.

ОС грузится с ведущей ноды, с двух дисков в RAID1. Сервер имеет модульную структуру, все I/O карточки, memory cards, не говоря уже о БП и вентиляторах, устроены так, что могут быть извлечены на горячую из передней или задней части каждой ноды.

Масштабируемость bullion — это его фишка. Для связи процессоров между нодами используется eXtended Quick Path Interconnect, который разработан Bull и работает в 2 раза быстрее и уменьшает среднее запаздывание между локальной и удалённой памятью процессора по сравнению с Intel QPI. Физически это встроенный когерентный коммутатор Bull (сокращенно BCS).

Архитектура прорисована ниже.

S4


S8


S16

Избыточная звезда. Отличает bullion от KunLun и SDX

Мониторинг и управление


Сервер имеет довольно странную внешнюю индикацию, которая немного смущает, но таков дизайн.



На самом деле оранжевая лампочка говорит о том, что UCM (ultra capacitor module) заряжен.

Состояние сервера и его компонентов можно мониторить через Server Hardware Console.







Вендор говорит, что для мониторинга большого количества серверов существует инструмент iCare (Bull insight care).



Также есть возможность интеграции с vRealize. Для управления также существует мощный CLI «BSMHW_NG_140» — устанавливается отдельно, может работать вместе с BPM (Bull Platform Manager).

Тестирование


Включили сервер. Инициализация при перезагрузке или включении проходит 15–20 минут, в основном из-за чека памяти: чем её больше, тем дольше. Процесс загрузки можно мониторить, подключившись, к примеру, с помощью Putty (terminal) к SHC, там детально отображается процесс инициализации контроллеров, проверки памяти и т. д.



Сделали пару виртуалок, сервер обеими нодами подключили к нашей entry level СХД DS3500 и начали дергать модули. Тут у нас вот лезвие с памятью. Вынимается? Вынимается!



Перезагрузку словили при установке памяти обратно, хотя заявлено, что сервер поддерживает hot plug memory, мелким шрифтом (или в скобочках) добавляют, что только определенные ОС.



«Смотри, ещё деталька. Сейчас вытащу, снимай:»



Интересно, а электрошокер получится? Получится!



После этого в мануале прочитали, что так делать нельзя, опасно — нужно сначала разрядить!



Пока дергали I/O карточки — луны остались живы, перекидывая пути.

Хотели понять, может ли он в однонодовой конфиге — дернули целую ноду. Отключился весь сервер (ну, обратного вендор не заявлял, но вдруг) ?. В этом плане софтварный кластер предпочтительнее хардварного.

Коллега говорит: дай MSM (Management Switch Module) ближе сфотографирую. Не вопрос, держи, дружище:





Сервер остался жив. С помощью программки Perfomance test провели несколько тестов производительности, на маленькой виртуалке и виртуалке с максимальными ресурсами. Хотя учитывая, что это виртуальные машины, особого смысла в этом не вижу, основное предназначение сервера — это Oracle, SAP HANA, виртуализация. Данные тестов — в конце.

Была мысль снести гипервизор и поставить что-то другое, но вендор очень просил этого не делать. Скорее всего, потому что машина ходит «по рукам» на тестах. В общем, зоопарк приехал, мы поиграли, зоопарк уехал дальше гастролировать.

Согласно опубликованным на www.spec.org материалам, bullion является самым мощным корпоративным сервером x86. Bullion всё ещё предлагает до 16 процессоров (по сравнению с восемью у так называемых «непосредственных» моделей — архитектура, в которой до 8 процессоров связаны друг с другом без дополнительного коммутатора), то есть до 384 ядер на одном сервере.



Результаты наших тестов


CPU Test 1/1


MemTest 1/1


CPU Test 2


Mem Test 2


Впечатления


Вполне себе обычный хардварный двухнодовый кластер, Bull не первый, кто по QPI объединил x86 сервера, это делал и IBM, и HPE.Хотя такой мощи там. Конечно. не было, здесь можно расти: S4-S6-S8-S10. ОС может быть любой: Linux, Windows, VMware… Хотя тут, на мой взгляд, шасси с блейд-серверами и vMotion надёжнее, чем все виртуалки в одной коробке (но тут надо брать в расчёт стоимость лицензий посокетно).

Зачем он такой красивый нужен


Основной сценарий использования серверов — платформа для in-memory-вычислений. Как самый распространённый пример таких вычислений — решение SAP HANA. Сервер также может использоваться под БД Oracle, SQL Server, виртуализацию, неплохой вариант для перехода с P-серии и мейнфреймов. Прайс-лист в РФ для некоторых аппаратных конфигураций сертифицированных для SAP HANA:


Name



Model



CPU



DB



DIMMs



Russian List Price



S4-80V4-1TB-32GB



S4



8880V4



1TB



32GB



166 872 €



S4-80V4-2TB-32GB



S4



8880V4



2TB



32GB



211 104 €



S4-90V4-4TB-64GB



S4



8890V4



4TB



64GB



356 820 €



S6-80V4-4.5-32GB



S6



8880V4



4.5TB



32GB



366 567 €



S6-90V4-6TB-64GB



S6



8890V4



6TB



64GB



529 161 €



S8-80V4-3TB-32GB



S8



8880V4



3TB



32GB



417 102 €



S8-80V4-6TB-32GB-CIS-Op



S8



8880V4



6TB



32GB



570 437 €



S8-90V4-6TB-32GB-CIS-Op



S8



8890V4



6TB



32GB



617 785 €



S8-90V4-8TB-64GB



S8



8890V4



8TB



64GB



816 410 €



S8-90V4-8TB-64GB-CIS-Cu



S8



8890V4



8TB



64GB



820 337 €



Это, конечно, street price, по нему почти никто никогда не покупает. Но если вы знаете, сколько обычно вычитать, представление даёт.

Ссылки


Поделиться с друзьями
-->

Комментарии (16)


  1. mapatka
    30.06.2017 11:48

    Это все красиво, но когда производители серверов начнут делать платы для расширения юсб портов?)
    Сейчас есть проблема, не хватает физических портов usb для всяких ключей-лицензий.
    Расскажите о вашей практике, как выкручиваетесь, когда надо подключить много usb-ключей к серверу? И есть ли альтернативы anywhere usb? Спасибо.


    1. brainfair
      30.06.2017 12:18

      seh myutn-800


    1. DaemonGloom
      30.06.2017 12:20
      +3

      Классический USB-хаб с дополнительным питанием не спасает в вашей ситуации?


    1. ifaustrue
      30.06.2017 12:34

      USB over IP не подходит в вашем случае?


    1. Kirill_Rahimov
      30.06.2017 12:47

      Мы не знаем аналогов anywhere. Вообще USB anywhere как правило полностью закрывает потребности оборудования средней или довольно большой компании, а стоимость в сравнении со стоимостью оборудования не серьезна (100к деревяннных примерно). Если компания маленькая и косты на оборудование крайне ограничены, то и количество серверов небольшое и USB хаб рублей за 500-1000 вполне себе решение.


    1. ifaustrue
      30.06.2017 12:51

      del


  1. ifaustrue
    30.06.2017 12:57
    +1

    Я правильно понимаю, что можно вынимать часть памяти без сбоя в работе? Если да, то как это достигается (DDR as RAID или что-то типо того)?


    1. Kirill_Rahimov
      30.06.2017 13:51
      +1

      Если память сконфигурирована в режиме «Mirroring» то да, но этот режим подразумевает использование 50% от всей доступной.
      Всего у сервера три режима работы памяти.
      1. Стандартный с использованием RAS features.
      2. Performance mode – некоторые RAS features ограничены (используется только 4 планки памяти в блэйде вместо 6-ти)
      3. Mirroring mode
      В третьем случае да, можно вынимать плашки, поскольку они избыточно используются. Если делать это по очереди, а не сразу поляной, ничего особо страшного.
      Реальная задача этой фичи — перестраховка от выхода из строя целого Memory Riser и удобство обслуживания.
      P.S. а зачем вам в здравом уме будет без причины извлекать память из нагруженной бизнес-критичной сисетемы? Бывали случаи?


      1. ifaustrue
        30.06.2017 14:29
        +1

        Спасибо. Стало понятнее =)
        Вопрос был из любопытства, а задачи были про вычисления in-memory когда потеря ноды критична (банковская система с плохой архитектурой шардирования горячих данных).

        А сколько стоит такой самолёт? В чём то измеримом. В солярисах там или в однушках.


        1. vlanko
          30.06.2017 22:34

          судя по прайсу 150 000 евро


  1. OS2
    30.06.2017 14:31

    В прайсе все цены в Евро?


    1. Kirill_Rahimov
      30.06.2017 18:07

      Угу


  1. Taciturn
    30.06.2017 17:46
    +1

    дернули целую ноду. Отключился весь сервер

    Если падание одной в любом случае вызывает остановку всего кластера, то какой тогда смысл в двух нодах?

    Да и с памятью странно. Раз уж сервер ориентирован на высокую надёжность, то вместо принудительной перезагрузки логичнее было бы отключать «лишнюю» память до перезагрузки ручной, чтобы можно было корректно завершить все процессы.


    1. vlanko
      30.06.2017 22:35

      Для удвоенной производительности.
      А две ноды вместо одной 4-япроцессорной, похоже экономия.
      Или чтоб больше памяти влезло.


    1. Kirill_Rahimov
      30.06.2017 22:57

      Ну кластером это назвал я, по аналогии с подобными технологиями на IBM, здесь же вендор сразу заявляет, что это единый сервер и отказ ноды не поддерживается.


      Это не кластер, а 4-х сокетный сервер, и ноду выдернули ради интереса. Написано же Hot CPU remove не заявлено.
      Сбойные планки памяти при срабатывании порога ошибок исключаются из работы и могут быть замены при следующем окне обслуживания.


  1. Arxitektor
    30.06.2017 20:09

    Bullion S Название просто отличное )
    Намек на стоимость.
    перевод Bullion слиток золота или серебра.
    Хотя здесь скорее всего уже урана )