Я Артем Клавдиев, технический лидер проекта гиперконвергентного облака HyperCloud компании Linxdatacenter. Сегодня я продолжу рассказ о глобальной конференции Cisco Live EMEA 2019. Сразу перейдем от общего к частному, к анонсам, представленным вендором на профильных сессиях.

Это было мое первое участие на Cisco Live, миссия – посетить мероприятия технической программы, погрузиться в мир передовых технологий и решений компании и закрепиться в авангарде специалистов, приобщенных к экосистеме продуктов Cisco в России.
Реализовать эту миссию на практике оказалось непросто: программа технических сессий оказалось супер-насыщенной. Все круглые столы, панели, мастер-классы и обсуждения, разбитые на множество секций и стартующие параллельно, посетить невозможно просто физически. Обсуждалось абсолютно все: дата-центры, сеть, ИБ, софтверные решения, аппаратная часть – любой аспект работы Cisco и партнеров вендора был представлен отдельной секцией с огромным количеством мероприятий. Пришлось последовать рекомендациям организаторов и составить себе своего рода личную программу по мероприятиям, заранее забронировав места в залах.

Остановлюсь подробнее на сессиях, которые удалось посетить.

Accelerating Big Data and AI/ML on UCS and HX (Ускорение ИИ и машинного обучения на платформах UCS и HyperFlex)




Данная сессия была посвящена обзору платформ Cisco для развития решений на искусственном интеллекте и машинном обучении.  Полу-маркетинговое мероприятие с вкраплениями технических моментов.  

Суть такова: ИТ-инженеры и специалисты по данным сегодня тратят значительное количество времени и ресурсов на проектирование архитектур, комбинирующих в себе legacy-инфраструктуру, несколько стэков для обеспечения машинного обучения и софт для управления этим комплексом.

Для упрощения этой задачи и служит Cisco: вендор фокусируется на изменении традиционных паттернов управления ЦОДами и рабочими процессами через повышение уровня интеграции всех необходимых для ИИ/МО составляющих.

В качестве примера был представлен кейс сотрудничества Cisco и Google: компании комбинируют платформы UCS и HyperFlex с ведущими отраслевыми софтверными продуктами под ИИ/МО наподобие KubeFlow для создания исчерпывающей on-premise инфраструктуры.

Компания рассказала, как KubeFlow, развернутый на базе UCS/HX в сочетании с Cisco Container Platform позволяет трансформировать решение в нечто, что сотрудники компании назвали «Cisco/Google открытое гибридное облако» – инфраструктура, в которой возможно реализовывать симметричное развитие и эксплуатацию рабочей среды под задачи ИИ одновременно на базе on-premise компонентов и в Google Cloud.

Сессия, посвященная Интернету вещей (IoT)




Cisco активно продвигает идею о необходимости развития IoT и на базе собственных сетевых решений. Компания рассказывала о своем продукте Industrial Router – специальной линейке малогабаритных LTE-коммутаторов и роутеров с повышенной отказоустойчивостью, влагозащищенностью и отсутствием движущихся частей. Такие коммутаторы можно встраивать в любые объекты окружающего мира: транспорт, промышленные объекты, коммерческие здания. Основная идея: «Разворачивайте эти коммутаторы на своих объектах и управляйте ими из облака с помощью централизованной консоли». Линейка работает на Kinetic Software для оптимизации удаленного развертывания и управления.  Цель – повысить управляемость системами IoT.

ACI-Multisite Architecture and Deployment (ACI или Application Centric Infrastructure, и микросегментация сетей)




Сессия, посвященная рассмотрению концепции инфраструктуры, ориентированной на микросегментацию сетей.  Это была самая сложная и подробная сессия, на которой мне удалось побывать. Общий посыл от Cisco был следующий: раньше традиционные элементы ИТ-систем (сеть, сервера, СХД и т.д.) подключались и настраивались отдельно. Задача инженеров состояла в том, чтобы свести все в единую рабочую управляемую среду. UCS изменили ситуацию – сетевая часть выделилась в отдельную область, а управление серверами стало осуществляться централизованно из единой панели. Неважно, сколько серверов – 10 или 10 000, любое количество контролируется из единой точки управления, по одному проводу происходит и управление, и передача данных.  ACI позволяет свести в одну консоль управления и сети, и сервера.

Так вот, микросегментация сетей – важнейшая функция ACI, которая позволяет гранулярно разделять приложения в системе с разным уровнем диалога между собой и с внешним миром. Например, две виртуальные машины под управлением ACI по умолчанию не могут общаться между собой. Взаимодействие друг с другом открывается только путем открытия так называемого «контракта», который позволяет детально расписать access-листы для детальной (другими словами – микро) сегментации сети.

Микросегментация позволяет добиться точечной настройки любого сегмента ИТ-системы за счет выделения любых компонентов и увязывания их между собой в любые конфигурации физических и виртуальных машин. Создаются группы конечных вычислительных элементов (EPG), к которым применяются политики фильтрации и маршрутизации трафика. Cisco ACI позволяет группировать эти EPG в существующих приложениях в новые микросегменты (uSeg) и конфигурировать сетевые политики или атрибуты ВМ под каждый конкретный элемент микросегмента.

Например, вы можете назначать веб-серверы какой-нибудь EPG с тем, чтобы применить к ним одинаковые политики. По умолчанию, все вычислительные узлы в EPG могут свободно коммуницировать друг с другом. Однако, если веб-EPG включает в себя веб-серверы для стадий разработки и эксплуатации, возможно, имеет смысл запретить им саму возможность коммуникаций друг с другом для гарантий от сбоев. Микросегментация с Cisco ACI позволяет создавать новую EPG и автоматически прописывать для нее политики на основании атрибутов имени ВМ, таких как «Prod-xxxx» или «Dev-xxx».

Безусловно, это была одна из ключевых сессий технической программы.

Effective evolution of a DC Networking (Эволюция сети дата-центров в контексте технологий виртуализации)





Эта сессия была логически связана с сессией о микросегментации сети, а также затрагивала тему container networking. В целом речь шла о  миграции с виртуальных роутеров одного поколения на роутеры другого – со схемами архитектуры, схемами подключений между разными гипервизорами и т.д.

Так, архитектура ACI – VXLAN, микросегментация и распределенный файерволл, которые позволяют обеспечить настройку файерволла для условных 100 виртуальных машин.
ACI архитектура позволяет осуществить эти операции не на уровне виртуальной ОС, а на уровне виртуальной сети: безопаснее настроить для каждой машины определенный набор правил не из ОС, вручную, а на уровне виртуализованной сети, безопаснее, быстрее, менее трудозатратно и т.д. Лучший контроль всего происходящего – на каждом сегменте сети. Что нового:

  • ACI Anywhere позволяет распространять политики на публичные облака (пока АWS, в будущем – в Azure), а также на on-premise элементы или в вебе, просто скопировав необходимую конфигурацию настроек и политик.
  • Virtual Pod – виртуальный instance ACI, копия физического модуля управления, его использование требует наличия физического оригинала (но это не точно).

Как это может применяться на практике: расширение сетевой связности в большие облака. Мультиклауд наступает, все больше компаний используют гибридные конфигурации, сталкиваясь с необходимостью разрозненной настройки сетей в каждом облачном окружении. Теперь ACI Anywhere дает возможность раскинуть сети с единым подходом, протоколами и политиками.

Designing Storage Networks for the Next-decade in an AllFlash DC (SAN-сети)


Интереснейшая сессия про SAN-сети с демонстрацией набора лучших практик по настройке.
Топ-контент: преодоление slow drain на SAN-сетях. Он возникает, когда какой-либо из двух и более массивов данных подвергается апгрейду или замене на более производительную конфигурацию, а остальная инфраструктура не меняется. Это приводит к «торможению» всех приложений, работающих на данной инфраструктуре. FC-протокол не обладает технологией согласования размера окна (window size), которая есть у IP-протокола. Поэтому при дисбалансе объема отправляемой информации и пропускной способности и вычислительных областей канала есть шанс словить slow drain. Рекомендации к преодолению – контролировать баланс пропускной способности и скорости работы host edge и storage edge таким образом, чтобы скорость агрегации каналов была больше, чем на всей остальной фабрике. Также рассматривались такие пути выявления slow drain, как сегрегация трафика с помощью vSAN.

Большое внимание уделялось зонированию (zoning). Основная рекомендация по настройке SAN – соблюдение принципа «1 к 1» (на 1 таргет прописывается 1 инициатор). И если сетевая фабрика большая, то это генерирует огромный объем работы. Однако TCAM-лист не бесконечен, поэтому в софтверных решениях для управления SAN от Cisco появились опции умного зонирования (smart zoning) и автоматического зонирования (auto zoning).

Сессия HyperFlex Deep Dive




Найдите меня на фото :-)

Эта сессия была посвящена платформе HyperFlex в целом – ее архитектуре, методам защиты данных, различным сценариям прикладного применения, в том числе для задач нового поколения: например, для аналитики данных.

Основной посыл – возможности платформы позволяют сегодня настраивать ее под любые задачи, масштабируя и распределяя ее ресурсы между задачами, стоящими перед бизнесом. Эксперты по платформе представили основные преимущества гиперконвергентной архитектуры платформы, главное из которых на сегодня – возможность оперативно разворачивать любые передовые технологические решения с минимальными затратами на конфигурирование инфраструктуры, сокращением TCO на ИТ и повышением производительности. Cisco обеспечивает все эти преимущества за счет передовых сетевых решений и программных средств управления и контроля.

Отдельная часть сессии была посвящена Logical Availability Zones – технологии, позволяющей повышать отказоустойчивость кластеров серверов. Например, если есть 16 нод, собранных в единый кластер с фактором репликации 2 или 3, то технология будет создавать копии серверов, перекрывая последствия возможных отказов серверов за счет жертвования пространства.

Итоги и выводы




Cisco активно продвигает идею о том, что сегодня абсолютно все возможности для настройки и мониторинга ИТ-инфраструктуры доступны из облаков, и на эти решения нужно как можно скорее и в массовом порядке переходить. Просто потому, что они удобнее, избавляют от необходимости решать гору инфраструктурных вопросов, делают ваш бизнес более гибким и современным.

По мере роста производительности устройств растут и все связанные с ними риски. 100-гигабитные интерфейсы уже реальны, и нужно учиться управлять технологиями в привязке к нуждам бизнеса и своим компетенциям. Развертывание ИТ-инфраструктуры стало простым, но управление и развитие многократно усложнилось.

При этом, ничего радикально нового с точки зрения базовых технологий и протоколов вроде бы нет (все на Ethernet, TCP/IP и т.д.), но многократная инкапсуляция (VLAN, VXLAN и т.д.) делает общую систему крайне сложной. За внешне простыми интерфейсами сегодня скрываются очень сложные архитектуры и проблемы, и цена одной ошибки возрастает. Проще управлять – проще совершить фатальный промах. Всегда следует помнить о том, что политика, которую вы изменили, применяется моментально и распространяется на все устройства вашей ИТ-инфраструктуры. В перспективе внедрение новейших технологических подходов и концептов типа ACI потребует радикального апгрейда подготовки кадров и проработки процессов внутри компании: за простоту придется заплатить высокую цену. С прогрессом появляются риски совсем нового уровня и профиля.

Эпилог




Пока я готовил к выходу статью о техсессиях Cisco Live, мои коллеги из облачной команды успели побывать на Cisco Connect в Москве. И вот что интересного они там услышали.

Панельная дискуссия о вызовах цифровизации


Выступление ИТ-руководителей банка и добывающей компании. Резюме: если раньше ИТ-специалисты приходили к руководству за согласованием закупок и добивались его со скрипом, то теперь все наоборот – руководство бегает за ИТ в рамках процессов цифровизации предприятия. И здесь заметны две стратегии: первую можно назвать «новаторской» – находить новинки, фильтровать, тестировать и находить им практическое применение, вторая, «стратегия ранних последователей», предполагает умение находить кейсы у российских и зарубежных коллег, партнёров, вендоров и использовать их в своей компании.



Стенд «Центры обработки данных с новым сервером Cisco AI Platform (UCS C480 ML M5)»


Сервер содержит 8 чипов NVIDIA V100 + 2 CPU Intel до 28 ядер + до 3 ТБ оперативной памяти + до 24 диска HDD/SSD все это в одном корпусе 4-юнитового исполнения с мощной системой охлаждения. Предназначен для запуска приложений на основе искусственного интеллекта и машинного обучения, в частности TensorFlow выдает производительность 8x125 teraFLOPs. На базе сервера была реализована система аналитики маршрутов посетителей конференции за счёт обработки видеопотоков.

Новый коммутатор Nexus 9316D


В 1-юнитовом корпусе помещаются 16 портов 400 Гбит, это суммарно 6.4 Тбит.
Для сравнения посмотрел пиковый трафик самой крупной точки обмена трафиком в России MSK-IX — 3.3 Тбит, т.е. значительная часть Рунета в 1-м юните.
Умеет L2, L3, ACI.

И напоследок: картинка для привлечения внимания с нашим выступлением на Cisco Connect.



Первая статья: Cisco Live EMEA 2019: меняем старый ИТ-велосипед на BMW в облаках

Комментарии (0)