Привет, Хабр! С вами снова Евгений Мартынов, директор по информационным технологиям Рег.ру. Сегодня расскажу, как мы переезжали в онлайн в Петербурге.

Навигация по тексту:

Как мы дошли до жизни такой

И вновь посетил...

Цель ясна, итог понятен

Бонус-трек

Как мы дошли до жизни такой

Год назад, осенью 2023, мы открыли площадку в Санкт-Петербурге на базе дата-центра оператора ОБИТ. Это был первый опыт открытия локации под расширение публичного облака. Запуск нес коммерческие, продуктовые и маркетинговые инициативы и смыслы. Мы научились с нуля поднимать всю инфраструктуру облака, организовали новые каналы связи. 

Запуск шел не очень гладко, сроки срывались из-за задержек в поставках оборудования, недостаточного планирования, качества выполняемых работ, и множества других неучтенных моментов. Тем не менее мы успешно дожали эту задачу и сделали выводы, чтобы не повторять ошибки. За год площадкой воспользовалось несколько тысяч наших клиентов, и на текущий момент мы имеем около 1300 активных услуг в этой локации. 

А далее мы запланировали экспансию в другие регионы, и она проходит успешно

В какой-то момент даже стало казаться, что стройка и переезды скоро закончатся. Но как говорится, хочешь рассмешить Бога, расскажи ему о своих планах. Через неполный год мы узнали о готовящейся застройке территории, где расположена площадка с локацией публичного облака в регионе Санкт-Петербург. Пришлось искать новую. 

И вновь я посетил…

Никаких мук выбора не было. Мы одними из первых посетили “Дата-Центр №1” от ОБИТ (о этом мы рассказывали здесь). Поняли, что это современная площадка, соответствующая уровню Tier III: с дублирующимися системами ДГУ по схеме 2N, резервированием ИБП по схеме 2N+1 и систем охлаждения N+1 для каждого машзала.

На новой площадке не было проблем подключения 7кВт стоек, что уже практически стандарт отрасли. Оборудование становится более производительным, растет плотность компонентов, размещаемых в одном сервере — такое оборудование требует ответственного отношения к охлаждению, проектированию размещения и энергопотребления. Все это здесь соблюдается в полной мере.

Ко всему прочему руководство ОБИТ сразу пошло нам навстречу и предоставило все необходимые дополнительные буферные мощности, каналы связи, что сильно облегчило непосредственный переезд. 

Цель ясна, итог понятен

Наша задача формулировалась просто — нужно было перевезти весь регион в онлайн. 

А это значило:

  • закупить и разместить новый узел связи (маршрутизаторы, агрегирующие коммутаторы и TOR-ы);

  • закупить и разместить буферное оборудование для размещения клиентов (compute) на новой площадке (всех наших трех типов — стандартные, производительные и высокочастотные серверы);

  • разместить новый control plane на новой площадке (зачем — смотри в бонус-треке);

  • организовать, настроить, растянуть L2 сегменты облака на два дата-центра;

  • настроить процесс непрерывной миграции → перемещения →  оборудования → коммутации → переналивки и так по кругу;

  • переключить операторов связи с одной площадки на другую.

В итоге переезд целой локации публичного облака занял у нас два месяца работы в спокойном темпе вместе со всей подготовкой. Когда мы впервые услышали о необходимости переезда, нам казалось, что задача растянется более чем на квартал.

Все сервисы локации перекочевали в онлайн, без перезапусков и остановок продаж. Мы очень сильно старались, чтобы переезд не заметили наши клиенты и будем стараться так делать и дальше =)

Бонус-трек

Мы полностью обновили OpenStack в процессе переезда, для чего и нужно было дублировать control plane. Заодно расширили тарифную линейку производительными серверами на базе AMD EPYC третьего поколения.

Скоро — уже в этом году — запустим линейку GPU в Санкт-Петербурге.  Это стало возможно тоже благодаря новой площадке.

Stay tuned, готовим еще много нового!

И напоследок немного фотографий с переезда:

Комментарии (2)


  1. ITBcloud
    17.10.2024 14:45

    Запуск шел не очень гладко, сроки срывались из-за задержек в поставках оборудования, недостаточного планирования, качества выполняемых работ, и множества других неучтенных моментов.

    Можно поподробнее, про опыт ошибок?


    1. runity Автор
      17.10.2024 14:45

      Конечно можно) Часть заказанного оборудования не приехала к моменту старта стройки, пришлось использовать резервы и строить ядро не на том, на чем планировалось изначально. Переезд нам тут даже только помог — привели площадку в соответствие стандарту, который выработали позднее, больше от него отходить не будем.
      Увеличили срок от планирования до реализации. Теперь на подобные проекты оборудование мы закупаем минимум за полгода.
      Создали отдельную команду по запуску локации из высококвалифицированных инженеров. Они же и принимают ту работу по площадке, которая была сделана в их отсутствие (если таковая возникает дополнительно).
      Обязателен 10% запас по всем проводам, патчкордам и AOC-ам. Бывает брак, бывает не доложат в закупку, бывает сами сломали.
      Органайзеры — обязательно. AOC и DAC-и — определенной длины. Всё собираем в косы. Обязательные маркировки межстойки. Обязательные углы, зазоры для простого обслуживания/замены.