Выгрузил все в облако и не жалею. Никого не жалею…
Выгрузил все в облако и не жалею. Никого не жалею…

Еще 3-5 лет назад у многих было полное ощущение, что облака победили. Казалось, что теперь только тарифы, all-in cloud и все такое. Но нет. В какой-то момент некоторые компании вновь начали думать о том, чтобы не выгружать все в облако, а держать у себя под боком и даже возвращать их облака на землю. В результате сложилось два противоположных лагеря, где одни вкладывают миллиарды в строительство ЦОД, а другие продолжают арендовать ресурсы и не парятся. Разница в подходах, понятное дело, не случайна.

Сколько стоит построить свой ЦОД

Начнем с того, что собственные дата-центры нужны не всем. Далеко не всем. Тут надо просто понимать, что построить ЦОД — это не купить сервер и притащить его в серверную в офисе. Это миллиарды рублей инвестиций, месяцы планирования и десятки инженеров в штате, которым надо платить зарплату, худо-бедно премировать и выдавать детские подарки на новый год. Но главное даже не в этом, а в необратимости такого решения.

Вот вы построили ЦОД, а через год-два бизнес вырос (или вы просто на волне хайпа решили поставить модный “AI-кластер”), а тут оказалось, что “свободного” электричества больше нет, да и системы охлаждения работают на пределе. И что делать? Строить ещё один? Это деньги и время. Много денег и много времени – а пока новый ЦОД строится, придется тратиться на стороннее коло, или ставить проект на паузу.

Обратная ситуация не лучше - нельзя просто построить коробку и постепенно расти, “подключая” дополнительное электричество и кондиционеры. Получение разрешения на присоединение к электрическим сетям -- снова время, деньги и кипы бумаг. Захотите расшириться через год? А свободной мощности может не быть, поэтому контрактовать нужно с запасом, чтобы было куда расти. Сделали машзал? Заполняйте целиком. Хоть серверами, хоть тепловой нагрузкой - чтобы корректно работала система охлаждения. И таких нюансов масса.

Масштаб решает все. Для компании с парой десятков серверов, которая решает вложиться в собственный ЦОД, — это экономическое самоубийство (а может не совсем, но об этом ниже). Строить имеет смысл, когда речь идет минимум про 500, а лучше тысячи стоек, которые гарантированно будут заполнены на годы вперед. 

Хотите ЦОД поменьше? Есть т.н. "префаб", он же модульный, он же "контейнерный" ЦОД. Это быстровозводимая конструкция, части которой делают на заводе и к заказчику приезжает уже полностью готовый к использованию комплект. Тут размер может быть любой - от пяти до сотен стоек. Но под него всё ещё нужно место, электричество, каналы связи и т.д.

Нынешний рынок реально разделился, дает понять Алексей Учакин, бывший руководитель департамента инфраструктуры, EdgeЦентр: есть ребята масштаба Avito, Wildberries, Яндекса, которые готовы вкладывать десятки миллиардов в собственную инфраструктуру. И есть все остальные, кто продолжает арендовать стойки в коммерческих дата-центрах или покупать облачные ресурсы у сервис-провайдеров.

Если окунуться в цифры, то все становится нагляднее:

  • 1 МВт мощности дата-центра может стоить от 250 млн до примерно 1 млрд рублей (хотя итоговая цена сильно зависит от класса площадки).

  • Для ЦОДа на 5 МВт совокупная стоимость может достигать 5–6,5 млрд только в части капитальных вложений.

Но к этим цифрам нужно добавить еще примерно столько же на ИТ-начинку: серверы, СХД, сети, системы мониторинга, охлаждение, безопасность. Итого проект на 5 МВт необязательно должен, но может дойти до 10 млрд. Например, будущий ЦОД Авито на 20 МВт оценивается как раз в 16 млрд. И это, судя по оценкам iKS-Consulting, минимальная стоимость только самой инфраструктуры без учета земли и серверов.

Дорого? Да не то слово. И это мы еще операционку не считали. А если стойки будут потреблять по 7–8 кВт каждая, за свет, обслуживание и персонал заплатим еще примерно 60–80 млн рублей в год на каждый мегаватт.

Но если загрузить уже несколько сотен стоек, математика начинает играть в вашу пользу. Нет, ну правда. Окупили – и дальше тратитесь только на электричество, обслуживание и амортизацию железа. В облаке за те же объемы, которыми ворочает собственный дата-центр, гарантированно придется платить на 30-40% больше. Каждый год. То есть на длинной дистанции разница будет астрономическая.

Кому нужен свой ЦОД

Кому это актуально? Не всем, это точно. Если ваша инфраструктура меньше 1-2 МВт (грубо говоря, 200-400 стоек), строить свой ЦОД смысла почти нет. Слишком большими будут капзатраты. При таких масштабах колокейшн или облако будут практичнее. Плюс – нужна стабильная нагрузка: если она скачет туда-сюда, ЦОД будет простаивать впустую.

Но есть сценарии, когда свой ЦОД неизбежен:

Во-первых, производительность. Если бизнес завязан на миллисекундах задержки, арендованная инфраструктура не подойдет. Вот Яндекс, например, при строительстве нового дата-центра добился межзональной задержки ниже 1 мс и канала на 25,6 Тбит/с. Да, такие параметры кажутся избыточными. Но они нужны даже не столько самому Яндексу, сколько клиентам его облака. В коммерческом ЦОД таких цифр попросту не добиться, приходится строить свое.

Во-вторых, контроль и регуляторика. Банкам, телекому, госструктурам закон напрямую запрещает держать критичные данные где попало. Поэтому варианты такие: либо свой ЦОД, либо гибридная схема — часть в сертифицированных облаках, а процессинг и базы клиентов в свой дата-центр или коло. Все-таки в чужом облаке зависишь от факторов, на которые не влияешь. А вести диалог с ЦБ с таким бэкграундом себе дороже. 

В-третьих, дефицит рынка. Он, как ни странно, тоже влияет на потребность в собственных дата-центрах. В Москве и Питере, например, свободных стоек на рынке почти нет. 

Стойку сейчас просто так взять практически нельзя. В Москве 80% дата-центров “выкупают” ещё на уровне котлована, -- т.е. клиенты готовы вставать в “платный резерв” и ждать окончания строительства, чтобы гарантированно получить свои стойки. Оставшиеся крохи моментально разлетаются на рынке, – подтверждает Алексей Учакин.

Естественно, у крупной компании, которой нужно масштабироваться еще “вчера”, выбора фактически и не остается. Как итог: строят сами. Но не потому что хотят, а потому что иначе никак.

Подводные камни собственной инфраструктуры

Собственный ЦОД на бумаге выглядит очень логично. Особенно, если есть чем его нагрузить. Тут вам и контроль над инфраструктурой, и экономия на длинной дистанции, и независимость от провайдеров. Но когда доходит до реализации, всплывают нюансы, о которых в презентациях говорить чаще всего не принято.

Сложности возникают еще на этапе поставок. Как отмечает Алексей Учакин, серверы едут от 12 недель, а сетевое оборудование может ехать полтора года. А если заказали GPU — можно ждать еще дольше, потому что гиперскейлеры выкупают всё под ноль.

Есть что рассказать? Станьте голосом комьюнити и делитесь с участниками своими кейсами в сообществе. Там много интересного.

Затем надо как-то объяснить продуктовым командам, почему новый кластер будет готов только через 3 месяца, а не через неделю. Если люди уже привыкли к облачной модели, где ресурсы появляются по щелчку пальцев, привыкать к реалиям on-prem будет непросто. А у вас закупки, доставка, монтажники в запое (шутки шутками, а люди говорят, что такое и правда бывает), настройка… Тут и так не свихнуться бы, а надо еще перед сотрудниками вытанцовывать, чтобы те не психовали. 

Масштабировать ЦОД тоже непросто. Если вы построили дата-центр на 300 стоек, загрузили 250, а потом поняли, что нужно еще 100, придется расширять помещение или искать новую площадку. А это в лучшем случае год, а то и полтора. Понятное дело, что в компаниях, которые строят свои дата-центры, потребности формата “надо вчера” не возникают. Как-никак, работает планирование. Но рано или поздно расширяться все равно придется. Даже если подготовиться к нему заранее, комфорта это не добавит.

Операционные расходы, которые, кстати, обильны и разноплановы, на самом деле еще и непредсказуемы. Тарифы на электричество растут на 20-30% в год. Охлаждение летом потребляет раза в два больше энергии, чем зимой, и сколько вы потратите по факту, зависит даже не от компетенции сотрудников, а от небесной канцелярии. Случилось жаркое лето – заплатили больше. Случилось холодное – заплатили поменьше. Но заложить это в годовой бюджет все равно весьма нетривиально. 

Ну, и недозагрузка, куда без нее. Вот закупили вы железо с запасом под будущий рост, а рост не случился или случился не там, где ждали. Как результат, оборудование простаивает, деньги заморожены, амортизация идет. В облаке такой проблемы не может быть по определению.

А кадры? Мало того, что надо найти опытных инженеров для эксплуатации ЦОД (нужны специалисты по сетям, системные администраторы, инженеры по мониторингу, команда закупок), так еще и содержать их. А все это не только сложно, но и не дешево.

Золотая середина: когда не нужен ни свой ЦОД, ни чистое облако

Разумеется, мир не черно-белый. Между капитальным ЦОД на миллиарды и чистым облаком лежит целая вселенная промежуточных вариантов. И для многих компаний именно они становятся оптимальным решением.

Колокейшн: свое железо, чужая крыша

Это, пожалуй, самый популярный вариант. Его суть заключается в том, что сервера покупаете вы, но размещаете их в дата-центре у провайдера. Он дает вам стойку (или несколько), электричество, охлаждение, охрану и каналы связи. А все остальное — уже ваша забота.

На конец 2025 года цены в Москве выглядят так:

  • Половина стойки (21U, 4 кВт): от 52 000 руб/мес

  • Полная стойка (42U, 7 кВт): 95 000-150 000 руб/мес

  • Средняя цена по рынку: 147,5-156,8 тыс руб/мес за стойку

  • 1U: от 2500 до 8000 руб/мес (в зависимости от провайдера)

А дальше считаем на пальцах: если у вас 100 серверов в формате 1U, это примерно 2.5 стойки. То есть в колокейшн за это вы заплатите 250-400 тысяч рублей в месяц, плюс амортизация железа (скажем, 10 млн на серверы разбить на 5 лет = 166 тыс/мес). Итого около 400-600 тыс руб/мес.

Для сравнения: в облаке за аналогичные ресурсы вы заплатите в районе 2-4 млн руб/мес в зависимости от конфигурации и провайдера.

То есть экономия станет ощутимой уже со второго года. Если нагрузка стабильно держится выше 60%, совокупная стоимость владения при коло будет на 30-40% ниже, чем в облаке, а окупаемость железа происходит за 18-24 месяца.

Кому подходит:

  • Компании с 50-500 серверами и оборотом 5-50 млрд

  • Бизнес с предсказуемой, стабильной нагрузкой

  • Те, кому нужен контроль над железом (например, для комплаенса), но нет миллиардов на свой ЦОД

  • Банки и финтех, которые могут размещать критичные системы в сертифицированном коло

Плюсы:

  • Контроль над железом и конфигурациями

  • На длинной дистанции дешевле облака 

  • Не нужно строить и содержать здание ЦОД

  • Можно начать с одной стойки и масштабироваться постепенно

  • Инженерия, охрана, электричество, охлаждение — головная боль провайдера

Минусы:

  • Все еще нужны капзатраты на покупку серверов

  • Привязка к конкретному дата-центру и провайдеру

  • В Москве и Петербурге сейчас дефицит и свободные стойки нужно бронировать заранее

  • Масштабирование не мгновенное: заказ железа, доставка (как правило, несколько месяцев), установка

  • Нужны свои инженеры для настройки и поддержки

Префаб/модульные ЦОД: когда нужно что-то свое, но быстро

Выше мы уже касались вскользь этого варианта, но он явно заслуживает большего внимания.

Префаб (prefabricated) – это модульный ЦОД. Он представляет собой быстровозводимую конструкцию, которую собрали на заводе. То есть к вам приезжает контейнер с уже смонтированными стойками, системами охлаждения, электропитания и безопасности. Фактически – как модульный дом, только не дом, а дата-центр.

Размер может быть любым: хоть 5 стоек, хоть 20, хоть 1000. То есть можно построить как микро-ЦОД на 20-30 серверов, так и целый комплекс на несколько мегаватт.

По срокам все тоже сильно лучше, чем у капитального ЦОД: 4-6 месяцев (разработка + производство + монтаж) вместо года-двух. Во многом из-за этого рынок модульных ЦОД в России в последнее время растет очень хорошими темпами. Если в 2024 году он составлял 5 млрд руб, то к 2030-му ожидается увеличение до 32 млрд.

Кому подходит:

  • Средние компании, которым нужно 50-300 стоек

  • Бизнес в регионах, где рядом нет приличного коммерческого ЦОД

  • Компании с регуляторными ограничениями, которым нельзя использовать публичные облака

  • Проекты с неопределенной перспективой размещения (префаб можно разобрать и перевезти)

  • Майнинг, edge computing, удаленные объекты

Плюсы:

  • Скорость развертывания: от заказа до запуска проходит 4-6 месяцев 

  • Дешевле капитального строительства (нет затрат на здание)

  • Мобильность: можно перевезти на другую площадку

  • Не нужно проектировать и строить здание с нуля

Минусы:

  • Все равно нужна площадка, электричество, каналы связи

  • Получение мощности от сетей (как и для капитального ЦОД)

  • Ограничения по масштабу (хотя можно ставить несколько модулей)

  • Операционные расходы: персонал, электричество, обслуживание

  • Капзатраты все еще измеряются сотнями миллионов

Гибридная инфраструктура: микс для осторожных

Строго говоря, это не столько отдельный вариант, сколько стратегия. И, пожалуй, самая популярная у компаний с оборотом 20+ млрд. Ее суть предельно проста: часть инфраструктуры держим у себя (свой ЦОД или колокейшн), а часть — не у себя, то есть в облаке.

Типичные схемы:

Базовая нагрузка on-prem, пики – в облаке. Если у вас в основном предсказуемая базовая нагрузка, но есть сезонные или непредсказуемые пики (акции, маркетинговые кампании, вирусные события), держать мощности чисто под них неэффективно. Лучше разместить базу в коло или своем ЦОД, а пики гасить облаком и платить только за фактическое использование.

Критичные данные в коло, остальное в облаке. Для банков, телекома, финтеха это фактически идеальный вариант. Процессинг, клиентские базы, платежные системы можно хранить в собственной инфраструктуре или сертифицированном коло, а тест-среды, аналитику, фронтенд и CRM отдаем в облако.

Прод в своем ЦОД/коло, тест и разработка – в облаке. Продакшен – история, которая требует стабильности и предсказуемой стоимости. Но тесты и разработка – другое дело. Им нужна гибкость и быстрое создание/удаление окружений, а значит, под эту цель можно взять облако.

Основная инфраструктура в коло/ЦОД, disaster recovery в облаке. Тут вроде все термины говорят сами за себя: вместо того чтобы строить два ЦОД в разных локациях, можно держать основную площадку в коло, а резервную — в облаке. Экономия огромная, а в случае катастрофы можно быстро переключиться.

Плюсы:

  • Получаете лучшее из обоих миров

  • Экономия: базовая нагрузка дешевле на своем железе, пики не требуют простаивающих мощностей

  • Гибкость: можно быстро масштабироваться через облако

  • Соответствие регуляторным требованиям

  • Снижение рисков: не зависите от одного провайдера

Минусы:

  • Сложнее управлять: нужны инструменты для гибридной инфраструктуры

  • Нужна экспертиза в обоих подходах

  • Сетевая связность между on-prem и облаком (VPN, direct connect) — это деньги и настройка

Аренда железа без виртуализации

Есть еще один промежуточный вариант, о котором часто забывают: аренда выделенных серверов (bare metal, или dedicated) в дата-центре провайдера. Это не коло и не облако в классическом понимании, а что-то посередине.

В чем разница? В коло вы покупаете свое железо и размещаете его в чужом ЦОД. Тут же вы арендуете сами серверы у провайдера. То есть железо не ваше, но оно выделено под вас целиком. По производительности это ближе к физическому серверу, чем к виртуалке в облаке. 

Стоит такая история дешевле виртуализированного облака, хотя и дороже, чем коло с собственным железом. Зато не нужны капзатраты на закупку серверов, а модель затрат предсказуемая: вы платите по фиксу за сервер в месяц, а не по факту потребления ресурсов как в облаке. Тем и удобно.

Кому подходит:

  • Компании, которым нужна производительность физического железа, но нет капитала на закупку

  • Проекты с высокими требованиями к производительности (базы данных, высоконагруженные приложения)

  • Бизнес, которому нужна предсказуемая стоимость без сюрпризов от облачного биллинга

  • Те, кому не подходит мультитенантность облака по соображениям безопасности или комплаенса

Плюсы:

  • Производительность как у физического сервера 

  • Предсказуемая стоимость — фикс. оплата в месяц

  • Не нужны капзатраты на покупку серверов

  • Быстрое развертывание — обычно от нескольких часов до пары дней

Минусы:

  • Дороже коло с собственным железом на длинной дистанции

  • Меньше гибкости, чем в облаке

  • Привязка к контракту (обычно минимум месяц)

  • Масштабирование требует заказа новых серверов

Bare metal — это для тех, кому нужна производительность железа, но нет желания или возможности его покупать. 

Когда облако – лучший выбор

Крупные игроки строят ЦОД, это понятно. Игроки помельче идут в колокейшн, что в их реалиях тоже вполне разумно. Но ведь есть и другая категория: компании, для которых оптимальным выбором будет облако. И причин этому несколько.

Начнем с банальной математики. OpEx против CapEx — старая песня, но она работает. Вместо того чтобы замораживать капитал в серверах или инфраструктуре, а потом ждать окупаемости, можно ежемесячно платить за то, что вы реально потребили. Не нужно покупать железо с запасом на будущий рост. Не нужно объяснять финдиру, почему половина стоек простаивает. Просто берем ресурсы под текущую нагрузку и спим спокойно. 

Нет, пускать все на самотек, конечно, тоже нельзя. Есть ряд моментов, с которыми придется помучиться. Ну, скажем, настроить автоскейлинг или выдрессировать сотрудников, чтобы те не бросали тестовые инстансы работать после тестов. Хотя, в сущности, ничего невыполнимого в этом нет. Как говорится, нормально делай – нормально будет.

А дальше – одни только плюсы.

Возьмем скорость развертывания. Запуск нового проекта в облаке – вопрос нескольких часов, а нередко и нескольких минут. Нужны дополнительные мощности для A/B-теста? Поднимаем лимиты в панели управления — и через 10 минут можно работать. В коло придется заказывать серверы (несколько месяцев доставка), монтировать, настраивать. В собственном ЦОД — еще дольше.

По обслуживанию – то же самое. В облаке не нужно нанимать отдельную команду инженеров, которые будут смотреть за стойками, мониторить системы охлаждения, настраивать сети, дежурить по ночам и менять вышедшее из строя железо. Провайдер сделает все сам. Для среднего бизнеса это экономия не только денег, но и времени и даже нервных клеток.. Ну, кому охота разбираться, почему в ЦОДе третий день температура на 3 градуса выше нормы?

Прозрачность биллинга в облаке тоже устроена на порядок лучше. Провайдеры дают детализированные отчеты вплоть до уровня отдельного инстанса: сколько ушло на вычисления, сколько на хранение данных, сколько на сетевой трафик. Через API можно выгружать эти данные хоть в реальном времени, строить дашборды, настраивать алерты на превышение бюджета. А если возможностей не хватает, всегда можно взять бесплатный инструмент типа FinOps Radar.

В коло или собственном ЦОД учет затрат обычно ведется по контрактам и квартальным актам. Попробуй потом разобраться, какой проект сколько реально съел ресурсов.

Еще один плюс облака, про который часто забывают, – это право на ошибку. Захотелось попробовать новую архитектуру? Не вопрос: запускаем, смотрим на результаты, замеряем производительность и решаем, надо оно нам или нет. Не надо? Спокойно отключаем и оплачиваем счет только за пару дней.  В коло или собственном ЦОД каждое решение по закупке железа — это ярмо на годы вперед. Купил не те серверы или переоценил потребности проекта? Все, они будут стоять минимум 3-5 лет, потому что списать их раньше срока амортизации бухгалтерия не даст, да и "наверху" возникнут вопросики.

Кому подходит облако

Теперь давайте конкретнее: в каких сценариях облако действительно оптимально, несмотря на все альтернативы?

  • Стартапы и быстрорастущий бизнес. 

  • Компании с непредсказуемой нагрузкой. 

  • Проекты с коротким жизненным циклом. 

  • Бизнес без собственных инженеров. 

  • Компании, для которых критичен time-to-market. 

Тем более, что выбор не обязательно должен быть бинарным (в хорошем смысле). На практике большинство компаний давно поняли, что жесткое "или-или" работает плохо. Почему бы не сделать ставку на гибридизацию инфраструктуры? Базовую стабильную нагрузку — в коло (дешевле), пики и эксперименты — в облако (гибко). Так получается и не переплатить, и в гибкости не потерять. Красота, с какой стороны ни посмотри.

Что выбрать в итоге

Но мы вас не отговариваем! Ни в коем случае. Честно.
Но мы вас не отговариваем! Ни в коем случае. Честно.

Как видите, дилемма "свой ЦОД или облако" на деле не такая уж и дилемма. Между этими крайностями лежит целый спектр вариантов: колокейшн (свое железо в чужом ЦОД), bare metal (чужое железо в чужом ЦОД), префабы (свой модульный ЦОД), гибридные модели (микс всего перечисленного). И для разных компаний, для разных задач правильный ответ будет разным.

Так что если у вас оборот 200 млрд, своя армия инженеров и стабильная нагрузка — стройте ЦОД. Если оборот 20 млрд и предсказуемая нагрузка — смотрите в сторону коло или bare metal. Если стартап или нагрузка скачет — берите облако. А если хочется и того, и другого — делайте гибрид. Вариантов хватает на любой вкус и кошелек.

Комментарии (0)