«Миран» пришел на рынок коммерческих ЦОДов в 2010 году. За это время мы построили два дата-центра и стали предоставлять широкий спектр услуг по аренде и размещению серверного оборудования. Но этот год — особенный, так как мы завершили строительство новой и самой масштабной очереди в ЦОД «Миран-2».
Как обычно выглядит серверная дата-центра в представлении обывателя? Все мы видели множество красивых картинок с фотостоков, но чаще всего, реальность выглядит совершенно по-другому: серверная, являясь техническим помещением, своим внешним видом воображение не поражает. Просто ряды стоек или шкафов, от которых тянутся многочисленные кабели.
Сейчас рынок хостинга и аренды стоек растет: по прогнозам, к 2024 году рынок арендных мощностей вырастет вдвое по сравнению с концом 2019 года. Так что сейчас дата-центры растут, как грибы после дождя. Чем отличается наш? Тем, что мы стали планировать его постройку задолго до пандемии и резкого скачка спроса, а к активному проектированию приступили летом 2020 года.
ДЦ, о котором мы рассказываем — масштабное расширение нашего дата-центра «Миран-2» в Санкт-Петербурге. Построена новая очередь в одном здании с предыдущей, но имеет свои собственные коммуникации и, фактически, изолирована от старого дата-центра компании. Физически новые стойки находятся на Евпаторийском переулке, 7А.
Давайте кратко перечислим основное из того, что было сделано с декабря 2020 — именно тогда началось строительство третьей очереди — и по начало апреля, то есть, к моменту запуска нового дата-центра:
А теперь мы расскажем чуть подробнее о самом интересном.
Наша новая очередь ориентирована на средний и крупный бизнес, собственно, как и весь «Миран». Нет, мы охотно продаем VPS частным лицам, но основная цель компании — привлечение крупных бизнес-клиентов на свои мощности. Кому-то мы предлагаем готовые серверные решения в аренду, но, в том числе, ждем и компании с собственным оборудованием, которым можем предложить наши стойки и небольшие индивидуальные залы.
Именно таким клиентам — которым нужны надежные стойки — и стоит обратить внимание на наш новый ДЦ.
Одна из наиболее частых проблем аренды серверных стоек — это получение физического доступа к оборудованию в произвольный момент времени. Причем получение доступа быстро и без проволочек.
Именно для такого кейса мы предоставляем доступ в ЦОД 24/7/365. Также мы начали разработку системы автоматизированного доступа в серверный зал для специалистов клиента.
Оба этих решения позволят минимизировать человеческий фактор в вопросе получения физического доступа к собственному оборудованию. При этом все серверы прочих арендаторов находятся в полной безопасности: стойки закрыты кодовыми замками и «случайно» воткнуться в чужой сервер не получится. Ну а если кто-то начнет ломать чужую стойку, мы это сразу же увидим по камерам видеонаблюдения :).
Собственно, эта система снимает один из самых неудобных вопросов, который возникает при аренде стойки в дата-центре: как добраться до собственного железа? Обновление оборудования, как правило, проводится ночью, иногда необходимо провести срочные работы. Так что возможность для инженера попасть к собственному серверному парку, не согласовывая свой визит с кучей народу заранее — прекрасный бонус.
В списке выше мы упоминали, что в новом дата-центре мы развернули систему сквозной цветовой маркировки энергосистемы по «лучам»: каждый из них соответствует своей ветке электроснабжения.
У каждой линии своя система источников бесперебойного питания, дизель-генераторные установки, система автоматического ввода — они абсолютно независимы друг от друга и обе заведены в каждую серверную стойку.
По сути, мы построили сразу две независимые друг от друга электросистемы в одном ДЦ. И даже если случится невероятное, и, предположим, из строя выйдет основное питание «черного» луча, то оборудование переключится на «красный» без малейшего простоя.
Слева видно «черные» и «красные» шкафы
Важно и то, что система маркировки «черный»-«красный» энерголуч — сквозная. То есть мы покрасили не просто дверцы шкафов, а сделали маркировку сквозной вплоть до точек подключения к электросистеме города и резервным генераторам. Это сильно упрощает эксплуатацию и сокращает время решения инцидента, если таковой будет иметь место.
Также стоит отметить, что мы не использовали кабели для прокладки электропитания — это не самый надежный и долговечный способ. Вместо этого по всему дата-центру протянуты шинопроводы — жесткие системы передачи энергии, которые часто используются на производстве и в промышленности.
На изображении выше можно увидеть шинопровод «красного» луча дата-центра. Нет, это не опорная балка под потолком и даже не пенал для кабелей — это замена тех самых километров силовых кабелей, которая размещена в относительно свободном доступе.
Очень часто дата-центры размещаются в кое-как подходящих помещениях. Раньше это вообще были подвалы или прочие бункеры еще советской эпохи, куда заводили пожаротушение (если повезет) и сотни километров кабелей, которые перехватывали в огромные «косы».
Чтобы избежать такого бардака в 2021 году, все новые серверные залы мы построили сразу с фальшполами. Именно под ними проложены основные коммуникации и реализована система сквозной вентиляции стоек плюс — пожаротушение.
В общей сложности на фальшполы ушло больше метра высоты помещения, чтобы при необходимости под них можно было залезть.
Мы любим и ценим наших клиентов, поэтому собранная нами система пожаротушения в качестве активного элемента использует хладон. Почему это так важно?
Многие системы тушения основываются на углекислом газе или прочих токсичных и агрессивных элементах. Малая химическая активность хладона означает, что в случае срабатывания системы, причем даже ложного, не пострадает серверное оборудование клиентов, не произойдет отключение электропитания.
Помещение пожарной станции в период строительства
Именно поэтому был выбрана хладоновая система пожаротушения. Она менее агрессивна и сравнительно безопаснее для оборудования. Плюс плановое обслуживание баллонов проводится поставщиком системы: емкости с хладоном снимаются и вывозятся из ДЦ, что устраняет еще одно окно для возникновения проблем в из-за человеческого фактора.
За неполные пять месяцев мы расширили второй дата-центр новыми и независимыми от основной инфраструктуры серверными залами, на которые не только приятно смотреть, но и удобно пользоваться.
Все наши решения, даже в плане цветовой маркировки — это требования для современного уровня качества обслуживания, а не просто желание «сделать красиво». Строили мы с мыслью о том, что в нашем дата-центре серьезные ЧП просто не смогут произойти: нет огромных кос силовых кабелей, нет путаницы, нет проблем с вентиляцией или системой пожаротушения. Все это было исключено еще на стадии проекта, согласно которому мы и построили новую очередь «Миран-2».
Как обычно выглядит серверная дата-центра в представлении обывателя? Все мы видели множество красивых картинок с фотостоков, но чаще всего, реальность выглядит совершенно по-другому: серверная, являясь техническим помещением, своим внешним видом воображение не поражает. Просто ряды стоек или шкафов, от которых тянутся многочисленные кабели.
Сейчас рынок хостинга и аренды стоек растет: по прогнозам, к 2024 году рынок арендных мощностей вырастет вдвое по сравнению с концом 2019 года. Так что сейчас дата-центры растут, как грибы после дождя. Чем отличается наш? Тем, что мы стали планировать его постройку задолго до пандемии и резкого скачка спроса, а к активному проектированию приступили летом 2020 года.
ДЦ, о котором мы рассказываем — масштабное расширение нашего дата-центра «Миран-2» в Санкт-Петербурге. Построена новая очередь в одном здании с предыдущей, но имеет свои собственные коммуникации и, фактически, изолирована от старого дата-центра компании. Физически новые стойки находятся на Евпаторийском переулке, 7А.
Давайте кратко перечислим основное из того, что было сделано с декабря 2020 — именно тогда началось строительство третьей очереди — и по начало апреля, то есть, к моменту запуска нового дата-центра:
- три серверных зала — суммарно 300 стоек;
- установили 34 серверных стойки для новых клиентов;
- стойки с функциональными кодовыми замками, возможностью установки индивидуальной комбинации и дополнительным доступом с сервисным ключом;
- начали разработку системы автоматизированного доступа к оборудованию для арендаторов;
- сквозная цветовая маркировка по основным лучам электрораспределения;
- двойное резервирование электроснабжения;
- установлены собственные резервные генераторы;
- шинопроводы вместо кабельных линий;
- отдельный узел связи для провайдеров;
- клиентам доступно подключение к провайдерам Teliasonera и Orange;
- ведутся переговоры по возможности подключения клиентов к AT&T;
- единая система пожаротушения серверных и технологических помещений на основе хладона;
- установлена аспирационная система раннего обнаружения пожара.
А теперь мы расскажем чуть подробнее о самом интересном.
Кодовые замки и автоматизированный доступ
Наша новая очередь ориентирована на средний и крупный бизнес, собственно, как и весь «Миран». Нет, мы охотно продаем VPS частным лицам, но основная цель компании — привлечение крупных бизнес-клиентов на свои мощности. Кому-то мы предлагаем готовые серверные решения в аренду, но, в том числе, ждем и компании с собственным оборудованием, которым можем предложить наши стойки и небольшие индивидуальные залы.
Именно таким клиентам — которым нужны надежные стойки — и стоит обратить внимание на наш новый ДЦ.
Одна из наиболее частых проблем аренды серверных стоек — это получение физического доступа к оборудованию в произвольный момент времени. Причем получение доступа быстро и без проволочек.
Именно для такого кейса мы предоставляем доступ в ЦОД 24/7/365. Также мы начали разработку системы автоматизированного доступа в серверный зал для специалистов клиента.
Оба этих решения позволят минимизировать человеческий фактор в вопросе получения физического доступа к собственному оборудованию. При этом все серверы прочих арендаторов находятся в полной безопасности: стойки закрыты кодовыми замками и «случайно» воткнуться в чужой сервер не получится. Ну а если кто-то начнет ломать чужую стойку, мы это сразу же увидим по камерам видеонаблюдения :).
Собственно, эта система снимает один из самых неудобных вопросов, который возникает при аренде стойки в дата-центре: как добраться до собственного железа? Обновление оборудования, как правило, проводится ночью, иногда необходимо провести срочные работы. Так что возможность для инженера попасть к собственному серверному парку, не согласовывая свой визит с кучей народу заранее — прекрасный бонус.
Система сквозной цветовой маркировки электропитания
В списке выше мы упоминали, что в новом дата-центре мы развернули систему сквозной цветовой маркировки энергосистемы по «лучам»: каждый из них соответствует своей ветке электроснабжения.
У каждой линии своя система источников бесперебойного питания, дизель-генераторные установки, система автоматического ввода — они абсолютно независимы друг от друга и обе заведены в каждую серверную стойку.
По сути, мы построили сразу две независимые друг от друга электросистемы в одном ДЦ. И даже если случится невероятное, и, предположим, из строя выйдет основное питание «черного» луча, то оборудование переключится на «красный» без малейшего простоя.
Слева видно «черные» и «красные» шкафы
Важно и то, что система маркировки «черный»-«красный» энерголуч — сквозная. То есть мы покрасили не просто дверцы шкафов, а сделали маркировку сквозной вплоть до точек подключения к электросистеме города и резервным генераторам. Это сильно упрощает эксплуатацию и сокращает время решения инцидента, если таковой будет иметь место.
Также стоит отметить, что мы не использовали кабели для прокладки электропитания — это не самый надежный и долговечный способ. Вместо этого по всему дата-центру протянуты шинопроводы — жесткие системы передачи энергии, которые часто используются на производстве и в промышленности.
На изображении выше можно увидеть шинопровод «красного» луча дата-центра. Нет, это не опорная балка под потолком и даже не пенал для кабелей — это замена тех самых километров силовых кабелей, которая размещена в относительно свободном доступе.
Никаких штроб в бетоне. Наш выбор — фальшпол
Очень часто дата-центры размещаются в кое-как подходящих помещениях. Раньше это вообще были подвалы или прочие бункеры еще советской эпохи, куда заводили пожаротушение (если повезет) и сотни километров кабелей, которые перехватывали в огромные «косы».
Чтобы избежать такого бардака в 2021 году, все новые серверные залы мы построили сразу с фальшполами. Именно под ними проложены основные коммуникации и реализована система сквозной вентиляции стоек плюс — пожаротушение.
В общей сложности на фальшполы ушло больше метра высоты помещения, чтобы при необходимости под них можно было залезть.
Система пожаротушения на основе хладона
Мы любим и ценим наших клиентов, поэтому собранная нами система пожаротушения в качестве активного элемента использует хладон. Почему это так важно?
Многие системы тушения основываются на углекислом газе или прочих токсичных и агрессивных элементах. Малая химическая активность хладона означает, что в случае срабатывания системы, причем даже ложного, не пострадает серверное оборудование клиентов, не произойдет отключение электропитания.
Помещение пожарной станции в период строительства
Именно поэтому был выбрана хладоновая система пожаротушения. Она менее агрессивна и сравнительно безопаснее для оборудования. Плюс плановое обслуживание баллонов проводится поставщиком системы: емкости с хладоном снимаются и вывозятся из ДЦ, что устраняет еще одно окно для возникновения проблем в из-за человеческого фактора.
Итого
За неполные пять месяцев мы расширили второй дата-центр новыми и независимыми от основной инфраструктуры серверными залами, на которые не только приятно смотреть, но и удобно пользоваться.
Все наши решения, даже в плане цветовой маркировки — это требования для современного уровня качества обслуживания, а не просто желание «сделать красиво». Строили мы с мыслью о том, что в нашем дата-центре серьезные ЧП просто не смогут произойти: нет огромных кос силовых кабелей, нет путаницы, нет проблем с вентиляцией или системой пожаротушения. Все это было исключено еще на стадии проекта, согласно которому мы и построили новую очередь «Миран-2».