/ фото Cory Doctorow CC

Все, кто сталкивался с набирающими популярность технологиями виртуализации, наверняка, в курсе различных возможностей по экономии средств, которые подтвердили уже самые ранние опросы VMware: совокупная стоимость владения (TCO) в этом случае сокращается в среднем на 74%. При этом многие упускают из внимания часть инфраструктуры, которая касается хранения данных.

Разработчики инфраструктуры зачастую не уделяют должного внимания организации систем хранения данных, что приводит к нерациональному использованию техники и неэффективному распределению нагрузки на сервисы. Это приводит и к увеличению цен на соответствующие инструменты, при этом от 30% до 70% затрат уходит на консультации специалистов.

В нашем блоге на Хабре мы неоднократно поднимали вопросы, связанные с данной темой: говорили об устройствах хранения, рассматривали новые технологии будущего и рассуждали о применимости закона Мура к прогнозированию ситуации. Сегодня мы хотели бы обсудить подходы к сокращению издержек, лежащие в основе идеи о том, что в эпоху «бережливого производства» именно инфраструктура хранения данных является одним из очевидных решений, позволяющих неплохо сэкономить.

Все знают, что данные нужно где-то хранить, и их объем со временем увеличивается. Однако чтобы увидеть разницу между инструментами для хранения данных и рассмотреть их преимущества – которые будут действовать на протяжении не трех лет, как раньше, а пяти или даже семи в большинстве организаций – нужно владеть определенными техническими знаниями.

Основная сложность разработчиков инфраструктуры – это суметь разглядеть более общие тенденции в сфере хранения данных и выбрать стратегию, которая гарантировала бы надежное и эффективное решение по приемлемой для компании цене. Для этого нужно трезво оценить стоимость компонентов СХД, а также альтернативные варианты с высокой функциональностью, которые бы позволили оптимизировать капитальные и операционные издержки.

По мнению ведущих аналитиков отрасли вроде Gartner, затраты на приобретение оборудования составляют лишь пятую долю от ежегодных затрат на эксплуатацию СХД. Капитальные затраты оказываются крайне малы по сравнению с операционными издержками.

Компании зачастую нерационально расходуют средства и приобретают лучшие решения на рынке, но при этом хранят на них данные приложений, которые не требуют высокой производительности. Неумение использовать преимущества иерархического управления носителями – основной технологии для распределения данных по инфраструктуре в соответствии с частотой запросов, обновлений и другими критериями – на практике приводит к резкому снижению эффективности использования ресурсов.



/ фото Perspecsys Photos CC

Мы как поставщик услуг виртуальной инфраструктуры прекрасно понимаем, что виртуализация – это инструмент, который полностью раскрывает свой потенциал только в том случае, если использовать его грамотно. Существует множество видов виртуализации (тут мы поговорили об их плюсах и минусах), и подобно тому, как серверная виртуализация после своего появления снизила стоимость и увеличила эффективность размещения и использования серверного оборудования, виртуализация систем хранения данных может раскрыть потенциал инфраструктуры, снизив при этом стоимость ее владения.

В среде виртуализированного хранения используется пул ресурсов, который снимает необходимость часто менять инфраструктуру. Пулы СХД могут иметь свой набор характеристик и сервисов, например, с упором на оптимизацию производительности. Можно собрать в пул низкопроизводительные диски, на которых будет храниться основной объем данных, а такие технологии, как thin provisioning, сжатие и дедупликация, можно будет применять в зависимости от потребностей участка или инфраструктуры.

Существует масса подходов к виртуализации систем хранения данных: начиная от установки аппаратного контроллера, к которому «прикрепляются» все СХД, и заканчивая виртуализацией соединения или точек монтирования (mount points), в которых СХД связана с сервером и его операционной системой. Системы такого типа используют DRAM, создавая на всех серверах общий кэш, который можно использовать для буферизации и ускорения работы приложений. Помимо этого возможна работа и с каналами ввода/вывода между носителями информации и сервером – и распределения нагрузки по этим соединениям, чтобы постоянно обеспечивать высочайшую производительность соединений между сервером и СХД.

Таким образом, все физические СХД, память и соединения работают в рамках комплексной инфраструктуры ресурсов, которые можно распределять и высвобождать, масштабировать и контролировать без особого труда: перемещать данных между уровнями, включать конкретные данных в четко определенную СХД, осуществлять миграцию данных между томами или пулами. Все эти процессы, на которые могло бы уйти чересчур много времени и денег значительно упрощаются в среде виртуализированного хранения данных. С подходящим SDS-решением, процесс внедрения нужных сервисов в инфраструктуру резко упрощается.

Дополнительные материалы по теме:


Немного о том, как мы улучшаем работу провайдера виртуальной инфраструктуры 1cloud:

Поделиться с друзьями
-->

Комментарии (9)


  1. ToSHiC
    24.05.2016 13:15
    -2

    Вода, вода, вода… Как именно в итоге сократить то, и какой получается выигрыш?


    1. samsivan
      24.05.2016 13:27

      Ну тут больше явно статья не на конкретных админов направлена, а на руководителей. В таком случае вполне норм формат — ссылки на Гартнер, на связанные вопросы вроде виртуализации (хотя в блоге я видел еще вот такую статью — на нее ссылку тоже можно было бы добавить).


      1. 1cloud
        24.05.2016 13:45
        +1

        Добавили. И вот эту еще статью тоже можно почитать по теме https://habrahabr.ru/company/1cloud/blog/273273/


      1. ToSHiC
        24.05.2016 13:51
        -3

        И ни в одной этих ссылок нету названий конкретных продуктов и их сравнения, только про космические корабли, которые бороздят просторы большого театра.


  1. KorP
    24.05.2016 14:18
    +1

    Виртуализация СХД будет хороша тогда (если) когда она станет платформонезависимой. По аналогии с серверной виртуализацией, когда мы не привязаны ни коим образом к железу, а есть нечто поверх него что позволяет всё это консолидировать и управлять. По сути SDS и должен это демонстрировать, но пока он весь всё-равно привязан к «рекомендуемому» разработчиком небольшому набору железа


    1. padla2k
      26.05.2016 19:08

      Какой «рекомендуемый» набор железа для Windows Server 2012 Storage Spaces? А для EMC ScaleIO? Ну и на сладкое — Ceph?

      Концепция SDS тем и хороша, что ей наплевать на вендора — есть некие рекомендуемые характеристики железа и софта. И это правильно, или вы хотите что бы SDS работала даже на кофеварке? Тут уж увы…


      1. KorP
        26.05.2016 19:47

        И у всех перечисленных хватает собственных минусов. Никто не говорит что концепция SDS — плоха, она очень даже хороша, но на данный момент — пока только концепция. Согласитесь — SDS не ограничивается только тем набором ПО что вы указали — его на много больше. Вот могу рассказать историю, рассказанную представителем Dell: обращается к ним клиент — хочу сдс, ему предлагают Нексенту, клиент спрашивает — а можно мы серверы под неё у вас купил? — делл естественно не против, клиент говорит — а если мы покупаем у вас сдс и серверы — давайте вы нам ещё и саппорт на всё это дело организуете? — в итоге клиент покупает Компилент. это реальная история, и она не одна. Общались с парой компаний из Израиля и Америки, которые организовали различные «крупные фигуры» стораджового бизнеса типа Moshe Yanai — или привязка к железу, или неадекватнейшая цена, что проще и дешевле купить FAS, ну и прочие «плюшки». Так что несмотря на хорошую концепцию, которая была придумана далеко не вчера, реально готовой рабочей системы под продакшн пока можно сказать и нет. Что там крок целый год у себя внедрял? ScaleIO? По-моему ни чем хорошим это не концилось


        1. ToSHiC
          26.05.2016 19:54

          Готовые, конечно же, есть, только не продаются. Гугл, Амазон, Яндекс — не пользуются классическими хранилищами, а давно уже на SDS, только самописными и заточенными под свою инфраструктуру. Но при этом на вендора самого железа в целом наплевать, главное, чтобы линукс завёлся без проблем.


          1. KorP
            26.05.2016 21:39

            Ну так вот я о том и говорю — то что не будет требовать доработки напильником, как esxi. Поставил, есть конечно некоторые баги с железом, но каких-либо жёстких требований к оборудованию нет — ставь на что угодно и работай