/ фото Cory Doctorow CC
Все, кто сталкивался с набирающими популярность технологиями виртуализации, наверняка, в курсе различных возможностей по экономии средств, которые подтвердили уже самые ранние опросы VMware: совокупная стоимость владения (TCO) в этом случае сокращается в среднем на 74%. При этом многие упускают из внимания часть инфраструктуры, которая касается хранения данных.
Разработчики инфраструктуры зачастую не уделяют должного внимания организации систем хранения данных, что приводит к нерациональному использованию техники и неэффективному распределению нагрузки на сервисы. Это приводит и к увеличению цен на соответствующие инструменты, при этом от 30% до 70% затрат уходит на консультации специалистов.
В нашем блоге на Хабре мы неоднократно поднимали вопросы, связанные с данной темой: говорили об устройствах хранения, рассматривали новые технологии будущего и рассуждали о применимости закона Мура к прогнозированию ситуации. Сегодня мы хотели бы обсудить подходы к сокращению издержек, лежащие в основе идеи о том, что в эпоху «бережливого производства» именно инфраструктура хранения данных является одним из очевидных решений, позволяющих неплохо сэкономить.
Все знают, что данные нужно где-то хранить, и их объем со временем увеличивается. Однако чтобы увидеть разницу между инструментами для хранения данных и рассмотреть их преимущества – которые будут действовать на протяжении не трех лет, как раньше, а пяти или даже семи в большинстве организаций – нужно владеть определенными техническими знаниями.
Основная сложность разработчиков инфраструктуры – это суметь разглядеть более общие тенденции в сфере хранения данных и выбрать стратегию, которая гарантировала бы надежное и эффективное решение по приемлемой для компании цене. Для этого нужно трезво оценить стоимость компонентов СХД, а также альтернативные варианты с высокой функциональностью, которые бы позволили оптимизировать капитальные и операционные издержки.
По мнению ведущих аналитиков отрасли вроде Gartner, затраты на приобретение оборудования составляют лишь пятую долю от ежегодных затрат на эксплуатацию СХД. Капитальные затраты оказываются крайне малы по сравнению с операционными издержками.
Компании зачастую нерационально расходуют средства и приобретают лучшие решения на рынке, но при этом хранят на них данные приложений, которые не требуют высокой производительности. Неумение использовать преимущества иерархического управления носителями – основной технологии для распределения данных по инфраструктуре в соответствии с частотой запросов, обновлений и другими критериями – на практике приводит к резкому снижению эффективности использования ресурсов.
/ фото Perspecsys Photos CC
Мы как поставщик услуг виртуальной инфраструктуры прекрасно понимаем, что виртуализация – это инструмент, который полностью раскрывает свой потенциал только в том случае, если использовать его грамотно. Существует множество видов виртуализации (тут мы поговорили об их плюсах и минусах), и подобно тому, как серверная виртуализация после своего появления снизила стоимость и увеличила эффективность размещения и использования серверного оборудования, виртуализация систем хранения данных может раскрыть потенциал инфраструктуры, снизив при этом стоимость ее владения.
В среде виртуализированного хранения используется пул ресурсов, который снимает необходимость часто менять инфраструктуру. Пулы СХД могут иметь свой набор характеристик и сервисов, например, с упором на оптимизацию производительности. Можно собрать в пул низкопроизводительные диски, на которых будет храниться основной объем данных, а такие технологии, как thin provisioning, сжатие и дедупликация, можно будет применять в зависимости от потребностей участка или инфраструктуры.
Существует масса подходов к виртуализации систем хранения данных: начиная от установки аппаратного контроллера, к которому «прикрепляются» все СХД, и заканчивая виртуализацией соединения или точек монтирования (mount points), в которых СХД связана с сервером и его операционной системой. Системы такого типа используют DRAM, создавая на всех серверах общий кэш, который можно использовать для буферизации и ускорения работы приложений. Помимо этого возможна работа и с каналами ввода/вывода между носителями информации и сервером – и распределения нагрузки по этим соединениям, чтобы постоянно обеспечивать высочайшую производительность соединений между сервером и СХД.
Таким образом, все физические СХД, память и соединения работают в рамках комплексной инфраструктуры ресурсов, которые можно распределять и высвобождать, масштабировать и контролировать без особого труда: перемещать данных между уровнями, включать конкретные данных в четко определенную СХД, осуществлять миграцию данных между томами или пулами. Все эти процессы, на которые могло бы уйти чересчур много времени и денег значительно упрощаются в среде виртуализированного хранения данных. С подходящим SDS-решением, процесс внедрения нужных сервисов в инфраструктуру резко упрощается.
Дополнительные материалы по теме:
- Как дата-центры меняются прямо сейчас: Энергоэффективность, хранение данных и «облака»
- Пятничный формат: ДНК и решение проблемы хранения данных
- Хранение данных: Какое будущее нас ждет
- Будущее хранения данных: 3D-диски с большой емкостью
- Немного о хранении данных и опыте 1cloud
Немного о том, как мы улучшаем работу провайдера виртуальной инфраструктуры 1cloud:
Комментарии (9)
KorP
24.05.2016 14:18+1Виртуализация СХД будет хороша тогда (если) когда она станет платформонезависимой. По аналогии с серверной виртуализацией, когда мы не привязаны ни коим образом к железу, а есть нечто поверх него что позволяет всё это консолидировать и управлять. По сути SDS и должен это демонстрировать, но пока он весь всё-равно привязан к «рекомендуемому» разработчиком небольшому набору железа
padla2k
26.05.2016 19:08Какой «рекомендуемый» набор железа для Windows Server 2012 Storage Spaces? А для EMC ScaleIO? Ну и на сладкое — Ceph?
Концепция SDS тем и хороша, что ей наплевать на вендора — есть некие рекомендуемые характеристики железа и софта. И это правильно, или вы хотите что бы SDS работала даже на кофеварке? Тут уж увы…KorP
26.05.2016 19:47И у всех перечисленных хватает собственных минусов. Никто не говорит что концепция SDS — плоха, она очень даже хороша, но на данный момент — пока только концепция. Согласитесь — SDS не ограничивается только тем набором ПО что вы указали — его на много больше. Вот могу рассказать историю, рассказанную представителем Dell: обращается к ним клиент — хочу сдс, ему предлагают Нексенту, клиент спрашивает — а можно мы серверы под неё у вас купил? — делл естественно не против, клиент говорит — а если мы покупаем у вас сдс и серверы — давайте вы нам ещё и саппорт на всё это дело организуете? — в итоге клиент покупает Компилент. это реальная история, и она не одна. Общались с парой компаний из Израиля и Америки, которые организовали различные «крупные фигуры» стораджового бизнеса типа Moshe Yanai — или привязка к железу, или неадекватнейшая цена, что проще и дешевле купить FAS, ну и прочие «плюшки». Так что несмотря на хорошую концепцию, которая была придумана далеко не вчера, реально готовой рабочей системы под продакшн пока можно сказать и нет. Что там крок целый год у себя внедрял? ScaleIO? По-моему ни чем хорошим это не концилось
ToSHiC
26.05.2016 19:54Готовые, конечно же, есть, только не продаются. Гугл, Амазон, Яндекс — не пользуются классическими хранилищами, а давно уже на SDS, только самописными и заточенными под свою инфраструктуру. Но при этом на вендора самого железа в целом наплевать, главное, чтобы линукс завёлся без проблем.
KorP
26.05.2016 21:39Ну так вот я о том и говорю — то что не будет требовать доработки напильником, как esxi. Поставил, есть конечно некоторые баги с железом, но каких-либо жёстких требований к оборудованию нет — ставь на что угодно и работай
ToSHiC
Вода, вода, вода… Как именно в итоге сократить то, и какой получается выигрыш?
samsivan
Ну тут больше явно статья не на конкретных админов направлена, а на руководителей. В таком случае вполне норм формат — ссылки на Гартнер, на связанные вопросы вроде виртуализации (хотя в блоге я видел еще вот такую статью — на нее ссылку тоже можно было бы добавить).
1cloud
Добавили. И вот эту еще статью тоже можно почитать по теме https://habrahabr.ru/company/1cloud/blog/273273/
ToSHiC
И ни в одной этих ссылок нету названий конкретных продуктов и их сравнения, только про космические корабли, которые бороздят просторы большого театра.