В поиске надёжных и быстрых СХД? Используй решения компании StoreQuant
Системы хранения данных (СХД) являются ключевым элементом любой современной ИТ-системы, включая системы, ориентированные на поддержку бизнеса. Иностранные компании даже ввели термин, который описывает такие системы – Business Critical Systems или Mission Critical Systems.
Действительно, обработка и хранение данных является важной задачей, так как их потеря или кратковременные сбои в работе СХД могут привести к серьёзным последствиям для бизнеса в целом.
Мы не будем переводить термин Business Critical на русский язык, так как он интуитивно понятен широкой аудитории профессионалов, работающих в этой области, однако наша задача заключается в том, чтобы сделать доступным понимание основ СХД для более широкой аудитории. Поэтому, упоминая термин СХД, мы будем подразумевать Business Critical СХД, так как, в нашем понимании, СХД должна обязательно выполнять ряд функций и реализовывать необходимые требования, которые как раз и заложены в термине Business Critical.
В данной статье мы расскажем об архитектуре СХД, её возможностях и преимуществах перед конкурентными решениями зарубежных вендоров.
Используя свой опыт, а также опыт многих клиентов, использующих СХД, рассмотрим далее на типовых примерах, как можно решить актуальные задачи с помощью Российской запатентованной технологии СХД от компании StoreQuant.
Что покупают клиенты и есть ли выбор на рынке?
Анализируя рынок, мы сформулировали ряд требований, которые должны быть обязательно выполнены у любой СХД-системы. К сожалению, сейчас покупатели иностранных СХД-решений в России не имеют возможности влиять на развитие продуктов или каким-либо образом адаптировать их для своих нужд с помощью производителей СХД.
Основные требования, предъявляемые к современным СХД:
- СХД должна работать 24х7 и поддерживать апгрейд без остановки сервиса.
- В СХД должна быть реализована технология восстановления данных без участия пользователя в случае сбоя носителя информации.
- Архитектура СХД не должна иметь единой точки отказа.
- СХД должна адаптироваться к нагрузке со стороны приложений без изменения конфигурации самих приложений.
- СХД должна содержать функции самодиагностики на уровне протокола доступа к данным.
Подавляющее количество сбоев СХД случается по причине ошибок в программном обеспечении или проявляется вследствие несовместимости на уровне протоколов доступа к данным.
Именно в соответствии с этими принципами мы создаём свои продукты и решаем задачи клиентов.
Что такое СХД и как её построить?
Сейчас очень много разнообразных онлайн-курсов у производителей СХД, в рамках которых Вам расскажут, как можно управлять СХД, а также какие функции они имеют, но не скажут главного о том, как же это всё работает в реальности.
СХД представляет собой программно-аппаратный комплекс (в английской терминологии Appliance). Развитие СХД очень сильно обусловлено как раз программным обеспечением, которое на практике у многих вендоров называется «микрокод». В рамках программного обеспечения реализуются практически все важные элементы СХД, и это грамотный технический подход, так как он позволяет экономить на разработке аппаратного обеспечения СХД. Термин Software Defined Storage (SDS), в нашем понимании, является неверным, так как не может существовать чисто программной реализации для СХД, любая версия SDS так или иначе связана с аппаратурой и зависит от неё.
Мы изначально ввели ряд принципов, которых мы придерживаемся при разработке СХД:
- НЕ использовать Open Source-средства для управления данными;
- НЕ полагаться на архитектуру аппаратной платформы, за исключением особых критических функций СХД;
- НЕ программировать на низком уровне (Kernel), за исключением критических областей.
Многие пионеры, которые создают свои решения в области СХД, наивно полагают, что достаточно взять хорошо разрекламированный Open Source-пакет для управления данными в Интернет и можно решить любые задачи, предварительно взяв ещё недорогой сервер. Нетрудно догадаться, что Open Source-решения в области СХД создавались их авторами для совершенно других целей и что применять их для создания СХД нужно очень внимательно.
СХД представляет собой систему, которая работает как единый и хорошо отлаженный механизм и собирать её из произведений различных авторов трудно и дорого.
А кто обеспечит безопасность и целостность данных клиента?
Доверять Open Source-решениям управление данными в такой сложной системе, как СХД, очень рискованно.
Проанализировав, как к решению данной задачи подходят зарубежные вендоры СХД, мы разработали свое ядро СХД, не используя Open Source-компонент.
Мы определили основные элементы СХД, о которых расскажем в данной статье.
Зачем строить СХД?
Мы будем освещать многие аспекты этого вопроса в дальнейшем, однако сформулируем основные причины сейчас:
- Быть лидером в СХД – значит создавать СХД. Быть потребителем – покупать чужие решения.
- СХД легко встраивается в любой ИТ-ландшафт, в отличие, например от российских СУБД, которые сложно адаптировать к существующим приложениям.
- Большой ассортимент микрочипов, используемых в технологиях обработки и передачи данных, позволяет быстро проектировать новые и уникальные СХД-решения.
- Серьёзная безопасность данных может быть обеспечена только в отечественном решении.
Мы постараемся изложить в будущих статьях интересные способы реализации алгоритмов обработки и хранения данных и просто инженерные решения.
А есть ли будущее у СХД?
Безусловно будущее у СХД есть, так как архитектура современных компьютеров не позволяет хранить на постоянной основе большие объёмы данных в оперативной памяти.
Даже появление новых In-Memory-СУБД не отменяет СХД по вышеизложенной причине.
Именно поэтому мы первые реализовали на Российском рынке СХД на базе NVMe-носителей и представили своё решение в линейке StoreQuant Velocity Scale. Данный продукт является первым Российским СХД на базе NVMe-стандарта, уверенно конкурирует с иностранными аналогами и легко интегрируется в инфраструктуру SAN у любого клиента.
Далее мы расскажем про нашу архитектуру, продукты и решения.
Какую архитектуру мы используем в СХД StoreQuant Velocity Scale ?
Основной элемент архитектуры СХД StoreQuant – In-Memory-СУБД, гарантирующая сохранность данных на основе механизма обработки транзакций.
Любая операция, связанная с обработкой команды записи или чтения данных в СХД, должна соответствовать концепции ACID (Atomicity, Consistency, Isolation, Durability). Хранилище СУБД основано на хранении блочных данных, и его можно классифицировать как объектную базу данных. Задача СУБД также заключается в отказоустойчивой обработке данных в памяти нескольких контроллеров. Область памяти, которая используется СУБД для хранения данных в RAM мы называем Cache.
Мы активно используем Cache для ускорения операций ввода-вывода, т.е. все операции сохраняются в первую очередь в памяти RAM контроллера СХД. Под термином Cache мы понимаем не просто обработку данных в RAM, но также алгоритмы, которые управляют перемещением данных между RAM и HDD-носителями информации. Структурная схема программного комплекса СХД представлена ниже на Рисунке 1.
Рисунок 1. Структурная схема программного кода СХД
Совмещая обработку данных в Cache с алгоритмами синхронизации данных, мы обеспечиваем одновременную синхронную репликацию данных и их доступность в случае физических сбоев оборудования. Благодаря концепции ACID мы можем быть уверенными, что внутри СХД гарантированно будут выполнены все команды. Структурная схема компонентов СУБД изображена на Рисунке 2.
Рисунок 2. Структурная схема компонентов СУБД
Для чего необходим High Performance Scalable Link Switch ?
Особый компонент High Performance Scalable Link Switch, которому мы дали кодовое имя «URSUS», позволяет выполнять вызовы между User space и Kernel space без использования syscall (на схеме syscall free). URSUS позволяет абстрагироваться от особенностей реализации аппаратной платформы при работе с HBA-адаптерами, RAID-группами, внешними контроллерами СХД. Для реализации SDK URSUS мы использовали язык С++ и собственную библиотеку шаблонов на языке С++ для поддержки разнообразных примитивов и структур данных, способных решать задачи блочного хранения данных. В целях ускорения разработки мы создали SDK, который позволил нам создавать собственные модули для реализации различных функций обработки информации, например: кодирование информации, дедупликация, сжатие и т.д.
Как обеспечить обновление микрокода СХД в режиме 24х7 ?
URSUS позволяет выполнять обновление программных модулей СХД, выполняющихся в User space в режиме Online без остановки операций ввода-вывода. В ядре слоя URSUS мы не используем стандартные механизмы операционной системы и обращаемся напрямую к данным в Cache, таким образом мы используем zero-copy-механизм обработки данных. В отличие от уровня block layer в ОС Linux, где выполняется многократное копирование данных между различными структурами ядра ОС, мы не теряем время на обработку команд, и это позволяет снизить latency операций ввода-вывода на нашей СХД.
В чём мы лучше иностранных вендоров СХД ?
Используя комплекты разработчиков СХД от иностранных вендоров, партнёр по разработке получает весь спектр недостатков:
- Партнёр полностью зависит от proprietary контроллеров на базе сложных и малодоступных процессорных технологий. Полученное решение в дальнейшем полностью зависит от жизненного цикла аппаратной платформы.
- Полная зависимость от технической поддержки вендора во время разработки и в процессе эксплуатации, в частности и преимущественно в силу сложных FPGA схем, которые используются в системах иностранных вендоров.
- Отсутствие гарантии защиты вашей интеллектуальной собственности, так как в процессе разработки требуется раскрывать исходный код вашего решения при проведении консультаций с технической поддержкой иностранного вендора.
Преимущество SDK URSUS заключается в следующих возможностях, которые мы гарантируем нашим партнёрам:
- Архитектура SDK URSUS позволяет построить полноценную СХД с режимом работы 24х7.
- Команда разработчиков не должна иметь квалификацию в создании СХД. Достаточно иметь навыки разработки программ под ОС Linux и языке C/C++. Не существует проблемы в поиске квалифицированных кадров.
- Свобода в выборе аппаратной платформы для создания собственного СХД решения.
- Возможность портирования кода SDK на любую архитектуру, в частности: ARM, Эльбрус
- Высокая скорость разработки на базе SDK URSUS по сравнению с другими решениями и в частности такими open source решениями как LIO, SCST. В итоге партнёр сможет быстрее выйти на рынок с готовым решением.
- Наличие исходного кода решения упрощает сертификацию решения под различные стандарты безопасности.
В своей ОС мы используем только стабильные версии ядра Linux из архива Vanilla Kernels.
Описание комплекта разработчика вы можете найти у нас на сайте по ссылке.
Как устроен RAID в СХД StoreQuant Velocity Scale ?
Основной базовый элемент хранения данных в СХД StoreQuant – RAID-группа.
Существуют различные конфигурации RAID-группы, которые отмечены в Таблице 1.
Таблица 1 – Конфигурации RAID-групп
Тип RAID | 4 диска | 16 дисков | 64 дисков | 128 дисков | 256 дисков |
---|---|---|---|---|---|
RAID10 | 2D+2D | 8D+8D | 32D+32D | 64D+64D | 128D+128D |
RAID50 | 3D+1P | 12D+4P | 48D+16P | 96D+32P | 192D+64P |
RAID60 | 2D+2P | 8D+8P | 32D+32P | 64D+64P | 128D+128P |
Parity-данные распределяются по схеме round-robin по дисковой группе таким образом, что выход из строя любого диска (например 3D+1P) не влияет на работу RAID и доступность данных.
В центре внимания всегда RAID группа из 4 дисков (базовая группа), используя которую можно собирать более сложные RAID-конфигурации на большем количестве дисков. Например: группа из 32 дисков в конфигурации 24D+8P состоит из восьми RAID-групп в конфигурации 3D+1P. Расчёт parity происходит в рамках базовой группы из 4 дисков, что позволяет значительно распределить нагрузку на диски и повысить скорость ввода-вывода.
Мы используем подход «Объединяй и властвуй»
Используя подход, который мы называем «Объединяй и властвуй», клиент может единовременно добавить минимум 4 диска в СХД и сконфигурировать RAID-группу, но может решить либо использовать её отдельно, либо добавить её в состав существующей RAID-группы. Приведённое в Таблице 1 разделение на 8, 16, 32 и т.д. дисков чисто условно, объединение может быть выполнено даже для минимальной RAID-группы из 4 дисков, но не более 256 дисков в рамках одной RAID-группы.
Мы интегрировали в свое программные обеспечение протокол NVMe для твердотельных дисков следующих моделей, представленных в Таблице 2, таким образом мы управляем жизненным циклом каждого диска в отдельности, контролируя его состояние, доступность, обновление микрокода и т.д.
На данный момент мы поддерживаем протокол NVMе вплоть до версии 1.2 включительно.
Таблица 2 – Доступные модели дисков СХД StoreQuant на базе NVMe протокола
Модель диска | Форм-фактор | Объём данных, ТБ |
---|---|---|
StoreQuant DataFusion 500 | 2.5 inch / U.2 | 2 |
StoreQuant DataFusion 550 | 2.5 inch / U.2 | 3.6 |
StoreQuant DataFusion 600 | 2.5 inch / U.2 | 4 |
StoreQuant DataFusion 650 | 2.5 inch / U.2 | 8 |
StoreQuant DataFusion 700 | 2.5 inch / U.2 | 11 |
Зачем нужен BackEnd в СХД StoreQuant ?
Главная инженерная проблема любой СХД – создать производительный, отказоустойчивый канал для обмена данными внутри СХД. Любая операция ввода-вывода порождает множество операций внутри СХД, что приводит к необходимости использования шины для передачи данных с минимальной latency.
Если говорить об операциях ввода-вывода, то в любой СХД существует по сути одна атомарная операция – изменение данных, которая включает в себя prefetch (чтение) данных и последующую запись изменений на диск. В зависимости от объёма передаваемых данных и типа RAID, запись изменённых данных порождает множество внутренних операций ввода-вывода для каждого диска, входящего в состав RAID-группы.
Что такое Intel Non-Transparent Bridge ?
В своей архитектуре мы активно используем технологию Intel Non-Transparent Bridge (NTB), которая позволяет использовать встроенные возможности процессора для взаимодействия с внешними процессорными системами при помощи шины PCI Express.
Мы стремимся выпустить на рынок в России уникальные решения на базе Intel NTB, уже сейчас у нас есть готовы адаптеры для создания сетевого соединения между любыми двумя Intel-системами на расстоянии до 100 метров с помощью оптического многомодового кабеля.
Важно, что мы не используем протоколы InfiniBand или Ethernet для синхронизации данных между контроллерами СХД, что позволяет нам получить минимальную latency и достаточную для нашей задачи пропускную способность шины PCI express.
Для понимания того, какой результат позволяет получить Intel NTB, приведём количественные данные его тестов (ping pong для синхронизации данных в RAM): передача данных по линку x16 PCIe между двумя контроллерами СХД блоками по 8Кб, позволяет достичь пропускной способности 10 115 МБ/c (Мегабайт в секунду) при средней задержке в 0.81 мкс (микросекунда).
Почему следует использовать инфраструктуру Fibre Channel ?
Однако, так как у большинства клиентов используется технология Fibre Channel (FC) и имеется большое количество оборудования для инфраструктуры FC, то мы также поддерживаем протокол FC для организации шины BackEnd в СХД StoreQuant Velocity Scale. Следует отметить, что реализация протокола FC у большинства вендоров HBA-адаптеров позволяет значительно сократить наши затраты при разработке СХД, так как мы получаем уже готовый SDK, где основная работа уже происходит на уровне SCSI, а не FC. Наша стратегия заключается в поддержке минимум двух стандартов для шины BackEnd в СХД StoreQuant Velocity Scale.
Выбирая протокол для передачи данных для СХД, следует учитывать пропускную способность RAM, которая зависит от объёма памяти (количества DIMM, так как память многоканальная), типа памяти (частоты и скорости) и возможностей CPU.
Почему не стоит выбирать инфраструктуру Infiniband для организации BackEnd шины ?
Тестируя различные варианты платформ на базе Intel, мы получаем, что на практике сейчас средняя пропускная способность RAM DDR3 не более 20ГБ/с (Гигабайт в секунду) на стандартной двухсокетной машине с Intel Xeon E5 v3, поэтому верхняя граница скорости уже задана производителями платформ.
Наиболее широкое распространение в архитектуре Intel получила шина передачи данных PCI Express. Исходя из возможностей шины PCI express v3.0, мы получаем нижнюю границу пропускной способности данных, и тут возникает вопрос, какой протокол лучше использовать? Рассматривая маркетинговые ходы разных компаний на рынке, которые предлагают адаптеры на базе PCI express v3.0 со скоростью передачи от 100Gb/s и выше, мы понимаем, что таких скоростей достичь трудно, по крайней мере на стандартном оборудовании платформ на базе Intel ? по причинам приведённым выше.
Ситуация в любом случае будет улучшаться, так как сейчас готов стандарт PCI express v4.0 и там возможности значительно расширены.
Надстройка Infiniband над стандартным протоколом PCI express добавляет дополнительные накладные расходы — снижает пропускную способность канала передачи данных и увеличивает latency.
Дополнительно, стоимость разработки на базе протокола Infiniband будет достаточно высокая, по сравнению с Fibre Channel, по сколько в данном протоколе уже встроен логический уровень передачи данных на основе протокола SCSI.
Какой протокол стоит выбирать для шины BackEnd СХД ?
Мы понимаем, что использование Non-Transparent Bridge позволит создать гораздо более широкие возможности для клиентов и существенно сократить расходы на ИТ-инфраструктуру.
Если выбирать между своим протоколом передачи данных или готовой реализацией протокола, то однозначно свой вариант будет дешевле на этапе продажи и внедрения, поэтому мы разработали свой протокол, который поддерживает коммутацию пакетов между контроллерами.
В итоге мы получили следующие преимущества:
- Мы сами диктуем стратегию развития своего протокола и не зависим от реализации и тонкостей изготовления адаптеров (встроенного микрокода) от стороннего иностранного производителя.
- Мы сделали намного более дешёвую версию своего протокола, по сравнению с другими высокоскоростными стандартами на рынке. Поэтому мы более конкурентоспособны в плане предоставления более выгодного предложения нашим клиентам.
В следующих статьях мы расскажем про новые продукты StoreQuant на базе Intel NTB и возможные способы их применения.
Как мы масштабируем свои ресурсы в СХД StoreQuant ?
Масштабирование СХД при увеличении нагрузки, а также соблюдение политик Quality of Service (далее QoS) являются насущными задачами любого клиента. По нашим исследованиям, многие иностранные вендоры не имеют возможностей QoS, которые помогают однозначно без дополнительных финансовых вложений защитить критичные приложения в случае роста нагрузки СХД.
Мы вкладываем в термин QoS следующие возможности, которые отсутствуют у иностранных вендоров:
- Возможность защиты Cache для конкретного приложения. Клиент сам настраивает объём Cache, который гарантированно доступен для приложения.
- Возможность выделения ширины канала передачи данных на уровне RAID-группы под конкретное приложение для заданного тома.
- Возможность балансировки внешнего доступа к данным на уровне портов ввода-вывода.
- Доступ к данным на базе виртуальных WWN для портов ввода-вывода.
Базовый элемент архитектуры нашей СХД – контроллер, который имеет на своём борту два сокета под Intel Xeon, коммутатор для NVMe дисков, а также способен нести под свои «крылом» до 1500 МБ RAM, которую мы активно используем под Cache. Контроллер имеет высоту 2 Unit или 1 Unit и предназначен для установки в стандартный Rack. В составе контроллера имеется от 10 до 24 слотов для установки дисков NVMe.
Пример: Максимальная сырая ёмкость хранимых данных в рамках одного контроллера 2 Unit, используя диски ёмкостью 2ТБ, составляет 48 ТБ.
Пример уже готового предложения от компании StoreQuant, а также возможные конфигурации продукта можно узнать на нашем сайте здесь.
Один контроллер имеет до 4 внешних (FrontEnd) и 2 внутренних (BackEnd) портов ввода-вывода, в частности мы поддерживаем FC на скорости 16 Gb/s и 32 Gb/s.
Таблица 3 – Технические характеристики контроллера СХД StoreQuant
Тип контроллера СХД StoreQuant | Порты ввода-вывода (BE/ FE) | Объём данных (MIN/MAX) | Объём RAM (Cache) |
---|---|---|---|
DataFusion SmartNode v1.0 | 2 / 4 | 1.6ТБ / 110 ТБ | 1500 МБ |
С точки зрения защиты данных, мы реализуем синхронное копирование данных всегда в паре контроллеров. Таким образом данные попадают в память двух контроллеров, что гарантирует защиту от сбоя на уровне оборудования.
Для защиты в случае ситуации Split-brain мы используем шину BackEnd, которая имеет несколько выделенных линий для передачи данных.
Особенностью нашей архитектуры является возможность на уровне системы управления СХД объединять контроллеры вместе, таким образом мы обеспечиваем защиту 1+1 на уровне контроллера и предоставляем возможность клиенту переводить трафик от серверов на выделенные порты ввода-вывода и разделять нагрузку между контроллерами. Таким образом контроллер всегда работает в паре (далее Base Module) с другим контроллером и представляет единый комплекс в составе СХД. На данный момент мы поддерживаем всего 512 Base Modules в составе своего СХД решения. Наши максимальные технические возможности с учётом работы всех 512 Base Modules представлены в Таблице 4.
Таблица 4 – Технические характеристики СХД StoreQuant в максимальной конфигурации
Количество портов ввода-вывода (FC) для Front End | Количество Cache (максимум) | Максимальный объём данных |
---|---|---|
4096 | 1536 ТБ | 112 640 ТБ |
С точки зрения апгрейда СХД, клиент может установить минимум один контроллер и включить его в структуру СХД. На Рис. 3 представлен пример СХД из трёх контроллеров, когда клиент устанавливает дополнительный контроллер C, что позволяет увеличить объём IOPS (операций ввода-вывода) всей СХД системы за счёт дополнительных портов ввода-вывода. В данном случае контроллер B образует две пары (Base Modules) с контроллером А и контроллером C, при этом все операции записи данных защищены синхронным копированием данных в Cache всех контроллеров. Используя контроллер C, клиент получает возможность предоставить альтернативный путь доступа к тому (X) для приложений, тем самым изолировать приложение использующее том (X) на уровне портов ввода-вывода от других приложений.
Рисунок 3. Конфигурация Base Module СХД StoreQuant
Необходимо отметить, что управление томами и RAID-группами происходит в режиме Online без остановки сервиса СХД, т.е. с помощью механизма Snapshots можно перенести том с одной RAID-группу на другую RAID-группу в рамках разных контроллеров. Мы поддерживаем два вида Snapshots – СOW (Copy-on-write) и Full snapshots, а также возможность синхронизации Snapshots во времени для репликации измененных данных и сокращения времени создания Snapshot.
Мы специально не используем системы типа JBOD в своей архитектуре, так как по сути наш контроллер выполняет функции JBOD, т.е. хранит данные и предоставляет к ним доступ, а также функции контроллера, т.е. обеспечивает защиту данных и управляет RAID-группами.
В нашей архитектуре, клиент сам управляет отказоустойчивостью RAID-групп, т.е. СХД позволяет выбрать конкретные диски в любом контроллере и сформировать на их базе RAID-группу. Таким образом, клиент может значительно экономить свои финансовые средства при очередном апгрейде СХД.
Что такое Active-Active конфигурация в СХД StoreQuant ?
Большинство СХД систем на Российском рынке предлагают возможность доступа к данным (томам) через активные порты ввода-вывода в рамках минимум двух различных физических контроллеров. Однако на Российском рынке существуют такие СХД системы, которые понимают термин Active-Active иначе и намеренно вводят неверное понимание в своих маркетинговых материалах. Попробуем объяснить как выглядит Active-Active конфигурация, лучше всего будет обратиться к наглядному примеру ниже на Рис. 4.
“Cache Sync” позволяет синхронизировать все операции записи данных между контроллерами, используя шину BackEnd.
Рисунок 4. Конфигурация Active – Active СХД StoreQuant
Нетрудно увидеть, что конфигурация на Рис. 5 приведёт к отказу в доступе к данным при выходе из строя контроллера СХД, что безусловно является недопустимым событием. Мы не используем данную конфигурацию в своём продукте.
Рисунок 5. Конфигурация без защиты доступа к данным
Как мы балансируем доступ к данным на уровне LUN в СХД StoreQuant ?
Важным моментом при выборе СХД является возможность доступа к данным на уровне LUN, т.е. диска в терминах SCSI. В случае Active-Active конфигурации мы реализуем подход, который разделяет адресное пространство тома таким образом, что каждый контроллер в паре может обслуживать операции записи данных отдельно. Большинство СХД всегда реализует доступ к данным по схеме, где только один контроллер может быть Master, а другой Slave, при этом Slave выполняет роль «прокси» контроллера, т.е. он передаёт запросы Master контролеру и возвращает результат, но не выполняет команды самостоятельно.
Наш подход в архитектуре СХД StoreQuant, позволяет добиться большей скорости при обработке операций ввода-вывода, а также оптимизировать использование ресурсов каждого контроллера. Адресное пространство каждого тома разделяется в соотношении 50/50 между парой контроллеров (Base Module), что позволяет активно использовать ресурсы каждого контроллера в СХД.
В итоге, выбирая архитектуру СХД StoreQuant наши клиенты и партнёры получают:
- Масштабируемое и надёжное СХД с режимом работы 24х7 и гарантированной технической поддержкой с услугой 8 часов call-to-repair.
- Возможность установки нашего решения на аппаратную платформу клиента и создание уникального решения для нужд нашего клиента.
- Гибкая лицензионная политика СХД StoreQuant значительно сокращает расходы и экономит бюджет.
В следующих статьях мы расскажем про технические решения актуальных задач у наших клиентов.
Комментарии (22)
lelik363
11.03.2018 17:40Ваше решение — это программно-аппаратный комплекс?
StoreQuant Автор
11.03.2018 17:42-1Да, это полноценная система с проверенной и надёжной аппаратной частью, описание конфигурации есть на нашем сайте и мы привели ссылку в статье storequant.ru/pdf/STOREQUANT_STORAGE_PRODUCT.pdf
Сейчас готовим также чисто софтверные решения, но о них позже мы расскажем.lelik363
11.03.2018 18:26В чём разница между Tatlin от Ядра и Вашим изделием?
StoreQuant Автор
11.03.2018 18:32-1Вопрос скорее всего не к нам, мы изложили свои технические данные в статье и также рассказали про нашу архитектуру, поэтому Вы можете взять все данные о нас и сравнить. Из тех игроков которые есть на нашем рынке мы представляем не open source завёрнутый в коммерческое решение, а проверенный годами алгоритмы и инновационную архитектуру. Наше решение полностью принадлежит нам и мы его развиваем, у нас нет заимствованных решений, как это часто бывает на рынке аналогичных решений. Но я не могу комментировать конкурентное решение, прошу задавать вопрос по нашей системе, я обязательно отвечу.
lelik363
11.03.2018 19:54Кто для вас производит аппаратную платформу?
StoreQuant Автор
11.03.2018 19:58Мы производим свою плафторму, основа архитектуры x86, т.е. Intel. Сейчас есть планы портирования на Эльбрус архитектуру.
Контроллеры и адаптеры мы также проектируем сами, скоро выпустим статью на эту тему.
Если у вас есть вопросы, то вы можете написать нам через наш сайт запрос по почте указанной в контактах и мы адресно ответим.lelik363
11.03.2018 20:21Партнёр полностью зависит от proprietary контроллеров на базе сложных и малодоступных процессорных технологий. Полученное решение в дальнейшем полностью зависит от жизненного цикла аппаратной платформы.
Что Вы имели ввиду?StoreQuant Автор
11.03.2018 20:26мы не используем чужие FPGA, с встроенными программным обеспечением. Наше программное обеспечение практически не зависит от аппаратной платформы. Это принципиальное отличие, так как задача компаний которые предлагают свои контроллеры и FPGA на базе ARM — серьёзно привязать потребителей к своей аппаратной реализации. Наше мнение состоит в том, чтобы не привязываться к платформе. Использование FPGA сторонних вендоров не добавляет скорости и надёжности решения.
lelik363
11.03.2018 21:13То есть этим вы хотите сказать, что используете контроллеры HBA от известных производителей, например, Marvell и пр.?
StoreQuant Автор
11.03.2018 21:41Нет, мы хотим сказать что разрабатывать такое решение на базе сложных FPGA долго и сложно искать кадров, а главное в условиях Российского рынка, поэтому для компаний, которые инвестируют в создание своих решений, наш вариант защищает инвестиции и значительно сокращает цикл разработки. Об этом мы и рассказываем в описании своей архитектуры.
lelik363
11.03.2018 21:44А сами то что используете?
StoreQuant Автор
11.03.2018 21:55Мы используем надёжные решения, которые совместимы с инфраструктурой наших клиентов. Подробно можно узнать в описании нашей продуктовой линейки.
А главное не в том, что мы используем, а в том что получает клиент, а именно: он получает готовое решение, проверенное и протестированное.romxx
11.03.2018 22:50Ну вы просто советский партизан-герой на допросе у фашистов.
StoreQuant Автор
11.03.2018 22:55Сложно отвечать на многогранный вопрос в комментариях, использование например FC HBA в нашем решении вызвано тем, что клиенты уже имеют инфраструктуру, но решение наше не зависит от FC HBA. FPGA про который я упоминаю относится к другой теме и я имею ввиду вполне конкретный продукт от одной американской фирмы, а также других фирм. Чтобы развернуто ответить на вопрос, прошу задавать их по почте в контактах на нашем сайте, мы сможем лично обсудить вопрос и я расскажу суть нашего решения.Прошу задавать вопросы в рамках нашего решения.
ximik13
12.03.2018 14:58А можно хотя бы одну картинку/фото, как выглядит ваша СХД в железе? Сколько юнитов занимает, насколько компоненты hot swap и т.п.? А то много текста, а дальше пусть работает воображение потенциальных клиентов?
StoreQuant Автор
12.03.2018 15:03Конечно, мы уже привели ссылку в статье где можно посмотреть базовую конфигурацию СХД, привожу ссылку ещё раз storequant.ru/pdf/STOREQUANT_STORAGE_PRODUCT.pdf
Безусловно есть hot swap, а также hot swap диски, в описании мы привели два базовых контроллера 1U и 2U.
Можно объединить до 1024 контроллеров, т.е. получается в максимальной комплектации Вы можете получить 1024 U или 2048 U.
В статье мы рассказываем базовые принципы объединения контроллеров в единый массив в составе одной СХД.
StoreQuant Автор
12.03.2018 18:27В следующей статье мы подробно расскажем как выглядит СХД и рассмотрим массу конфигураций, данная статья имеет уклон в сторону разработчиков.
Статья готова и мы скоро её опубликуем.
StoreQuant Автор
12.03.2018 22:33Мы рассмотрели систему, которую Вы упоминаете и на сайте обнаружили фото СХД, где написано что это SAN Volume Controller. Исходя из этого и также заявленных характеристик которые мы прочитали, наши преимущества:
1) Наше решение полностью принадлежит нам, исходный код ПО полностью нашей разработки. Мы также выдаём его партнёрам и у нас есть ISV OEM предложение.
2) Мы масштабируемся более чем на 8 контроллеров, наш предел 1024 контроллера, причём они работают в единой СХД системе, т.е. все дисковые ресурсы доступны любому контроллеру.
3) В следствии масштабирования мы имеем кэш большего размера, на один контроллер это 1500 МБ при условии памяти типа DDR4. В итоге мы может даже построить СХД только на кэш памяти.
4) В следствии масштабирования мы также поддерживаем большее количество дисков — максимум 24576.
5) Важно, что в следствии большого масштаба до 1024 контроллеров, мы легко прокачиваем данные с большой скоростью по Backend и это позволяет нам масштабироваться.
6) Мы реально изолируем нагрузку на уровне портов, кэш памяти, чего не умеет IBM SVC. Об этом мы рассказали в статье, Рисунок 3. Это пожалуйста самая нужная фича для клиентов.
7) Мы реализовали свой протокол шины BackEnd и это нам позволяет абстрагироваться от адаптеров, т.е. от железа.
8) Мы поддерживаем все функции, включая thin provisioning, replication, snapshots (COW & physical). Пока нет Tiering, но скоро будет, помимо этого есть сжатие данных и дедупликация.
Судя по многим вопросам, у нас складывается мнение, что СХД воспринимается как железо, однако хочу отметить, что на 90% СХД — софт.
Это продиктовано экономикой — софт дешевле и быстрее делать и инвестировать в него выгоднее, чем в железо.
Мы ещё будем рассказывать про наши программные решения и готовим целый цикл статей.
akamajoris
12.03.2018 11:04StoreQuant Автор
12.03.2018 12:03Мы сейчас формируем описание решений и скоро будут доступны все описания, Вы можете отправить нам запрос по почте указанную в контактах и мы вышлем вам адресно всю информацию. В статье мы привели ссылки на описание решений здесь storequant.ru/pdf/STOREQUANT_STORAGE_PRODUCT.pdf и здесь storequant.ru/pdf/ISV.pdf
cagami
у меня вопрос в абзаце
Как устроен RAID в СХД StoreQuant Velocity Scale?
есть таблица
и в глаза бросилось
RAID60 2D+2P
если мне память не изменяет, то для организации raid 6 минималка по hdd 4
и если это обернуть все еще и нулевкой(60) то будет 8мь дисков, как вы делаете raid 60 на 4х дисках?
StoreQuant Автор
здравствуйте, поясню, так как вариантов на рынке много, мы в названии RAID используем цифру 6 и цифру 0, подразумевается, что 6 — двойной контроль чётности, т.е. группа из 4 дисков имеет 2 диска под данные и два под контроль чётности, поэтому 2D + 2P, правильно сказать даже не диски, а ёмкость двух дисков тратится на паритет. Цифра 0 означает страйпинг, т.е. объёдинение ёмкости нескольких групп по 4 диска и соответственно объёдинение общей полезной ёмкости всех RAID-групп, но расчёт чётности происходит в рамках опять же каждой группы ( 4 диска) отдельно.