Ко мне обращаются многие партнеры в поисках доступных решений для хранения данных, обеспечивающих функциональность и надежность корпоративного уровня. Долгое время мне нечего было им предложить, так как младшие решения от вендоров А-класса не вписываются в их бюджет, а решения от младших игроков не обеспечивают необходимый уровень надежности или не обладают необходимым функционалом.
Проблемы могут быть самыми разными, начиная от не задублированного контроллера, заканчивая отсутствием поддержки протокола FC или файлового доступа. Узнав, что GS серия от Infortrend прекрасно решает все эти задачи, я был приятно удивлен.
Компания Infortrend была основана в 1993 г. на Тайвани. Штаб-квартира располагается в гор. Тайбэе, а также есть представительства в США, Великобритании, Германии, Китае и Японии. В России их офиса нет, но есть русскоговорящие сотрудники в головном офисе. Компания занимается разработкой и производством собственных систем для хранения и обработки данных, и опирается на технологические аспекты, а не на маркетинговую составляющую.
Вторым важным аспектом, отличающим решения Infortrend, является гибкость их модельного ряда. Любая технологическая задача найдет свое воплощения в различных конфигурациях массивов EonStor.
И последним, но не по значимости, аспектом, является то, что Infortrend не ограничивает своих заказчиков в использовании накопителей, к чему я еще вернусь в дальнейшем.
Подробный разбор их модельного ряда достоин отдельной статьи, поэтому в этот раз я сосредоточусь на описании решения, доставшегося мне на тесты — массив GS 3000-й серии.
По позиционированию 3000я серия приближается к midrange-продуктам, предлагая своим заказчикам унифицированный доступ (блочные и файловые протоколы реализуются в одном конструктиве, без использования дополнительных модулей). Отдельно стоит упомянуть, что решение это Cloud-ready: вы можете хранить ваши данные локально на массиве в ЦОДе и динамически перемещать их в публичное облако. На практике это означает встроенную из коробки интеграцию с основными облачными провайдерами (Amazon S3, Microsoft Azure, Google Cloud Platform, Alibaba AliCloud, OpenStack), которые вы можете использовать как динамически расширяемый медленный пул хранения. Для соединения с серверами используются встроенные порты 1 и 10 GE, по 4 шт на систему. Они могут быть расширены так называемыми хост-платами, поддерживающими все актуальные на данный момент интерфейсы и протоколы:
Даже в форм-факторе нам предоставлен выбор:
2U 12-bay GS 3012
2U 24-bay GS 3024B
2U 25-bay GS 3025B
3U 16-bay GS 3016
4U 24-bay GS 3024
4U 60-bay GS 3060
Как я уже упоминал, вы можете использовать накопители от любых производителей. Поддерживаются как SAS\SATA HDD, так и SAS\SATA SSD, но для использования SATA-накопителей в двух-контроллерных конфигурациях необходим специальный MUX-переходник. По вполне понятным причинам различная экзотика (например, HDD с секторами 520 байт) поддерживаться не будут.
Максимально система поддерживает до 900 накопителей при использовании шасси GS 3060.
Мне достался EonStore GS 3012R, то есть 2U шасси на 12 LFF дисков, расширенный хост-платой 8 Гб/с FC. В качестве накопителей я использовал найденные в закромах Seagate ST9146852SS (146 Гб 15k RPM SFF HDD). SFF-диски устанавливаются в LFF шасси с помощью имеющихся в комплекте универсальных салазок, дополнительные переходники не требуются.
Управление массивом осуществляется через Web-интерфейс, подключение к которому реализовано выделенным портом 1GE. Для сервисных задач присутствует консольный порт, выполненный в очень необычной форме: на массиве расположен mini-USB порт с фиксирующим болтом, к которому вы подключаете свой ноутбук кабелем miniUSB-COM.
Контроллеры расположены горизонтально друг-над-другом и поддерживают горячую замену. Это означает, что вы можете заменить контроллер, не выключая всю систему целиком. У хост-плат тоже заявлена горячая замена, однако вам придется демонтировать контроллер для их замены.
Сами контроллеры не закрыты внешним корпусом, поэтому мы можем изучить их начинку.
Конструктив стандартный, мы видим слоты под оперативную память (которую можно расширить), радиаторы пассивного охлаждения CPU, M2 SATA накопитель для сброса кэша и связку батарей для обеспечения этого процесса питанием в случае аварийного выключения.
Развертывается массив достаточно просто и быстро. Устанавливаем его в стойку на направляющих, которые идут в комплекте, запитываем 2мя БП по 530W, подключаем выделенные порты управления и хост-платы к необходимым сетям и все готово!
Управляющие порты получают IP-адрес по DHCP, если он развернут в управляющей сети. Если система понимает, что DHCP нет, то она присваивает порту стандартный адрес 10.10.1.1. Подключаясь по этому IP, мы попадаем в унифицированный web-интерфейс управления системой, который называется EonOne.
Стартовая страница состоит из навигационного меню и 5 информативных блоков:
1. Device information — общая информация об устройстве.
2. Resource usage — графические индикаторы использования\загруженности процессоров контроллеров и их кэш-памяти.
3. Capacity — график утилизации дискового пространства.
4. Summary — сводная таблица по кол-ву созданных объектов.
5. Event log — список всех ошибок и уведомлений.
На мой взгляд дизайн слишком прост и примитивен.
Интерфейс не информативен, например Resource usage не дает полноценного понимания какой контроллер чем загружен, не отображает что влечет за собой тот или иной пик. Аналогичная ситуация с другими блоками — выведенная информация не несет особой полезной нагрузки, для полноценного администрирования нам необходимо больше данных, которые почему-то не выведены ни в каком виде.
Второй проблемой является полное отсутствие интерактивности. Если вы не вывели нужную информацию в панель, то дайте возможность кликнуть по интересующему показателю и «провалиться» за подробностями. Но увы… Даже сообщения об ошибках являются не-кликабельными, не давая пользователю возможность ни «подчистить» их, ни ознакомиться с деталями.
Но это все мое субъективное мнение, и пора переходить к демонстрации самого распространенного процесса — созданию пулов, томов и их презентации хостам.
При первом включении система предлагает пользователю воспользоваться специальным wizard'ом, который поможет нам провести первичную инициализацию массива и выделение пространства. Он спрашивает основные показатели, необходимые для создания пулов, и не пускает пользователя в технические глубины настройки. Результатом работы в данном wizard'е будет являться раздел, презентованный хосту или файловая шара, настроенные оптимально с точки зрения производителя системы.
Для тех, кто хочет больше свободы, есть 2 пути: следовать заготовленным сценариям в разделе Workflow, или настраивать все руками в разделах Settings > Storage и Settings > Access.
Workflow предлагает сценарии, которые чаще всего возникают перед администратором при работе с массивом. Это выделение дискового пространства, создание сетевых папок, репликация и интеграция с облаком. Выбираем сценарий, запускаем его и поучаем аналог Initial Setup Wizard'а.
Раздел Storage предлагает нам полную самостоятельность в настройках, и поэтому подходит только для опытных пользователей. Вы можете создать пулы, тома, настроить SSD-кэш, интеграцию с облаком и провести сервисные процедуры с вышедшими из строя дисками.
Раздел Access позволяет вам настроить все сетевые интерфейсы, их параметры и дополнительные опции, а также создать инициаторы и презентовать им тома.
Раздел Monitoring позволит ознакомиться с состоянием системы и показателями ее производительности более подробно, чем на стартовой странице, но на мой взгляд все равно в недостаточной степени. Отсутствует информативность показателей и интерактивность графики. Кроме того, все имеющиеся показатели выводятся в реальном времени без возможности выгрузки исторических данных для последующего анализа.
Напоследок стоит отметить раздел Event log, позволяющий нам изучить полный лог системы. Он действительно отображает все действия в системе, предлагая возможность фильтрации по датам и возможность выгрузки для различных сервисных процедур.
Учитывая все перечисленное, решение получается весьма интересным для тех, кому нужно недорогое и универсальное хранилище. Аппаратная составляющая выполнена на хорошем уровне и предлагает своему владельцу современный и широкий набор функций. Софтовая составляющая выглядит достаточно сырой, но можно надеяться на то, что вендор продолжит ее совершенствовать. Вся серия GS является молодой по меркам рынка, что стоит учитывать при ее оценке. Микрокод постоянно обновляется, закрывая те или иные «детские болезни» и баги.
Вывод: если вы сильно ограничены в бюджете, и хотите получить максимум возможностей за свои деньги — вам стоит внимательно ознакомиться с Infortrend GS 3000.
Проблемы могут быть самыми разными, начиная от не задублированного контроллера, заканчивая отсутствием поддержки протокола FC или файлового доступа. Узнав, что GS серия от Infortrend прекрасно решает все эти задачи, я был приятно удивлен.
Компания Infortrend была основана в 1993 г. на Тайвани. Штаб-квартира располагается в гор. Тайбэе, а также есть представительства в США, Великобритании, Германии, Китае и Японии. В России их офиса нет, но есть русскоговорящие сотрудники в головном офисе. Компания занимается разработкой и производством собственных систем для хранения и обработки данных, и опирается на технологические аспекты, а не на маркетинговую составляющую.
Вторым важным аспектом, отличающим решения Infortrend, является гибкость их модельного ряда. Любая технологическая задача найдет свое воплощения в различных конфигурациях массивов EonStor.
И последним, но не по значимости, аспектом, является то, что Infortrend не ограничивает своих заказчиков в использовании накопителей, к чему я еще вернусь в дальнейшем.
Подробный разбор их модельного ряда достоин отдельной статьи, поэтому в этот раз я сосредоточусь на описании решения, доставшегося мне на тесты — массив GS 3000-й серии.
По позиционированию 3000я серия приближается к midrange-продуктам, предлагая своим заказчикам унифицированный доступ (блочные и файловые протоколы реализуются в одном конструктиве, без использования дополнительных модулей). Отдельно стоит упомянуть, что решение это Cloud-ready: вы можете хранить ваши данные локально на массиве в ЦОДе и динамически перемещать их в публичное облако. На практике это означает встроенную из коробки интеграцию с основными облачными провайдерами (Amazon S3, Microsoft Azure, Google Cloud Platform, Alibaba AliCloud, OpenStack), которые вы можете использовать как динамически расширяемый медленный пул хранения. Для соединения с серверами используются встроенные порты 1 и 10 GE, по 4 шт на систему. Они могут быть расширены так называемыми хост-платами, поддерживающими все актуальные на данный момент интерфейсы и протоколы:
- 8 х 16 Гб/с FC (4 на контроллер)
- 16 х 8 Гб/с FC (8 на контроллер)
- 8 или 16 х 10 Гб/с iSCSI SFP+ (4 или 8 на контроллер)
- 8 х 12 Гб/с SAS (4 на контроллер)
- 16 х FCoE (8 на контроллер)
- 4 или 8 х 10 Гб/с iSCSI (SFP+) + 4 х 16 Гб/с FC
- 4 или 8 х 10 Гб/с iSCSI (SFP+) + 8 х 8 Гб/с FC
- 2 x 40 Гб/с Ethernet
- 2 x 56 Гб/с Infiniband
Даже в форм-факторе нам предоставлен выбор:
2U 12-bay GS 3012
2U 24-bay GS 3024B
2U 25-bay GS 3025B
3U 16-bay GS 3016
4U 24-bay GS 3024
4U 60-bay GS 3060
Как я уже упоминал, вы можете использовать накопители от любых производителей. Поддерживаются как SAS\SATA HDD, так и SAS\SATA SSD, но для использования SATA-накопителей в двух-контроллерных конфигурациях необходим специальный MUX-переходник. По вполне понятным причинам различная экзотика (например, HDD с секторами 520 байт) поддерживаться не будут.
Максимально система поддерживает до 900 накопителей при использовании шасси GS 3060.
Мне достался EonStore GS 3012R, то есть 2U шасси на 12 LFF дисков, расширенный хост-платой 8 Гб/с FC. В качестве накопителей я использовал найденные в закромах Seagate ST9146852SS (146 Гб 15k RPM SFF HDD). SFF-диски устанавливаются в LFF шасси с помощью имеющихся в комплекте универсальных салазок, дополнительные переходники не требуются.
Управление массивом осуществляется через Web-интерфейс, подключение к которому реализовано выделенным портом 1GE. Для сервисных задач присутствует консольный порт, выполненный в очень необычной форме: на массиве расположен mini-USB порт с фиксирующим болтом, к которому вы подключаете свой ноутбук кабелем miniUSB-COM.
Контроллеры расположены горизонтально друг-над-другом и поддерживают горячую замену. Это означает, что вы можете заменить контроллер, не выключая всю систему целиком. У хост-плат тоже заявлена горячая замена, однако вам придется демонтировать контроллер для их замены.
Сами контроллеры не закрыты внешним корпусом, поэтому мы можем изучить их начинку.
Конструктив стандартный, мы видим слоты под оперативную память (которую можно расширить), радиаторы пассивного охлаждения CPU, M2 SATA накопитель для сброса кэша и связку батарей для обеспечения этого процесса питанием в случае аварийного выключения.
Развертывается массив достаточно просто и быстро. Устанавливаем его в стойку на направляющих, которые идут в комплекте, запитываем 2мя БП по 530W, подключаем выделенные порты управления и хост-платы к необходимым сетям и все готово!
Управляющие порты получают IP-адрес по DHCP, если он развернут в управляющей сети. Если система понимает, что DHCP нет, то она присваивает порту стандартный адрес 10.10.1.1. Подключаясь по этому IP, мы попадаем в унифицированный web-интерфейс управления системой, который называется EonOne.
Стартовая страница состоит из навигационного меню и 5 информативных блоков:
1. Device information — общая информация об устройстве.
2. Resource usage — графические индикаторы использования\загруженности процессоров контроллеров и их кэш-памяти.
3. Capacity — график утилизации дискового пространства.
4. Summary — сводная таблица по кол-ву созданных объектов.
5. Event log — список всех ошибок и уведомлений.
На мой взгляд дизайн слишком прост и примитивен.
Интерфейс не информативен, например Resource usage не дает полноценного понимания какой контроллер чем загружен, не отображает что влечет за собой тот или иной пик. Аналогичная ситуация с другими блоками — выведенная информация не несет особой полезной нагрузки, для полноценного администрирования нам необходимо больше данных, которые почему-то не выведены ни в каком виде.
Второй проблемой является полное отсутствие интерактивности. Если вы не вывели нужную информацию в панель, то дайте возможность кликнуть по интересующему показателю и «провалиться» за подробностями. Но увы… Даже сообщения об ошибках являются не-кликабельными, не давая пользователю возможность ни «подчистить» их, ни ознакомиться с деталями.
Но это все мое субъективное мнение, и пора переходить к демонстрации самого распространенного процесса — созданию пулов, томов и их презентации хостам.
При первом включении система предлагает пользователю воспользоваться специальным wizard'ом, который поможет нам провести первичную инициализацию массива и выделение пространства. Он спрашивает основные показатели, необходимые для создания пулов, и не пускает пользователя в технические глубины настройки. Результатом работы в данном wizard'е будет являться раздел, презентованный хосту или файловая шара, настроенные оптимально с точки зрения производителя системы.
Для тех, кто хочет больше свободы, есть 2 пути: следовать заготовленным сценариям в разделе Workflow, или настраивать все руками в разделах Settings > Storage и Settings > Access.
Workflow предлагает сценарии, которые чаще всего возникают перед администратором при работе с массивом. Это выделение дискового пространства, создание сетевых папок, репликация и интеграция с облаком. Выбираем сценарий, запускаем его и поучаем аналог Initial Setup Wizard'а.
Раздел Storage предлагает нам полную самостоятельность в настройках, и поэтому подходит только для опытных пользователей. Вы можете создать пулы, тома, настроить SSD-кэш, интеграцию с облаком и провести сервисные процедуры с вышедшими из строя дисками.
Раздел Access позволяет вам настроить все сетевые интерфейсы, их параметры и дополнительные опции, а также создать инициаторы и презентовать им тома.
Раздел Monitoring позволит ознакомиться с состоянием системы и показателями ее производительности более подробно, чем на стартовой странице, но на мой взгляд все равно в недостаточной степени. Отсутствует информативность показателей и интерактивность графики. Кроме того, все имеющиеся показатели выводятся в реальном времени без возможности выгрузки исторических данных для последующего анализа.
Напоследок стоит отметить раздел Event log, позволяющий нам изучить полный лог системы. Он действительно отображает все действия в системе, предлагая возможность фильтрации по датам и возможность выгрузки для различных сервисных процедур.
Учитывая все перечисленное, решение получается весьма интересным для тех, кому нужно недорогое и универсальное хранилище. Аппаратная составляющая выполнена на хорошем уровне и предлагает своему владельцу современный и широкий набор функций. Софтовая составляющая выглядит достаточно сырой, но можно надеяться на то, что вендор продолжит ее совершенствовать. Вся серия GS является молодой по меркам рынка, что стоит учитывать при ее оценке. Микрокод постоянно обновляется, закрывая те или иные «детские болезни» и баги.
Вывод: если вы сильно ограничены в бюджете, и хотите получить максимум возможностей за свои деньги — вам стоит внимательно ознакомиться с Infortrend GS 3000.
fert
Тестировали отказоустойчивость? Проблема с тейковером и гивбэком решена?
Есть ли решение для комплексного мониторинга и управления продуктом от вендора?