Сегодня мы расскажем о героических буднях админов и системах хранения данных. В рамках этой статьи мы расскажем две реальные истории внедрения СХД и попробуем поделиться своим опытом внедрения и эксплуатации СХД решений. Имена участников конечно же вымышлены.

История 1. Как закалить админа


Начались суровые будни администратора Пети, и вот вечером приехала очередная партия оборудования вместе с СХД, но уже слышны стоны пользователей о том, когда новые ресурсы СХД будут им выданы. И вот системный администратор, невзирая на погоду и завершившийся рабочий день, уже бежит в свой ЦОД (или серверную, у кого как). Ведь там находится его главная цель — СХД, про которую он уже много читал на сайте производителя, практически изучил по буклетам, как она работает. Ведь именно он защищал покупку этой системы у своего ИТ-директора и приводил тысячу «за» и немного «против», и вот наступил тот самый момент, счастье совсем близко.

Долгожданная встреча


Заходя в серверную, он обнаруживает долгожданную коробку с СХД. Мгновения, и вот система уже сияет и блестит, весело переливается логотип, освещаемый светодиодной лентой общего освещения. Админ знает весь стандарт TIA/EIA-569 и, конечно, уже предусмотрел, что пол в серверной выдержит этого «зверя», ведь СХД весит ни много и ни мало с детёныша лесного слона, попробуй-ка его подними. Петя мечтает, как в Web-консоли СХД он увидит новое неразмеченное пространство своего хранилища, но возникает вопрос, а как же его подключить к существующей системе и как выполнить апгрейд?

На сцене новый герой


Петя спокоен, ему на выручку приходит сервисный инженер Коля от производителя СХД. Тот самый, кто проходил важные курсы по обслуживанию СХД (или не проходил, всё бывает в первый раз когда-то). Он несёт секретную документацию, в которой сказано и иногда показано, как нужно включить массу джамперов и подключить соединительные провода, чтобы выполнить этот апгрейд. Успешно подключив к электричеству свою СХД, предварительно сбегав на ближайший рынок и поменяв розетку с двухфазной схемы включения на трёхфазную, как того требует документация, Петя и Коля с замиранием сердца включают новую систему. И вдруг замечают, что основная система переходит в режим Recovery, который означает серьёзный системный сбой. Звонит Юрий Петрович, начальник Пети, и услышав, что всё работает так, как и было запланировано, переходит в иное измерение, но со 100%-ным возвратом в прежнее состояние завтра к 8.00.

Бурундуки спешат на помощь


Коля сообщает Петру, что безвыходных ситуаций не бывает, ведь существует круглосуточная поддержка, и он позвонит сейчас туда ночью и спросит, что ему делать, так как в документации большими красными буквами чётко указано — «CONTACT SUPPORT, FURTHER ACTIONS MAY CAUSE SERIOUS DAMAGE TO YOUR HARDWARE». Дозвонившись до поддержки только около КПП охраны, так как зоны приёма больше нигде нет, Коля слышит приятный голос на английском в своём телефоне, который обещает незамедлительно помочь при условии, если Коля пришлёт несколько мегабайт отладочной информации по электронной почте. Предварительно записав обратный почтовый адрес своего коллеги из солнечной Индии, Николай ждёт, когда же письмо покинет папку «Исходящие», и вкладывает в это все свои силы, чтобы оно всё-таки ушло к адресату. Петя не теряет время даром и проверяет, как работают его системы, вдруг «отъехали» диски или ещё что-нибудь. Получив ответ, Коля начинает вчитываться в историю своих действий и обнаруживает, что процедура апгрейда в документации вежливо рекомендовала подключить провода к другим разъёмам в СХД, а также сообщение: «WARNING! CABLE PLUGGED INCORRECTLY MAY CAUSE SERIOUS DAMAGE TO YOUR HARDWARE».

«Эврика!» — восклицает Коля.

«Да как же так? — парирует в ответ Петя и продолжает. — Моя СХД система стоит как самолёт «боинг», ведь можно же предусмотреть наклейку и поместить рядом с нужным разъёмом, чтобы не перепутать его при включении».

Ситуация вскоре меняется, Коля выполнил свою работу, и СХД переходит в штатный режим. Все системы работают как и положено, и при этом даже не произошло перегрузки ИБП, так как Петя всё рассчитал заранее, когда планировал потребляемую мощность нового оборудования.
И вот долгожданный момент наступил. В 8.00 на плановом совещании Петя докладывает, что СХД система готова к использованию.

Поработаем над ошибками?


История, которую мы рассказали в самом начале статьи, взята из реальной жизненной ситуации одной крупной компании (имена вымышлены), которая приобрела СХД. На самом деле таких историй много, и нам есть что рассказать хотя бы ради того, чтобы показать, как наши соотечественники могут решать сложные проблемы. Ведь зачастую иностранцу в голову никогда не придёт идея, как решить сложную проблему без чёткой и пошаговой инструкции удалённой технической поддержки.

Попробуем собрать воедино все проблемы, вот некоторые из них:

  1. Человеческий фактор — оказалось, что есть только один опытный администратор в штате компании.
  2. Неготовность инженерной инфраструктуры — не готова система электропитания, так как не оказалось нужного трёхфазного разъёма для подключения СХД.
  3. Недостаток квалификации — сервисный инженер от вендора СХД не имеет достаточной квалификации.
  4. Неэффективная техническая поддержка — цепочка удалённой сервисной поддержки оказалось очень сложной в процессе эксплуатации.
  5. «Последняя миля» — процесс сборки СХД сложный, а также плохо документирован, что послужило причиной фатальной ошибки инженера, которая по сообщению из документации могла привести к остановке СХД.

Неужели у нас всё ещё нет грамотных сервисных инженеров ?


Многие захотят ответить, что у нас такой проблемы нет, так как любой уважающий себя покупатель СХД всегда обучит свой персонал и оплатит курсы у вендора. Объективно, не все проблемы можно просто решить, послав на курсы от вендора СХД своего администратора. Так происходит по ряду причин:

  1. Обучающие курсы от производителя не обучают пусконаладке СХД.
  2. Задача обучающих курсов — привить навык «пользователя», который не должен сломать систему, но должен выполнять простые обязанности поддерживания СХД системы в рабочем состоянии.
  3. Курсы мотивируют администраторов развиваться в направлении данного вендора СХД и формируют сообщество поклонников данного вендора, но не формируют объективную точку зрения на СХД, т.е. не формируют базовые знания о принципах работы СХД и его внутреннем устройстве.

В общем и целом практически все обучающие курсы СХД вендоров не ставят перед собой задачу подготовить автономного летающего «Карлсона» с реактивным двигателем и разводным ключом, способного в любой момент прийти на помощь и поменять сломанный двигатель летящего самолёта.

А что же хочет вендор СХД?


У вендора существует вполне конкретная цель — сформировать чёткое представление о своём продукте и предложить свою формулировку многочисленных терминов, таких как терминология RAID и многих других особенностей, а главное — ненавязчиво сформировать мнение о своей незаменимости.

Действительно, на практике любой российский системный интегратор полностью зависит от компании вендора СХД, и об этом нужно сказать честно. Даже наличие сервисных центров у нас в стране не меняет ситуацию. Причина простая — технология СХД у иностранных вендоров разрабатывается не в России, а за рубежом. Поэтому реальная экспертиза у представителей глобальных вендоров отсутствует локально в России. У нас просто нет таких инженеров, которые способны разработать программное обеспечение для СХД, выполнить диагностику и ремонт сложных элементов СХД (контроллеров, дисков).

Ситуация меняется с появлением небольших коммерческих организаций, которые начинают производить собственные варианты СХД, и наш пример не единственный в сегодняшней практике. Мы хотим сказать сообществу, что проектировать свои СХД можно с учётом нынешних условий рынка в России, и это нам по плечу.

Недостаток квалификации и что в итоге мы получаем на практике?


Один администратор учился на курсах у вендора А, другой администратор — у вендора В. И решили они обсудить, как устроен RAID60 и сколько дисков в нём должно быть, и не смогли они договориться. А когда речь пошла о конфигурации дисков, то каждый защищал свою систему и вендора.

image

Информация об устройстве СХД у различных вендоров устроена таким образом, чтобы потребитель смог разобраться в функциональном назначении той или иной части СХД, но не смог разобраться в принципах функционирования этой сложной системы.

Рассмотрим один простой практический пример


Использование «дальнобойного» оптического SFP трансивера обязывает администратора знать, какие существуют рабочие длины волн и, соответственно, какие типы оптоволоконного кабеля данный трансивер поддерживает. Простая ошибка в выборе оптического кабеля заставит потратить массу времени на поиск причин проблемы производительности в СХД, обращаясь в техническую поддержку вендора, когда реальная причина находится на поверхности.

Таким образом, кроме обычных навыков настройки СХД, требуются базовые инженерные знания в области стандартов передачи данных, протоколов передачи данных, которые, к сожалению, не преподаются в полном объёме на курсах вендоров СХД. Причина такого явления банальна — вендоры не могут раскрывать особенности устройства компонентов своих СХД, так как часть заявленных ими характеристик в маркетинговых статьях может оказаться неподтверждённой.
На наш взгляд, многие проблемы, которые встречаются в обслуживании СХД систем, могут и должны выявляться и диагностироваться автоматически.

Как можно защититься от таких проблем?


Решение таких проблем на наш взгляд может быть только в новых знаниях и опыте.

Именно поэтому мы разработали SDK, который позволяет на низком уровне контроллировать работу операций ввода-вывода на уровне SCSI команд. Используя Fibre Channel адаптеры компании Broadcom, мы получаем всю необходимую информацию о состоянии соединения на канальном уровне. В рамках нашего SDK реализованы практически все команды стандарта SCSI SPC-3. Используя наш SDK, можно эмулировать SCSI устройства (disk, VTL) и анализировать проблемные области в сети SAN.

А есть ли пытливость ума у «российского» инженера?


Если рассматривать вопросы организации RAID в СХД различных вендоров, то причина споров, на наш взгляд, просто в нежелании разобраться в сути вопроса. Взглянув на статью «A Case for Redundant Arrays of Inexpensive Disks (RAID)» инженеров David Patterson, Garth A. Gibson, и Randy Katz, которые описали принципы RAID и его варианты, можно почерпнуть всю информацию об устройстве RAID, но не нужно брать за аксиому частные инженерные решения вендоров СХД. Безусловно, таких частных вопросов и различий у вендоров СХД очень много. Иногда базовые знания о принципах функционирования той или иной системы помогают глубже вникнуть в суть проблемы и разобраться в сложной ситуации.

Что в имени тебе моём, ты оцени СХД объём


Компании-вендоры формулируют свои принципы функционирования RAID, исходя из своих коммерческих выгод, взять хотя бы расчёт ёмкости хранения, когда одному мегабайту приравнивается тысяча килобайт хранимой информации. Нетрудно подсчитать убытки от таких мнимых расчётов, когда клиент оплачивает именно реальные гигабайты, но ему их систематически недодают.

Наш принцип состоит в том, чтобы оценивать различные СХД системы на одинаковых весах, т.е. исходя из результата, который они позволяют получить. Конечно, совокупность признаков, которые оценивают потребители, у всех разная, и в неё входят: общая стоимость владения, стоимость апгрейда, стоимость технической поддержки и т.д.

Оценивая СХД системы, мы рекомендуем использовать следующие подходы:

  1. Использовать одинаковый инструмент для нагрузочного тестирования СХД (собственной разработки, fio и др.)
  2. Зафиксировать версию микрокода, которая установлена на СХД в момент тестирования.
  3. Проверять обязательно версии микрокодов дисков и фиксировать их в отчёте.
  4. Использовать тесты с реальными системами и не ограничиваться только синтетическими тестами.

Возникает вопрос, а какой из перечисленных подходов поддаётся управлению со стороны клиентов? На практике клиент не может управлять ни одним из перечисленных подходов при выборе СХД. Ситуация усугубляется тем, что фактически российские компании являются заложниками ценовой политики иностранных вендоров.

Мифы от СХД вендоров


Как правило, у потребителей фокус внимания всегда приходится на внешние маркетинговые характеристики СХД. А что если мы заглянем внутрь самого изделия? Оказывается, что там нет ничего необычного, вспоминая практику одного трёхбуквенного вендора 10 лет назад, многие СХД использовали обычный процессор Pentium III. Анализируя разработки зарубежных вендоров, аппаратная платформа СХД всегда является максимально дешёвой и простой. Существует распространённый миф о том, что для надёжного СХД решения требуется очень сложная аппаратная платформа, и именно она обеспечивает высокую надёжность. Ряд вендоров действительно проектирует сложные цифровые элементы для своих СХД, но по другим причинам, которые зачастую объясняются простой экономикой. По самым грубым подсчётам, общая стоимость «железа» в СХД не превышает 10-15 % от её фактической стоимости для конечного потребителя. Клиент платит не за аппаратную платформу, а за софт, который заставляет это железо работать.

Сейчас очень многие российские разработчики «балуются» системами на базе PCI Express, которые вот уже более 10 лет активно применяются иностранными компаниями на рынке СХД. Дело в том, что прогресс в области СХД определяется не разработкой сложных цифровых элементов, а заключается в создании простых и многофункциональных схем, где большая часть логики будет находиться на стороне программного обеспечения.

Искусство того или иного вендора в проектировании СХД как раз и заключается в создании универсальной платформы СХД (софт), которая умеет переезжать на любую аппаратную платформу с минимальными издержками.

Сейчас существует новая тенденции использования виртуализации у иностранных вендоров СХД.

Система виртуализации СХД как правило позиционируется в качестве универсальной системы доступа к любым другим СХД, которая скрывает особенности имеющегося зоопарка СХД систем у клиента и одновременно повышает производительность имеющихся СХД. Конечно стоит также отметить и «матрицу совместимости», которую выпускают СХД вендоры.

Как первая идея виртуализации СХД, так и вторая идея о матрице совместимости являются абсолютно ложными. Представим себе, как вендор СХД имеет в своём ангаре все имеющиеся на рынке СХД системы и целый штат специально обученных людей, которые проверяют каждый драйвер и каждую версию операционной системы на совместимость, аккуратно записывая результаты в матрицу. Учитывая борьбу за финансовый результат и жёсткую конкуренцию на рынке, многие вендоры просто не в силах поддерживать такие системы и вести матрицы совместимости. В итоге каждый клиент фактически на свой страх и риск применяет очередные обновления программного обеспечения.

Рассмотрим случай из практики одного клиента, который приобрёл систему виртуализации СХД.

История 2. О том как админ СХД приручал


Админ СХД Петя приступает к настройке своей новенькой виртуальной СХД, которую совсем недавно установили. Глубокая экспертиза и уверенность в своих силах позволяют Петру аккуратно настроить доступ к данным для своих серверов через новую систему виртуализации СХД. Проверяя настройки на каждом сервере, Петя убеждается, что все «пути» к дискам ведут к новой системе виртуализации СХД. Теперь все сервисы под контролем, в том числе и самые важные — электронная почта и системы обработки электронных платежей.

Приходит время интенсивной нагрузки со стороны пользователей и начинают появляться сообщения об ошибках при доступе к данным в журнале операционной системы. Долгие и мучительные переговоры с технической поддержкой показывают, что всё настроено правильно, а чтобы окончательно решить проблему с производительностью, нужно выполнить апгрейд СХД и купить ещё дополнительный объём твердотельных SSD. Такая перспектива не радует ни Петю, ни его начальника Юрия Петровича, который долго и мучительно защищал бюджет на покупку СХД. «Что же делать? — думает Юрий Петрович. — А ведь мог я взять решение от другого вендора. Оно, может, и было бы дороже, но зато могло быть надёжнее, и сейчас не случилось бы вот этих проблем».

В итоге такая история заканчивается постепенной миграцией на старое решение и отказ от новой виртуальной СХД системы. Конечно, не будем забывать, что амортизационные начисления продолжают идти в счёт новой СХД, и она висит грузом на бюджете организации.

Почему можно конкурировать с иностранными вендорами СХД?


На наш взгляд ответ очень простой — иностранные вендоры используют vendor lock-in стратегию, а следовательно любая архитектура иностранной СХД будет иметь серьёзный изъян, а значит есть ниша для замещения такой СХД. Мы в курсе всех изменений у иностранных вендоров и понимаем устройства решений от более чем 10 мировых производителей, таких как: Hitachi, DELL(EMC), HPE, Netapp и т.д.

Как можно избежать проблем при эксплуатации СХД и получить необходимый опыт программирования СХД?


Мы запускаем школу для разработчиков систем хранения данных. В первую очередь мы приглашаем студентов российских вузов на бесплатной основе.

Участники школы смогут реально научиться работать с SCSI и NVMe протоколом, узнать новые алгоритмы защиты данных и на практике попробовать эти знания в работе с системами виртуализации на базе VMWare. В ходе лабораторных работ мы расскажем о способах и принципах нагрузочного тестирования, а также об основных критериях оценки производительности СХД. Также мы уделим внимание такой проблеме как миграция данных и расскажем о бесплатных и эффективных способах миграции данных для СХД. Записаться в нашу школу может любой желающий здесь.

В следующих статьях мы расскажем про машинное обучение в СХД, а также поделимся информацией о наших новых моделях СХД.

Комментарии (19)


  1. mickvav
    09.04.2018 01:16

    Так, ну vendor-lock, конечно, бывает. Но iSCSI вроде один на всех, не? И чтобы NVMe выжать из СХД, с ней надо дружить по быстрой и отзывчивой сети. Если мы не в виртуалочках на локалхосте этим-вот-всем занимаемся, то это Infiniband. Вы его тоже умеете готовить?


    1. StoreQuant Автор
      09.04.2018 01:25

      Не совсем понял ваше сравнение с Infiniband, давайте я попробую рассказать свою точку зрения, Infiniband — протокол который активно внедряет Mellanox, мы про них хорошо знаем, но что они сделали? Существует ниже Infiniband протокол PCI express, который кстати также является коммутируемым, там также есть CRC и основан он на транзакциях, там есть кодирование на канальном уровне. Уже придуманы коммутаторы PCI express и они дают значительно меньшую latency чем Infiniband. Зачем тогда Infiniband? С коммерческой точки зрения — дорого и прибыльно. С технической единственный плюс в том, что написано много клиентского софта для IB и не нужно искать драйвер для ОС клиента. А вот с точки зрения lock-in вендора тут засада, дело в том, что IB сидит на PCI express шине и даёт накладные расходы сразу, так как он реализует свой логический уровень и игнорирует PCI express, используя его как транспорт внутри системы между памятью RAM и процессором. Мало кто об этом знает и все считают IB единственным выходом, однако это не так, мы сейчас проектируем свой адаптер на базе PCI express и чипов от компании Microsemi.


    1. StoreQuant Автор
      09.04.2018 01:49

      По поводу iSCSI, честно говоря это очень странный стандарт, дело в том, что FC к примеру был разработан специально как транспорт для SCSI, а также были придуманы коммутаторы и специальное оборудование на базе FPGA от CISCO и Brocade, чтобы создавать SAN.
      Т.е. комитет T10/T11 NCITS состоящий из ряда базовых компаний в Штатах в этой области договорился развивать FC для нужд СХД и передачи данных.
      С TCP/IP изначально было всё не так. Решили просто посадить SCSI туда и придумали RFC для iSCSI, который несёт массу накладных расходов, так как сетевые карты знать не знают о том, что они передают. В моём понимании iSCSI это очень экспериментальный стандарт.


      1. romxx
        09.04.2018 12:30

        О, Великий Макаронный Монстр! Двадцать лет с момента изобретения iSCSI прошло, ровесники его уже школу закончили, технология успела получить признание, распространиться, поработать и даже в значительной степени уже устареть постепенно, а у передового российского вендора СХД она все еще «экспериментальный стандарт».

        Вот все, что вам нужно знать про передовых российских вендоров СХД и инновации в них.


        1. StoreQuant Автор
          09.04.2018 12:47

          Вы меня неверно поняли, во-первых я не против iscsi, он замечателен сам по себе, например не нужно разрабатывать сложное железо, а достаточно иметь сетевую карту и можно хоть на своём ноуте заниматься разработкой на базе iscsi.
          Мне это нравится и это здорово, но СХД это не просто iscsi, СХД гораздо сложнее, если мы пытаемся решать сложные задачи и гарантировать надёжность данных.
          Мы используем и поддерживаем iscsi тоже в своём СХД.
          Для реальных задач всё-таки FC не уходит с рынка, так как сетевое оборудование Ethernet не может обеспечить надёжной доставки данных для серьёзных высоконагруженных задач, обслуживая мимоходом ещё сетевые запросы клиентов, MPLS и т.д. Но выделенные Ethernet сети думаю можно применять для задач SAN, но осторожно :)


          1. romxx
            10.04.2018 00:19

            Да как вас можно неправильно понять, если вы сами пишете это, утверждая однозначно, что технология, изобретенная 20 лет назад, вошедшая в ядро Linux, дайбохпамяти, 2.6.20 (!), и все эти 20 лет активно используемая в самом сложном энтерпрайзе, — у вас «экспериментальная».
            Вы и продолжаете про FC дальше.
            Ну, говорю же, ваши инновации отстали от bleeding edge лет так на 10, на беглый взгляд. _Вообще_ ничего, чем сегодня живет IT infrastructure в мире. Все «старые песни о главном» на новый лад. Такое ощущение, что вы 10 лет в заморозке в бункере провели.


  1. mickvav
    09.04.2018 01:18

    Да, и админ Петя, с большой вероятностью, говорит с системами не на С++, если что. Что не мешает ему собрать систему из opensource-компонентов, если у начальства с бюджетом вдруг станет туго.


    1. StoreQuant Автор
      09.04.2018 01:32

      Согласен, админу не нужно С++ знать, поэтому мы сделали ещё и Python :) Open-source много не умеет, например обновить код Opensource систему без остановки нельзя, а у нас можно, мы это специально делали. Потом есть архитектурные отличия нас от Opensource, в итоге получается что поддерживать OPensource, который много чего использует в Kernel сложно и дорого для компаний. Потом кто будет отвечать за СХД на Opensource, админ? Для этого есть компания вендор, в частности мы развиваем продукт и обеспечиваем maintenance, support и т.д. А кто обеспечит гарантию того, что данные не потеряют? Мы проводим серьёзные тесты, сейчас в нашем репозитарии около 500 тестов, которые обязательно должны пройти перед тем как мы выпустим очередной релиз своей СХД.


      1. mrc0de
        09.04.2018 09:33

        Open-source много не умеет, например обновить код Opensource систему без остановки нельзя, а у нас можно, мы это специально делали

        Да да, Ceph смотрит на это с презрением, не раз обновлял работающий кластер без существенного падения производительности и простоя


        1. StoreQuant Автор
          09.04.2018 09:36

          Ceph — это программно определяемая распределенная файловая система. Мы говорим про блочный Storage, разница очень большая. Например при обновлении микрокода нам не нужно перезагружать контроллер СХД, мы не теряем 50% пропускной способности во время обновления как это делают 2-х контроллерные конфигурации подавляющего большинства СХД.


          1. mrc0de
            09.04.2018 09:45

            Чем вам RBD не блочный сторадж? в случае с ceph я могу по одной две ноды выводить на maintainance и обновлять их без урона производительности, в случае с цефом, возможно очень быстро горизонтально увеличить емкость и производительность, у меня в данный момент в продакшене кластер цефа, 6 нод под iSCSI, 14 нод хранения(36x6Tb, 2x800Gb NVME) обьем RAW 2.5Петабайта replication factor=2 вся сеть передачи 2x10Gb на production и 2x10 cluster network


            1. StoreQuant Автор
              09.04.2018 09:57

              Давайте договоримся что именно мы обсуждаем, если с точки зрения клиента и пользователя СХД, то предлагаю просто сравнить архитектуру, у нас о есть описание в предыдущей нашей статье и здесь storequant.ru/pdf/STOREQUANT_STORAGE_PRODUCT.pdf

              Но я попробую привести ряд аргументов в свою пользу,
              1) Наша система кэш-based, это означает, что мы пишем данные сначала в кэш, перед записью на диск, и отвечает клиенту о завершении IO после попадания данных в кэш. Причина простая — тем самым мы повышаем производительность.
              2) Все операции в кэш должны быть сохранены на диск, в случае аппаратного сбоя и у нас есть операция gracefull shutdown, что означает сохранение всех данных в кэш на промежуточный диск в случае shutdown системы. Т.е. данные в RAM мы не теряем никогда, у нас есть батарея в составе СХД.
              3) Далее все операции IO дублируются как минимум на второй контроллер в паре.
              ПОэтому если один контроллер сломается, второй сразу будет доступен клиенту для доступа к данным на томе.
              4) Мы поддерживаем до 1024 контроллеров в сумме. Каждый контроллер это шасси с дисками с горячей заменой, т.е. замена дисков в Online.
              5) Каждый контроллер может объединяться в пару с любым контроллером (до 8 макс) и выполняется это программно, без физической коммутации.


              1. mrc0de
                09.04.2018 10:10

                1. у ceph тоже сначала в кеш(wal/db на nvme диски), и тоже для повышения производительности
                2. Как ни странно но вы не единственные кто юзает BBU на контроллере ))
                3. В ceph данные дублируются на еще 2 OSD не расположенные в этом же сервере, итого имеем фактор репликации 3
                4. Ну в вашей терминологии у меня 14 контроллеров(14 выделенных серверов хранения) максимальное количество даже страшно представить, в CERN'е хранилки на CEPH доходят до 30Пб, горячая замена по прежнему присутствует и активно используется, выход из строя 1/3 всего кластера не ложит систему на лопатки
                5. В цеф это сделано через pool's, можно сделать only flash pool и использовать его как горячее хранилище, но при использовании nvme дисков и так производительности хватает


                1. StoreQuant Автор
                  09.04.2018 12:34

                  Я не против Ceph и все решения имеют место быть. Просто у всех есть свои недостатки и ниши. История Ceph не уникальная, до это были ряд решений, например HP Lefthand. Эти решения типа Ceph называются сетевыми RAID и имеют ограниченное применение, например установить на Lefthand СУБД какой-нибудь банковской АБС или высоконагруженный веб-портал магазина не реально.
                  У iscsi есть ограничение, оно продиктовано тем, что он работает поверх сетевого протокола и поэтому есть накладные расходы за которые приходится расплачиваться скоростью.
                  Теперь по пунктам,
                  1) Мы не сетевой RAID, мы блочный сторадж и его можно применять для любых в том числе и в первую очередь для высоконагруженных систем.
                  Кэш у нас устроен таким образом, что он разбивается на партиции и каждая партиция может обслуживать свой VOlume, гарантируя производительность.
                  2) Батарея не наше ноухау, просто это решение задачи когда есть сбой электросети или нужно удалённо погасить СХД без потери данных
                  3) Мы не дублируем данные, мы используем RAID, каждый диск у нас адресуется в СХД любым контроллером, например в нашем СХД любой контроллер может прочитать данные на любом диске, даже если диск не находится в локальном шасси. Если диски в RAID распределены так, что они находятся в разных шасси, то получаем NSPOF. Можно выбирать разный уровень защиты — с одинарной четностью или двойной. Все конфигурации RAID у нас были в первой статье.
                  Вобще дублировать данные на NVMe дорогое удовольствие, учитывая их стоимость.
                  4) Нужно всё-таки представлять масштаб проблемы, мы заточены для Российского клиента, который выбирает не RAID, а надёжность, если клиент потеряет данные, то вобще нет смысла заниматься этой темой. Наш клиент — это Enterprise, где нужна высокая скорость и надёжность.
                  5) Мы используем Thin Provisioning и объединяем в Pool группы RAID, в одной RAID группе может быть до 256 дисков, в Pool можно объединить неограниченное количество RAID групп.


  1. KorP
    09.04.2018 11:17

    ИМХО суть статьи сводится к некомпетентности Пети ни в пуско-наладке, ни в сайзинге, и судя по всему — это его первая СХД и отсутствие практического опыта. И дело тут не в SFP и вендорах, а в экономии руководства, которое не отправило админа на обучение (а у вендоров СХД оно крайне дорогое обычно) или не захотели платить за аутсорс энтерпрайз оборудования, с которым его сотрудники не имеют компетенций. Ну а с админом то всё понятно — ему надо куда то раста и развиваться, есть такой класс админов, которые могут и на продуктивных данных без бекапа учиться.


  1. mrc0de
    09.04.2018 11:44

    Вообще, мое мнение по статье, сводится к тому что, вот смотрите какая крутая у нас СХД, покупая DELL, IBM, Huawei вы становитесь заложниками vendor lock-in, а у нас супер СХД и вообще почти open-source, но мысль что отвязываясь от именитых брендов и привязываясь к местечковому вендору не покидает, со всеми вытекающими последствиями, примерно как в современной авиации, есть Boeing, есть Airbus, и есть например Туполев, если у А или Б самолет сломается в любой части земного шара, то максимум что грозит это ожидание ближайшего рейса с запчастью с ближайшего склада, в случае с Ту, это пока эту деталь закажут на заводе, сделают, и только через n-дней доставят до получателя вместе с командой техников…


    1. StoreQuant Автор
      09.04.2018 12:40

      Идея нашей статьи поддержать вообще создание и разработку отечественных СХД, если у нас будет больше компаний производителей, то мы только все выиграем от этого и сможем реально на рынке у нас сделать здоровую конкуренцию.


    1. 14th
      09.04.2018 14:11

      Трудно объяснить УАЗоводу, что важней «не сломается», а не «можно починить в любой деревне».


      1. StoreQuant Автор
        09.04.2018 15:07

        Согласен, нам это всё знакомо, решаем мы следующим образом, у нас сертфицировано 2 платформы сейчас, каждый может её купить сам и использовать для своих задач, мы поставляем готовый продукт заточенный для этих платформ, клиент при желании может купить сам железо, но той конфигурации которую мы ему скажем, там получается большой выигрыш.
        Идеология простая как у Apple, там Macos не работает на любом хламе, есть вполне чёткие железки, но мы не стараемся замкнуть на себя.
        Далее, мы поставляем документацию по ремонту СХД, любой может, как вы говорите «в любой деревне» сам починить, это не секрет, а Customer field replacement.
        Если тех поддержка наша, то ремонт будет от нас, если нет, то от того, кто продаёт.
        Опять же, обновления софта мы выдаём бесплатно, а решение проблем для клиента в рамках контракта.