Моему серверу 4U 71 ТиБ ZFS, собранному из двадцати четырех 4-терабайтных дисков, уже больше десяти лет и он всё ещё отлично работает. Хотя сейчас у него уже вторая материнская плата и блок питания, система до сих пор не столкнулась ни с одной поломкой дисков (стучу по дереву).

Как же мне удалось добиться отсутствия отказов дисков в течение десяти лет?

Давайте сначала поговорим о самих дисках

4-терабайтные диски HGST отработали примерно 6000 часов за десять лет. Вы сразу можете подумать, что тут что-то не так, и вы будете правы. Это всего лишь около 250 дней непрерывной работы. И вот в этом (я так думаю) и кроется секрет долговечности дисков.

Выключайте сервер, когда его не используете

Мой NAS по умолчанию выключен. Я включаю его дистанционно только когда мне нужно его использовать. Я использую скрипт, который включает питание сервера через «умную» IoT розетку, а после того, как BMC (Контроллер управления платой) завершит загрузку, я использую IPMI для включения самого дискового массива. Но я мог бы также использовать Wake-on-Lan в качестве альтернативы.

Как только я закончиваю использовать сервер, я запускаю маленький скрипт, который выключает сервер, ждёт несколько секунд, а затем выключает розетку.

Мне было недостаточно просто выключить питание дисков, но оставить включенной материнскую плату, потому что это она потребляет 7 Вт (примерно, как два Raspberry Pi) в режиме ожидания. А с моим графиком это означало трату энергии впустую.

Для меня такой режим работы является комфортным, потому что я запускаю другие службы на устройствах с низким энергопотреблением, таких как Raspberry Pi4 или серверах, которые потребляют гораздо меньше энергии в режиме ожидания, чем мой «большой» NAS.

Мотивацией тут служило значительное уменьшение счетов за электричество, но «побочным» эффектом стала долговечность жестких дисков.

Вы можете также возразить, что мой случай не показателен и не репрезентативен и мне просто повезло и тут помогло большое число дисков. Но с преемником этого NAS с 20 дисками Samsung Spinpoint F1s объемом по 1 Тб история была такой же: у меня не было ни одной поломки диска в нем в течение всего срока его эксплуатации в течение 5 лет.

Материнская плата (вышла из строя один раз)

Хотя диски в NAS всё ещё в порядке, несколько лет назад мне пришлось заменить в нем материнскую плату. У нее пропал доступ в BIOS и иногда она не могла загрузиться. Я пробовал такие очевидные вещи, как сброс BIOS, перепрошивка и замена батарейки CMOS, но безрезультатно.

К счастью, такая материнская плата всё ещё была доступна на Ebay по хорошей цене, поэтому мне в итоге оказалось проще заменить ее на новую, чем ремонтировать старую. Мне нужна была именно такая же плата, потому что сервер использует четыре слота PCIe: 3 x HBA и 1 x 10Гбит NIC.

ZFS

Файловая система ZFS прекрасно отработала все эти годы. Я менял операционные системы на протяжении многих лет и никогда не сталкивался с проблемами при импорте пула в новую установку ОС. Если бы я собрался построить новое хранилище данных, я бы обязательно снова использовал ZFS.

Я запускаю проверку целостности zpool scrub на дисках несколько раз в год. Проверка ни разу не нашла ни одной ошибки контрольной суммы. За все время проверок с дисков считалось более петабайта данных. Так как выполнение проверки занимает примерно 20 часов и потребляет много электроэнергии во время выполнения, мне приходиться запускать ее в «дешевые» дни, когда стоимость электричества была минимальной.

И я совершенно не удивлен этим результатом. Отказ дисков чаще всего связан с риском возникновения следующих ситуаций:

  1. Полный отказ, когда диск даже не определяется

  2. Плохие сектора (проблемы при чтении или записи)

Существует и третий вид отказа, но он встречается крайне редко: молчаливая порча данных. Молчаливой она является потому, что или сам диск не осознает, что он оперирует поврежденными данными или SATA-соединение не обнаруживает никаких ошибок контрольной суммы при их передаче.

Однако из-за всех низкоуровневых проверок контрольных сумм этот риск чрезвычайно мал. Да, это реальный риск, его не стоит преуменьшать, но он небольшой. На мой взгляд, беспокоиться об этом нужно в масштабах центрах обработки данных, а для домашнего использования вероятностью его возникновения можно пренебречь. 

Каждый раз, когда вы слушаете энтузиастов ZFS, у вас может сложиться впечатление, что если вы не используете ZFS, то вы рискуете в один прекрасный момент потерять все свои данные. Я не согласен с этим, все зависит от контекста и обстоятельств. Хотя ZFS не так уж сложно освоить и, если вы хорошо знакомы с Linux или FreeBSD, эту файловую систему определенно стоит попробовать.

Уровень шума (очень тихо)

Мой NAS очень тихий для NAS. Но чтобы достичь этого, мне пришлось потрудиться. 

Его корпус содержит три мощных вентилятора на 12 В, которые охлаждают 24 отсека для дисков. Эти вентиляторы очень шумные, если они работают на своей стандартной скорости. Поэтому я решил, что мне хватит их работы на самой низкой скорости (холостом ходу) когда они почти не шумят. Поэтому мне пришлось добавить вентилятор для охлаждения четырех PCIe-карт (HBA и сетевой), иначе они сильно нагревались. Этот сетап обеспечивал достаточную циркуляцию воздуха большую часть времени, но его было недостаточно, так как диски со временем нагревались, особенно когда происходил процесс чтения/записи данных.

К счастью, материнская плата Supermicro, которую я купил для NAS, позволяла управлять вентиляторами из Linux. Поэтому я решил создать скрипт, который задавал бы скорость вентилятора в зависимости от температуры самого горячего диска в корпусе.

Я даже посетил математический подфорум и попросил у его постояльцев алгоритм, который лучше всего подошел бы для сохранения баланса охлаждения дисков и тишины. Кто-то посоветовал использовать «PID-контроллер», о котором я ничего не знал. 

В итоге мне пришлось освоить Python, «позаимствовать» примерный код PID-контроллера, и методом «проб и ошибок» подобрать параметры, чтобы найти баланс между шумом вентиляторов и производительностью системы охлаждения.

Этот скрипт прекрасно работает на протяжении многих лет и поддерживает температуру дисков в пределах 40 градусов Цельсия или даже ниже. Как оказалось PID-контроллеры замечательное решение, и мне кажется, что их следует использовать в большинстве оборудования, которое управляет вентиляторами, температурой и так далее, вместо «тупого» включения/выключения по достижению порога или менее «тупого» задания параметров по таблице «Температура-Скорость».

Сеть

Я начинал с четырёхпортовых гигабитных сетевых контроллеров и использовал объединение сетевых интерфейсов (бондинг), чтобы добиться скорости передачи данных в сети около 450 Мбит/с между различными системами. Эта настройка требовала огромного количества UTP кабелей, поэтому я в итоге мне это надоело, и я купил несколько нормально работающих, но дешевых карт Infiniband. С ними я смог достичь скорости передачи данных между системами около 700 Мбит/с. Когда я решил отказаться от Ubuntu и вернуться к Debian, у меня возникла проблема: карты Infiniband в последней не работали, и я не смог найти, как это исправить. Поэтому я решил купить несколько б/у 10 гигабитных Ethernet карт, которые работают исправно до сих пор.

Проблемы с БП (помер)

При включении NAS все диски в нем запускаются одновременно (без последовательного запуска), что потребляет около 600 Вт в течение нескольких секунд. Мой блок питания имеет паспортную мощность 750 Вт, и линия на 12 вольт в теории должна была обеспечить достаточное питание, но иногда блок выключался при загрузке и в итоге не вынес такого режима и был заменен. 

ИБП (выбросил)

В течение многих лет я использовал мощный ИБП для защиты NAS от сбоев в подаче электроэнергии, чтобы иметь возможность корректно завершить работу NAS во время аварии. Все работало отлично, но я заметил, что ИБП добавлял к потреблению еще 10 Вт и я решил, что пора его убрать.

Я просто принял как данность, что могу потерять какие-то данные из-за сбоев в электроснабжении.

Резервное копирование (его нет)

Мои самые важные данные резервируются трижды. Многие данные, хранящиеся на этом NAS, не являются достаточно важными для резервного копирования. Я полагаюсь на замену оборудования и ZFS для защиты от потери данных из-за отказа дисков. Если этого окажется недостаточно, мне не повезет. И я живу с этим риском уже в течение 10 лет. Возможно, моя удача когда нибудь закончится, но пока я наслаждаюсь тем, что мне не нужно заботиться о бэкапе.

Планы на будущее хранилища (или их отсутствие)

Есть ли у меня планы, что делать дальше? Честно говоря, нет. Я собрал этот NAS изначально такого объема, потому что не хотел перемещать данные, если бы у меня закончилось место в хранилище. В итоге у меня все еще достаточно свободного места.

У меня есть запасная материнская плата, процессор, память и запасные HBA-карты, поэтому скорее всего я смогу восстановить систему, если что-нибудь сломается.

Поскольку размеры жестких дисков значительно увеличились, возможно я перейду от корпуса с 24 корзинами к форм-фактору меньшего размера. Можно создать тот же объем для хранения данных с помощью всего 6–8 жестких дисков с избыточностью RAIDZ2 (RAID 6). Но это будет таким же дорогостоящим проектом.

Еще один вероятный сценарий, что в ближайшие годы мой NAS все-таки сломается, и я решу не заменять его вовсе и мое «хобби по хранению данных» подойдет к концу.

Закажите VPS линейки Storage VPS line предназначенные для построения сетевых хранилищ данных со скидкой 25%!

А как вы продлеваете жизнь вашим дискам?

Комментарии (21)


  1. azzas
    17.09.2024 07:52
    +31

    "Выключайте сервер, когда его не используете" - ну дальше можно не читать.

    Зачем писать что сервер проработал 10 лет, если сами потом пишете про 250 дней?

    А если сервер вообще выключить и убрать на склад то диски проработают еще дольше.


    1. Yuriy_krd
      17.09.2024 07:52
      +17

      "Выключайте сервер, когда его не используете" - ну дальше можно не читать.

      Ну почему же, дальше вполне можно себе почитать о том, как чувак убрал ИБП из-за того, что он потребляет дополнительно аж целых 10 (!) ватт.


      1. akdengi Автор
        17.09.2024 07:52

        Чувак из Нидерландов. У меня два домашних компа на 800 Вт суммарно при работе в режиме по 8-10 часов в день накручивают за месяц по 150-180 КВт, а у них сейчас стоит киловатт примерно 30 рублей (и стоил тоже дорого). Судя по блогу, у автора там дофига потребителей энергии.


        1. uuger
          17.09.2024 07:52
          +2

          10 Вт * 24 часа * 0,03 руб = 7,2 рублей в сутки

          Если взять среднюю ставку сферического админа в вакууме, то, возможно, написание заметки выкидывании ИБП стоило дороже, чем его содержание в течение года


          1. akdengi Автор
            17.09.2024 07:52

            В Нидерландах средний счет домохозяйства составлял в прошлом году 2320 евро в год, а временами и до 3000 евро доходило. Поэтому если бы я платил по 20K рублей за электричество в месяц, я бы тоже экономил каждый ватт. А у него судя по блогу там еще сервак полноценный.


    1. terek_ambrosovich
      17.09.2024 07:52

      А с этого склада вы сможете его включить в работу за пару минут, удалённо?
      На самом деле для многих (из моего окружения) такой прерывистый кейс является самым востребованным. Если мне мой NAS нужен 1-2 раза в неделю на 1-2 часа суммарно (бекап, синхронизация нужной информации), стоит ли его держать включённым постоянно? И особенно если его выключение на длительные промежутки времени действительно ощутимо положительно влияет на результирующий ресурс дисков? Очевидно, что нет.


      1. Aevarandi
        17.09.2024 07:52
        +2

        А даёт ли результат? Кажется hdd паркуют головки на время простоя и может ничего не изменилось бы для него. А цена умной розетки не оправдает экономию электричества.


        1. xSVPx
          17.09.2024 07:52
          +1

          Вопрос настроек. Нормальные паркуют нормально.

          Ненормальные не паркуют.

          Совсем ненормальные раньше раз в 10с парковали, и диски дохли. (но это какой-то случай был довольно терминальный)

          Т.е. это надо просто проконтролировать. И проконтролировать что запросов в смарт к запаркованным не будет.

          В целом производителям насов на это глубоко насрать (они вообще в целом сделаны "не для людей"), из коробки может работать как угодно.

          И да, у автора очевидно произошел размен электроники на механику. Его кейс нагружает бп, мать, контроллеры (при каждом включении), зато разгружает подшипники в дисках (они не крутятся пока выключены).

          В условиях стран, где электричество недорогое более актуально держать всё запитанным, но парковать hdd. Скорее всего будет надежнее.

          Но экономия 10вт на ups говорит о том, что с автором лучше ни о чем не советоваться и его опыт очень скурпулезно перед использованием исследовать, а решения верифицировать даже не с лупой, а с микроскопом.


      1. safari2012
        17.09.2024 07:52

        Конечно. Пусть всё засыпает и просыпается по необходимости. В дежурном режиме, материнка потребляет чуть больше, чем умная розетка, если всё правильно настроено и БП качественный.


    1. datacompboy
      17.09.2024 07:52
      +4

      Самое интересное, что даже при таком использовании, мать и БП у него подыхали.

      Так что ответ на вопрос "как мне удалось" на самом деле -- "повезло", молния ударила в другой угол.


      1. akdengi Автор
        17.09.2024 07:52

        Он так и говорит, что ему повезло. Мать у него по факту не сдохла - там биос глюкнюл или цепи питания, и автору проще было заменить уже не гарантийную мать (опять же зная цены на ремонт в Европе и сроки я его понимаю). БП он убил, потому что не рассчитал потребление и походу по ампермажу выжег 12 вольтовую линию.


  1. dimas846
    17.09.2024 07:52
    +1

    Спасибо за статью и свой опыт, которым автор поделился. В моей практике были сервера, которые админы боялись выключать, так как не были уверены включатся ли диски обратно или нет :)


    1. akdengi Автор
      17.09.2024 07:52

      По ссылкам, там много интересного про этот NAS есть у автора, а также про его второй NAS который на более объемных дисках. Если интересно, могу перевести и собрать инфу про его второй NAS и его опыт эксплуатации. И да, большая часть считает что в переходных режимах шанс угробить жесткие диски выше, чем если они "крутятся" постоянно, но тут вопрос в том, что жесткие диски сами по себе умеют "засыпать", но вот делают ли они это в NAS особенно в RAID-массиве я вот не задумывался.


      1. DaemonGloom
        17.09.2024 07:52

        но вот делают ли они это в NAS особенно в RAID-массиве я вот не задумывался.

        Ответ - зависит от железа, настроек и профиля использования. Если это условное хранилище для бэкапов - диски будут парковаться без каких-либо проблем. Особенно, если система стоит на каком-нибудь отдельном SSD.


        1. xSVPx
          17.09.2024 07:52

          В omv есть прям настройки, но пока непонятно работают ли...


  1. yoz
    17.09.2024 07:52

    У меня есть похожий опыт. 4 диска, которые сменили уже не одну железку, в которой стояли. Работали и работают 24\7 уже много лет.


  1. BARSRAB
    17.09.2024 07:52
    +1

    Честно, проведение параллели между постоянным вкл/выкл HDD и их долгой работой звучит бредово, ибо для любой механической системы самые страшные режимы как раз таки запуск и остановка. Да в и тех же датацентрах, помнится, харды как раз таки и мрут после отключения стоек.


    1. mpa4b
      17.09.2024 07:52

      Даже у меня единственный умерший 3.5" диск из купленных после 2009 -- это тот, что умер при включении, не раскрутившись. Его "партнёр" по raid1 с тех пор накрутил наверное часов 100 тыщ и когда я от него избавился (подарил кому-то) -- ещё работал и имел чистый смарт. Другие диски до сих пор дохнуть даже не собирались (всего около десятка разных, но wd или hitachi).


  1. Zhabrozavr
    17.09.2024 07:52

    Практика показывает что электроника чаще всего подыхает в моменты включения, так что фиг его знает...


  1. PwrUsr
    17.09.2024 07:52

    Надо же - если что-то не использовать - то оно не ломается, оказывается.

    Power_On_Hours 0x0012 088 088 000 Old_age Always - 88663

    однако используется 10+ лет непрерывной работы, в чем секрет ? Да тупо повезло - из 15 дисков за 9 лет сдох 1 , и еще 4 за 9+ лет. Надо было ими не пользоватся - тогда бы не сдохли.


  1. terexruz
    17.09.2024 07:52

    Видеорегистратор D-Link 326 с двумя дисками wd red по 3 ТБ. С 2014 года в режиме 365, 24/7. Диски в raid 0. До сих пор работает.