image

Я занимался разработкой систем последние 12 лет своей жизни. У меня в руках побывало всё. Я видел системы, работающие на COM портах, для передачи данных между терминалами. У меня есть сертификат NEC, подтверждающий тот факт, что я могу программировать их зубодробительные системы, созданные инопланетянами. Я поднимал с колен уложенные облачные фермы и переписывал код на VB6. Мне удалось повидать хорошо отлаженные системы и запутанный ужас, который никак не поддавался дебагу.

В этой статье я расскажу о нескольких основных правилах работы с любой системой. Эти правила не привязаны к определённой системе. Они работают как для монолита, написанного на C# в 2005 году, так и для свежесобранного кластера на кубере.

Некоторым применение этих правил позволит предотвратить головную боль с пересбором упавшей системы за выходные, а некоторым поможет сохранить капиталовложения.

Первое и главное правило администрирования любой системы:

Правило 1: Если это было работоспособным раньше, а сейчас не работает, то нужно приложить все усилия для того, чтобы сделать всё как раньше.


Если у вас есть сервер, который проработал на монолите последние четыре года и внезапно упал, то не надо хаять монолит и говорить о том, что инфраструктура ненадёжна. Нужно поднять сервер.

Очень часто вы можете услышать вой того или иного сотрудника, который будет пытаться использовать “падение” чего-либо для того, чтобы протолкнуть нововведение, изменение или закупку оборудования.

Никто не говорит, что нельзя ничего обновлять. Мы говорим о том, что если в субботу сервер работал, а в понедельник он лежит, то этот сервер можно поднять. У вас был кто-то, кто заставлял этот сервер работать всё это время. В таком случае первым делом надо сделать так, чтобы сервер заработал.

Но для успешного применения этого правила надо убедиться, что мы понимаем все его детали.

Давайте разберёмся с тем, что следует называть работоспособным.

Правило 2: Работоспособным можно называть всё то, что работает. Оно должно работать само по себе, без каких-либо скриптов, уловок и костылей.


Удивительно просто, не правда ли? Да, очень просто. Но к сожалению, в реалиях современного мира IT это не всегда так.

Множество раз я видел подобную картину: заходишь на сервер и сразу видишь баннер

$ cat /etc/motd
This system should be rebooted every Thursday after full moon, when the RAM usage drops under 11%.

Чего? Система должна быть перезагружена вручную, потому что так устроен мир? Или просто потому, что мы не можем признаться в том, что система на самом деле не является работоспособной?

Скорее всего — второе.

Работоспособная программа — это не та программа, с которой программисту надо нянчиться и убеждаться, что она “правильно загрузилась” или “работает как надо”.

Пример:

$ cd ~
$ ls
run-after-reboot.sh
$ cat run-after-reboot.sh
docker exec -it nginx-prod /bin/sh ~/fix-hosts.sh

И действительно, недавно я имел сомнительное удовольствие настраивать Jitsi на производственном сервере. Хотелось всё сделать на контейнерах, чтобы работало как полагается и запускалось с полпинка. Но, как это ни прискорбно, при всех своих положительных качествах мануалы у Jitsi написаны через всем известное место.

Запускаем Jitsi стандартной командой прямо из репозитория:

docker-compose -f docker-compose.yml -f jibri.yml up -d

Что может быть проще? Казалось бы, полностью настроенная, работоспособная система. Всё запускается и работает, кроме одной ма-а-а-аленькой детали. Этот инстанс не умеет записывать видеозвонки через jibri (Jibri = Jitsi Broadcast Infrastructure). После того как вы нажимаете на кнопку “записать”, у вас всё тормозит 30 секунд и выдаётся сообщение, что записывать видео невозможно.

Ок, после четырёх часов лазания по логам мы понимаем, что проблема заключается в том, что контейнер для записи видео пытается подключиться к нашему сайту, на котором работает видеоконференция. Но из-за ошибки в ДНС сервис для записи подключается к XMPP серверу, а не серверу видеоконференций.

Предложенное исправление было очень простым. Зайти на контейнер для записи и сделать echo ‘video.recording.com 172.19.0.2’ > /etc/hosts. Это “исправление” всё исправляло.

Да, бесспорно, записи начали работать. Но было ли это правильным исправлением? Думаю, что у любого контейнеровода просто волосы дыбом подмышками встали бы. К сожалению, в современном мире разработки это сходит с рук.

Вася, вот тебе тикет, почини запись на Jitsi. Вася идёт и чинит запись. Тикет закрывают, всё хорошо. Через два дня тикет переоткрывают. Почему? Все верно, вносить изменения в /etc/hosts на докере это неправильно.

Если вы руководите проектом или командой, вам надо научиться относиться с подозрением к тикетам, которые постоянно воскрешаются. Слушайте пользователей, которые говорят, что “софтина постоянно падает”.

Мы все знаем, что пользователи любят преувеличивать. Существуют и такие, которым нечем в жизни заняться, кроме как отрывать тикеты. А некоторые просто жалуются из-за какого-то чувства мести. Но прикол в том, что компьютерам эти вещи не нужны. Они не умеют врать, жаловаться и мстить. Зато компьютеры умеют писать логи. И когда вы видите таски, которые постоянно открываются и закрываются, или замечаете, что бухгалтерия покупает плакаты с Торквемадой и готова пойти на IT-отдел инквизицией, потому что 1Cка продолжает валиться, то вам пора пойти и выяснить, что происходит.

И… Барабанная дробь… Да! База данных валится каждые 15 часов. Вася додумался перезагружать её в 8 утра, потому что никого нет на работе, но в те дни, когда он этого не делает, бухгалтерия будет жаловаться.

Такие вещи не являются работоспособными и не подходят под первое правило.

Правило 3: Создавать новую систему при наличии уже работоспособной можно только в параллельной установке. Никогда не меняйте и не перенастраивайте работоспособную систему.


Несколько раз мне приходилось работать над модернизацией ERP и CRM систем. Всё было хуже не придумаешь. У вас на руках есть Adobe Air приложение, которое постоянно дёргает веб-сервисы, зашитые в коде.

Перед нами стояла задача обновить старые web backend сервера, поскольку они перестали справляться с нагрузкой. Естественно, их надо было протестировать и убедиться, что новый backend не увалит приложение. Несмотря на то что всё это Adobe Air устарело ещё в 2009 году, мы решили его не трогать просто потому, что оно работало.

Итоговым решением было поднятие varnish сервера, на который мы перевели dns backend серверов. В конфигурации varnish мы перенаправили всё на старые серверы и начали перенаправлять запросы с определённых подсетей на новые серверы. Это дало нам возможность протестировать новые системы.

После месяца тестирования (которое было поразительно скучным, всё просто работало) мы продолжили переводить подсети на новые серверы, и ещё через месяц старый backend был отключён от сети.

Никогда не поддавайтесь жгучему желанию “переписать всё с нуля”, если у вас есть что-то, что работает.

Вам будут обосновывать, доносить, доводить, преподносить, аргументировать, умолять и плакаться в свитер, прося запустить новую систему вместо старой, проверенной. Первым делом, если старая система работала, вы должны её поднять.

Мы подняли новые backend серверы, сделали их работоспособными, установили новые программы, перевели трафик на них и после тестирования отключили старые. В итоге следующий контракт мы получили незамедлительно. Нас попросили переписать Air приложение, под которым всё это крутилось. Это оказалось проще простого.

Сейчас в мире IT наблюдается тенденция на “снижение планки”. В своё время у нас были watchdog, которые считались жуткими костылями. Потом эти watchdog стали чем-то более обыденным, и сейчас в docker у нас есть настройка “автоматически перезапускать приложение”.

Мы привыкли к тому, что что-то может работать не очень хорошо, и вместо того, чтобы это что-то наладить, мы просто отдаём его на откуп этим кнопкам “авторестарта”. Рекомендую сменить подход. Во-первых, человек, который правильно настроил любую систему, будет чувствовать себя крутым. Он будет гордиться своим достижением и чувствовать себя лучше. Человек, у которого система работает через раз, будет выгорать и дёргаться каждый раз при звонке телефона. Он будет жить в мире “скорее всего, что-то скоро упадёт”. Во-вторых, правильно настроенная система требует меньше ухода, соответственно, меньше дополнительных работ.

Хорошо налаженные и отлично работающие системы — это залог того, что ваши нервы будут в порядке.

Правило 4: Делайте выводы о работоспособности чего-то исходя из физических данных, полученных от компьютеров, и никогда не обращайте внимание на жалобы. Жалобы и тикеты должны быть показателем того, куда смотреть, но никогда не работайте на основе данных, полученных из тикета. Эти данные были написаны человеком. Для правильной обработки тикета вам нужно пойти и проверить всё, что в нём описано.


Доскональная проверка позволит вам убедиться, что данные в этом тикете правильные. Никогда не отбрасывайте тикет. Пойдите и найдите реальный источник проблем. Такие вещи находятся в Graylog сервере. Или в zabbix. Или в SolarWinds. Или в Elasticsearch, или где вы там храните логи.

Вам надо научиться смотреть на мир скептически и не верить человеческим эмоциям. В конце концов, вы же не психиатр, вы — инженер. Когда к вам приходят подчинённые и говорят, что “всё хорошо, я всё исправил”, попросите подробности того, что было исправлено. А если вам говорят “да опять эти идиоты из бухгалтерии начудили” — это размахивание красным плащом перед вашим носом. Идите и разбирайтесь, что произошло на самом деле.

Я заметил, что чем больше пены льётся изо рта какого-то администратора, который пытается рассказать вам о том, что проблема произошла не по его вине, тем больше вероятность того, что это-то как раз произошло по его вине.

И все ответы будут в логах. А если у вас нет логов, то вы уже спилили сук, на котором сидите. Когда вас будут обвинять в том, что что-то не работало, вы не сможете со спокойным лицом дать распечатку логов работоспособной системы и попросить показать, где и когда что-то не работало.

Любую компьютерную ошибку можно устранить. В очень редких случаях эта проблема бывает из-за того, что “луна находится не в той фазе”. И если вы осознали, что используете эту фразу больше чем раз в год, то, скорее всего, либо кто-то отлынивает, либо кто-то подделывает логи, чтобы скрыть тот факт, что у него всё из рук вон плохо, а премию хочется.

Правило 5: Хороший инженер может заставить систему работать исправно. Плохой инженер будет выдумывать оправдания.


Причины, которые можно “принять”:

  1. У нас землетрясение, ТЦ накрыло (но только в Москве такой причины не будет)
  2. Годзилла проснулся и разворотил город
  3. Начался зомби-апокалипсис

Причины, на которые не стоит покупаться:

  1. Свежее обновление ОС обвалило нашу программу. (А зачем обновляли? Почему не протестировали?)
  2. Windows — дно, я же говорил, что нужно пользоваться Linux
  3. Linux — дно. Я же говорил, нужно было делать на MacOS
  4. MacOS — это та ещё альтернатива дна. Нужно было выкладывать на Windows. (Любые обвинения в адрес продуктов других компаний обычно означают одно из двух: либо обвиняющий не прочитал инструкции, либо просто отлынивает и не разобрался в настройке)
  5. Я не знаю, что происходит. (Тебе платят за то, чтобы ты узнавал.)
  6. Да не буду я для Пети ничего чинить. (Компьютерам пофиг на эмоции, а ты обслуживаешь компьютеры, не могу понять, причём здесь Петя?)
  7. Продукт другой компании — тоже падает. (Ок, у них пусть и падает, тебе платят за то, чтобы ты чинил.)

После того как вы перестанете покупаться на отговорки и будете строго следовать правилу №5 — вы увидите, что народ перестанет выгорать. Более того, ваши сотрудники будут ходить по офисам с прямыми спинами, гордиться и не будут дёргаться от каждого звонка. Вы перестанете кусать кулаки и будете уходить с работы в пятницу с чистой душой, точно зная, что до понедельника вы о работе не услышите.

Это основные метаправила системного администрирования. Опять же, неважно, что, где и как у вас работает. Будь то офис на 10 компов с хабом, кластер кубера или сеть на 10000 человек.

Для того чтобы привнести эти правила в жизнь, вы должны ввести большое количество подлежащих процессов. Работоспособные системы появляются не от взора прекрасных очей и не по щучьему велению.

Лет 7 назад, сидя на Хабре, я наткнулся на книгу “Практика Системного и Сетевого Администрирования” Тома Лимончелли. Неважно, что и как вы администрируете, я очень рекомендую вам найти эту книгу. Поищите на Яндексе по имени автора, она очень легко находится практически в каждом книжном онлайн-магазине в России.

Вышеописанные правила и процедуры, описанные в этой книге, позволят вам сэкономить нервы на администрировании любой системы.

А описанные правила — результат горького опыта. У кого-то язык может повернуться для того, чтобы назвать это «тиранией». Но в словаре есть более подходящее определение этому понятию. Оно называется «дисциплина». И в системном администрировании оно означает разницу между вашим понурым лицом, когда вам приходится объяснять, почему всё опять упало, и между вашим спокойным сидением за компьютером и с чашкой кофе. Как ни странно, но при наличии хорошо настроенных систем жизнь становится лучше.



НЛО прилетело и оставило здесь промокоды для читателей нашего блога:

15% на все тарифы VDS (кроме тарифа Прогрев) — HABRFIRSTVDS.

20% на выделенные серверы AMD Ryzen и Intel Core HABRFIRSTDEDIC.

Комментарии (27)


  1. hungry_forester
    22.12.2021 11:21
    +3

    Неглубоко копаем, где инструкции по восстановлению работы, я уж помолчу про их практическую тренировку?


    1. Nurked
      22.12.2021 11:26
      +1

      Это основные метаправила системного администрирования.

      Тут до восстановления работы еще не дошло. Тут все что до восстановления работы, судя по всему.


    1. D03ER
      23.12.2021 11:47
      +1

      Тут написано о том, как делать, чтобы ничего не нужно было восстанавливать. Не ремонтировать, а заранее выстраивать систему так, чтобы меньше сбоило и быстрее восстанавливалось.


  1. Jammarra
    22.12.2021 11:29
    +2

    Как будто откатился на 5-10 лет назад читая статью.


    Уже умные люди все написали и разложили по полочками в книжках по SRE, рекомендую. И о том как планировать и том как мониторить и на что обращать внимания и как инциденты разбирать и многое другое.


    1. Shaz
      22.12.2021 12:19
      +6

      Просто некоторые считающие себя сисадминами, не принимают и не понимают о чем там эти ваши пролежат фениксы, sre и прочее.

      Они делают "хорошо". Надежно, один раз и на века. (Обычно потому что уже через пару дней не помнят что и как делали.) они очень любят главное правило сисадмина "работает - не трогай". Поэтому когда не работает, они уже и не знают что же нужно потрогать, чтобы опять работало. Иногда они даже не будут знать что что-то не работает. Вот эта статья для них и про них. Да эти ребята действуют по "стандартам" начала 00-х, да они где-то рядом с вами. Возможно вы их ещё не заметили, потому что все работает и они ничего не трогают. Но они есть, и они рядом. Возможно прямо сейчас к вашим контейнерам кто-то прикручивает свой "полезный" скрипт.

      Не надо недооценивать сисадминов.


  1. inkvizitor68sl
    22.12.2021 12:49
    +1

    Зайти на контейнер для записи и сделать echo ... > /etc/hosts

    Дочитал до сюда, вспомнил про extra_hosts, понял, что читать дальше не стоит.


    1. mayorovp
      22.12.2021 13:02
      +1

      А зря. В смысле, зря вы про extra_hosts вспомнили: проблему неправильных записей DNS надо на стороне DNS решать, а не через hosts в любом виде.


      1. inkvizitor68sl
        22.12.2021 13:11

        Эм. Вы точно понимаете, для чего docker-compose нужен?

        Все верно, вносить изменения в /etc/hosts на докере это неправильно.

        Как раз в случае с compose это и есть правильный путь. Compose должен подниматься локально и работать на любом хосте - иначе он не нужен. Как туда трафик придёт от ingress - это уже другой вопрос, но проект должен заводиться локально и работать без дополнительных подпрыгиваний.


        1. Shaz
          22.12.2021 13:17
          +2

          Если кривая запись в dns, а описан именно этот случай в статье, то править наверно надо именно в днс.


          1. inkvizitor68sl
            22.12.2021 13:40
            +1

            В статье описан случай "мы не разбирались, что происходит". Я же оспариваю тезис: "Все верно, вносить изменения в /etc/hosts на докере это неправильно."

            Вносить такие изменения - правильно, более того - для этого есть штатный механизм в compose.

            А вот контейнерам ходить к друг другу через dns (и, очевидно, через внешние адреса и/или ingress) - может быть неправильным в миллионе ситуаций. Уж светить дырявый recording-server jitsi куда бы то ни было точно не стоит.


            1. Shaz
              22.12.2021 13:45
              +2

              Да, это может быть правильно. И да нсть штатный механизм.

              Докер тут видимо появился просто потому-то что он был. Но для демонстрации примера "нефиг прикручивать костыли" подходит отлично. Так как демонстрирует и игнорирование штатного функционала выбранного инструмента. И локальный костыль вместо решения проблемы. (Для всех остальных запись в dns так и осталась с ошибкой).


  1. johnfound
    22.12.2021 13:17

    И самое важное – когда поддержка работает, плохо всем.


    Поддержка должна не работать и получать за это деньги.


  1. PereslavlFoto
    22.12.2021 13:24
    +2

    Правило 3: Создавать новую систему при наличии уже работоспособной можно только в параллельной установке. Никогда не меняйте и не перенастраивайте работоспособную систему.

    Это правило работает только для случаев, когда есть второй сервер!


    1. Revertis
      22.12.2021 13:29
      +7

      Вы намекаете на то, что в блоге компании-хостера публикуют статьи, мотивирующие приобрести второй сервер? Не может такого быть!


    1. Shaz
      22.12.2021 13:34
      +3

      Второй сервер?! Хороший сисадмин сразу приобретает правильный сервер, которого хватит для всего, что нужно фирме. И который проработает до самого конца этой фирмы


      1. Tarakanator
        22.12.2021 13:50
        +7

        Любой мотоцикл прослужит вам до конца жизни, если ездить на нём достаточно быстро.


  1. amarao
    22.12.2021 14:03
    +4

    Зависит от типа инфраструктуры. Если у ваших клиентов протух cross-signed сертификат LE, то вы можете сколько угодно рассказывать про то, что "оно работало в пятницу, должно и в понедельник".


    1. slonopotamus
      22.12.2021 23:28
      +1

      Просто вернитесь в пятницу, ну чо вы.


  1. rjhdby
    22.12.2021 14:22
    +1

    Делать бекапы же!


    1. YourMama
      22.12.2021 15:32

      Они же - первые два правила сисадмина.

      Странно, что про бэкапы даже не упомянуты в статье про то как надо сисадминить %)


    1. lubezniy
      22.12.2021 18:42
      +1

      Уже делать. :)


  1. lxsmkv
    22.12.2021 14:31
    -6

    У меня есть два альтернативных названия для статьи:
    "Конспект подготовки начинающего эникейщика к принятию в ряды джуниоров эникейщиков"
    или
    "Главный сисадмин уехал в командировку и оставил джунам записку следущего содержания.."

    Простите за подколы, но правда, уже на дворе IaaS, PaaS, виртуализация, контейнеризация и прочее, и такие "проблемы" уже должны давно стать историей. Т.е. человек без специальных знаний и доступов физически должен быть не в состоянии накосячить, а о сбоях в системе ты должен узнавать по мониторингу быстрее чем пользователь успеет написать тикет.
    Во всяком случае это то к чему стоит стремиться.


    1. Shaz
      22.12.2021 16:07
      +3

      По три кластера кубернетеса в aws с бигдатой и пачкой sre в каждый ларёк!

      Причём всё это "как оно должно быть" чаще всего работает только у маркетологов или на конференциях. Ну и ещё в книжках.

      А в суровой реальности все сурово и реально. Даже то, что кажется полным бредом.

      Вон в соседнем посте милая девушка рассказывает как они катили микросервисы в прод без тестов. И куда прикатились.


      1. lxsmkv
        22.12.2021 19:44
        +1

        Это все правильные правила, только вот такой подход не решает проблему в корне, следуя своим же правилам.

        У нас, например, билды время от времени падают, потому что таймаут в корпоративном репозитории докера. И это известно админам но не чинится почти год.

        Я понимаю прекрасно о чем в статье говорится. Это определенный подход к работе. Больно то, что об этом вообще нужно говорить. Для меня это вещь сама собой разумеющаяся. Я когда пишу автоматизацию пытаюсь привести все к стандартному виду, при попытке осмыслить ошибку спускаюсь вниз по стеку, туда где без документации уже не разберешься. Копаться, составлять технически достоверную картину ошибки, мне это не "влом". Ведь я понимаю, если еще и я ослаблю хватку, то лучше точно не станет. Во время любого рефакторинга и архитектурных изменений автоматизации рабочее решение всегда продолжало работать, и только после тщательной обкатки на отдельной ветке менялось на новое. Это профессиональный подход. А как иначе?

        Или у нас чтобы развернуть рабочее окружение, нужно какой-то ява пакет добавлять вручную, потому что его ни в каком мавен репозитории нет. И говорить разрабам о том что так не должно быть, и даже экзотическую библиотеку нужно тупо добавить в корпоративный nexus, чтобы maven отрабатывал чисто - все равно что стучать по стеклу аквариума пытаясь привлечь внимание рыбки.

        Поэтому слышать от сисадминов "мы знаем об этой проблеме", мягко скажем, обидно.

        Обидно, Карл!
        Обидно, Карл!

        А, вспомнил как это называется - пох*изм и некомпетеность.


  1. Adjuster2004
    22.12.2021 22:47
    -1

    Первое и всегда первое правило Системного администратора - Разделяй и властвуй!

    Разделяй на всех уровнях OSI и одно не потащит за собой другое.

    Не потребуется перегружать один сервер с кучей сервисов, когда сервисы разделены на отдельные виртуалки и т.д.

    А вот первое правило Инженера - Техника должна работать!

    Если техника не работает, то у инженера 2 пути.

    Либо починить технику, либо выкинуть, заменив рабочей.


  1. 1A1A1
    23.12.2021 08:32
    +1

    Из года в год появляются те, кто знает как и что нужно делать, но мир почему-то не наврдняется ромашками и розовыми пони. Не стоит из своего опыта лепить инструкции как надо жить. Вы не видели и 1% того разнообразия решений и ситуаций, которые реализуются в мире прямо сейчас. Описывайте свой опыт, но не преподносите это как серебряную пулю.


  1. osscombat
    23.12.2021 12:45
    -1

    нестареющий анекдот про дом, который построили заднеприводные: на каждом этапе появляется специалист, который говорит заказчику - ну что за заднеприводные тут так сделали?!