У нас в проекте четыреста пул-реквестов в месяц. Половина комментариев — «поправь отступ», ещё четверть — «LGTM». Я хотел научить машину отличать полезное от шума. Машина научилась. А потом я полез смотреть, где она ошибается — и три недели думал об этом перед сном.

Вы наверняка знаете это состояние: открываешь чужой PR на ревью, а там сорок два комментария. Глаза разбегаются. Первый — отступ, второй — пробел, третий — «ок», четвёртый — «ок», пятый — переименуй переменную. Где-то между ними спрятано замечание про гонку данных, которая уложит продакшен через неделю, но ты его благополучно пропустил, потому что к двадцатому «ок» мозг уже не здесь.

Код-ревью давно превратилось в ритуал. Галочка в Jira. Запятые обсуждаем час, архитектуру — никогда. Я решил это починить.

Датасет и первые результаты

Задача выглядела обманчиво простой: берём комментарий, классифицируем — сигнал или шум.

  • «Тут будет падение, если массив пустой» — сигнал.

  • «LGTM» — шум.

  • «Переименуй в getUserData» — шум.

  • «А что если пользователь отправит null?» — сигнал.

Я собрал сорок семь открытых репозиториев с публичной историей — почти одиннадцать тысяч комментариев. Три тысячи разметил вручную, остальное полуавтоматом с выборочной проверкой. Модель обучилась за вечер и угадывала правильно в восьмидесяти семи случаях из ста.

Устроено внутри сознательно просто — хотел видеть, за что модель цепляется. Никаких эмбеддингов, никаких трансформеров. Из каждого комментария вытаскиваю шесть признаков руками:

EMPTY_APPROVALS = {"lgtm", "ok", "ок", "+1", "?", "норм", "ладно", "looks good", "принято", "ship it"}

def extract(comment: str) -> dict:
    words = comment.split()
    return {
        "length":           len(comment),
        "has_question":     "?" in comment,
        "has_code_ref":     bool(re.search(r'`[^`]+`|\.py|\.js|line\s*\d+', comment)),
        "has_suggestion":   bool(re.search(r'а если|лучше|consider|what if', comment, re.I)),
        "is_empty_approval": comment.strip().lower() in EMPTY_APPROVALS,
        "specificity":      len(re.findall(r'\w+\.\w+|\w+\(', comment)) / (len(words) + 1),
    }

Есть ли в комментарии вопрос. Ссылается ли на конкретный код. Предлагает ли альтернативу. Или это просто «ок» — одно слово, галочка, дальше. Последний признак — specificity — считает, как часто человек упоминает конкретные функции и файлы относительно длины текста. Чем конкретнее комментарий, тем выше шанс, что в нём есть сигнал.

Классификатор — логистическая регрессия. Пробовал деревья, пробовал бустинг — разница полтора процента, а регрессию можно открыть и посмотреть глазами, какие признаки тянут. has_code_ref и specificity оказались самыми сильными. Длина сама по себе — почти бесполезна: бывают длинные пустые комментарии и короткие точные попадания в баг.

Всё! Можно было писать туториал, собирать лайки и закрывать задачу.

Но я сделал то, что делает любой нормальный инженер — открыл список ошибок.

Паттерн, которого я не искал

Первые двадцать ошибок — ерунда: пограничные случаи, сарказм, который машина не распознала, вопросы, которые можно трактовать и так и так.

А потом я заметил кое-что странное. Модель систематически сомневалась на одних и тех же людях. Их комментарии выглядели нормально — короткие, по делу, формально полезные. Но там, где обычно модель уверена на девяносто процентов, на этих авторах она выдавала пятьдесят на пятьдесят.

Первая мысль — баг в разметке. Проверил, нет. Вторая — особенность стиля, может они просто пишут иначе. Проверил — да, пишут иначе. Но почему именно эта группа?

Полез смотреть, кто эти авторы. Поднял историю коммитов. И нашёл общее: все они ушли из проекта. Через месяц, два, три после тех самых комментариев — последний коммит, и тишина.

Три часа ночи, экран светится

Вот конкретный человек. Полтора года в проекте, сто сорок пул-реквестов, активный, въедливый, спорит на каждом ревью. А вот его последние восемь недель: комментарии становятся короче, вопросов всё меньше, «ок» вместо развёрнутых абзацев. И потом — тишина.

Модель не ошибалась. Она видела то, чего я не искал: угасание. Задолго до того, как человек написал заявление. Возможно, задолго до того, как он сам понял, что уходит.

Пять признаков «тихого ухода»

Следующие две недели, по вечерам, я этим и занимался. Выделил восемьдесят девять человек, которые ушли и не вернулись. Ушли — значит последний коммит, потом тишина минимум на год. Не знаю, уволились ли они, перешли в другой проект или просто потеряли интерес — из публичных данных это не видно. Но паттерн угасания перед уходом одинаковый, независимо от причины. Потом сравнил их последние комментарии с тем, что они писали раньше. Паттерны оказались пугающе одинаковыми — у всех.

1. Длина комментариев сжимается

Не резко — постепенно, как громкость, которую убавляют по миллиметру в день. Полгода назад человек пишет: «Тут лучше вынести в отдельный сервис, потому что эта логика будет расти — я уже видел такое в модуле биллинга, потом три месяца распутывали». За месяц до ухода: «Ок». Среднее падение — до сорока процентов от прежней длины. Стабильно, у всех.

2. Вопросы исчезают

Человек перестаёт спрашивать «почему так?», перестаёт предлагать «а если иначе?». Принимает всё, кивает, не спорит. Вопрос — это инвестиция: ты тратишь энергию, потому что тебе важен ответ. Когда перестаёт быть важно — вопросы заканчиваются. Падение на семьдесят процентов за шесть недель.

3. Пустые одобрения

«LGTM» без единого замечания на код в пятьсот строк. Раньше такого не было — раньше этот человек всегда находил хоть что-то. Теперь — галочка и дальше. Доля таких «пустых» ревью подскакивает с пятнадцати процентов до шестидесяти.

4. Время реакции растёт

Время от назначения ревью до первого комментария увеличивается вдвое. Не потому что человек стал объективно занятее — нагрузка в команде у всех примерно одинаковая. А потому что задача переместилась в конец внутреннего списка приоритетов. Проще говоря, стало всё равно.

5. Тон выравнивается

Исчезают восклицательные знаки, «круто!», «ого», «спасибо», эмодзи. Раньше: «Блин, точно! Не подумал. Спасибо что поймал». Теперь: «Исправлю». Ровный, стерильный текст — как кардиограмма, которая выпрямляется в линию.


Каждый из этих признаков по отдельности — ничего особенного: плохая неделя, усталость, проблемы дома. Но когда все пять совпадают — это не плохая неделя. Это решение, которое человек ещё не произнёс вслух.

Модель-предсказатель

Я должен был проверить. Построил простую модель — не для продукта, для себя. Пять признаков, скользящее окно в две недели. Для каждого автора — его собственная базовая линия за предыдущие полгода. Не «длинный ли комментарий», а «стал ли он короче, чем обычно у этого человека». Не «быстро ли ответил», а «медленнее ли, чем он сам отвечал раньше».

def attrition_signal(author_id, window_days=14):
    recent   = get_comments(author_id, last_n_days=window_days)
    baseline = get_comments(author_id, last_n_days=180)

    if len(baseline) < 10 or len(recent) < 3:
        return None  # мало данных — лучше промолчать

    return {
        "length_ratio":        mean_len(recent) / mean_len(baseline),
        "question_rate_delta": question_rate(recent) - question_rate(baseline),
        "empty_approval_rate": empty_rate(recent),
        "response_time_ratio": median_hours(recent) / median_hours(baseline),
        "sentiment_delta":     mean_sentiment(recent) - mean_sentiment(baseline),
    }
# вспомогательные функции считают среднее/медиану по окну, логика тривиальная

Каждая строчка — один из пяти признаков. length_ratio ниже единицы — комментарии сжимаются. question_rate_delta уходит в минус — вопросы исчезают. empty_approval_rate растёт — всё больше «ок» без единого замечания. response_time_ratio выше единицы — человек отвечает медленнее. sentiment_delta падает — тон выравнивается, эмоции уходят.

Тут важный момент. Классы несбалансированы: ушли восемьдесят девять человек из шестисот с лишним — примерно пятнадцать процентов. Если модель каждому скажет «останется», она угадает в восьмидесяти пяти случаях из ста и не поймает ни одного ухода. Красивая цифра, бесполезная модель. Поэтому простая точность тут врёт — нужно смотреть, сколько уходов модель нашла и сколько раз подняла ложную тревогу.

Что измеряем

Результат

Из тех, на кого модель указала — действительно ушли (precision)

52%

Из тех, кто реально ушёл — модель поймала (recall)

73%

Общее качество ранжирования (ROC AUC)

0.84

Половина ложных тревог — много. Из десяти, на кого модель показала пальцем, пятеро действительно ушли, пятеро — нет: передумали, получили повышение, влюбились, или паттерн объяснялся чем-то, о чём мы не знаем и не должны знать. Зато из тех, кто реально ушёл, модель заметила почти три четверти. За шесть недель. По комментариям к коду.

Для сравнения: если просто смотреть, стал ли человек писать короче, — качество ранжирования около 0.65. Пять признаков вместе — 0.84. Случайное угадывание — 0.50. Проверял на пятикратной кросс-валидации, стратифицированной — чтобы не обманывать самого себя.

Модель не видит причину. Только симптом. Но симптом — видит увереннее, чем я ожидал. Данные — GitHub API, тональность считал через TextBlob/dostoevsky, классификатор — логрег. Пайплайн воспроизводим за вечер на любых 40+ публичных репозиториях.

Три этических тупика

Тут я не мог понять, что с этим делать. Потому что есть три способа смотреть на эту штуку — и все три одновременно правда.

Инструмент заботы

Менеджер видит сигнал заранее. Подходит, спрашивает: «Эй, всё нормально? Чем помочь?» — не «почему ты уходишь», а именно «чем помочь». Человек хотел уйти, потому что его не слышали, а его услышали — и он остался. Выгорание, пойманное за шесть недель, это выгорание, которое ещё можно вылечить. За шесть часов до заявления — уже нет.

Инструмент слежки

Человек имеет право уходить молча. Не объяснять, не сигнализировать, не отчитываться о своих эмоциях через длину комментариев. Если каждый твой «ок» анализируется на предмет лояльности — ты живёшь в паноптикуме. Тюрьма, которую два века назад придумал Бентам: надзиратель видит всех, его не видит никто. Ты не знаешь, следят ли за тобой — и ведёшь себя так, будто следят всегда. HR-отдел с моделью предсказания увольнений — это паноптикум, только с нейросетями вместо вертухаев.

Неизбежность

Данные уже существуют. История коммитов, время ответа, длина сообщений — всё это логируется годами в каждой компании. Вопрос не в том, можно ли это анализировать, а кто сделает это первым. Если не вы — то стартап, который продаст это вашему начальству как «платформу аналитики персонала». Красивые дашборды, метрики удержания, прогнозы оттока. Без вашего участия и без этических вопросов.


Что с этим делать (без модели)

Вот что я понял точно: не нужна модель, чтобы видеть угасание. Нужно просто смотреть.

Если коллега перестал задавать вопросы на ревью — задайте ему вопрос. Не «ты уходишь?» — а «что думаешь про эту архитектуру?». Верните его в разговор.

Если комментарии стали короче — не списывайте это на эффективность. Это потеря интереса. «Ок» от человека, который вам доверяет, и «ок» от человека, которому всё равно, выглядят одинаково, но значат противоположное.

Если время ответа растёт — не дёргайте. Спросите, что случилось. Не в рабочем чате — лично.

Модель увидела паттерн за шесть недель. Вам достаточно одной, чтобы заметить. Разница в том, что вы можете не просто предсказать уход — вы можете сказать: «Эй, ты как?»

Почему мы не замечаем

Я искал мусор в комментариях, а нашёл людей, которым плохо. Модель оказалась внимательнее меня — не умнее, именно внимательнее. Потому что у неё нет дедлайнов, нет усталости, нет привычки не замечать медленные изменения.

В этом и штука: мы адаптируемся. Коллега стал тише — привыкли. Реже спорит — привыкли. Не шутит на созвонах — привыкли. Каждый день почти как вчера, разница в полтона, а через месяц мы уже не слышим. Модель не привыкает — для неё каждый комментарий это точка на графике, и она видит тренд просто потому, что не устаёт смотреть.

Миф про лягушку в кипятке — что она не выпрыгнет, если нагревать медленно — неправда, лягушка выпрыгнет. А мы нет. Сидим в воде, которая теплеет по градусу в неделю, и не замечаем, что кто-то рядом уже сварился.


У Лема в «Голосе Неба» учёные думали, что расшифровывают сигнал из космоса. Строили гипотезы, спорили о значении. А потом поняли: сигнал изучал их — показывал, кто они такие, по тому, как они его интерпретируют.

Я думал, что классифицирую комментарии к коду. А изучил — как мы перестаём замечать друг друга.

Паттерн всегда был в данных. Мы просто не искали. Может, не хотели.


В канале токены на ветер раскрываю вопрос: модель видит, когда человек уходит. А когда выгорает, но остаётся?

Спойлер: видит. И это страшнее.

Комментарии (63)


  1. AdrianoVisoccini
    18.02.2026 07:28

    ок чат джипити, перепиши мои комментарии так как будто я не выгораю....


    1. sushka0
      18.02.2026 07:28

      на это тоже силы требуются, если сильно выгорел, то и на это станет без разницы


      1. ScriptShaper Автор
        18.02.2026 07:28

        Именно. Самый тяжёлый этап когда даже на имитацию нормальности уже нет ресурса. Модель как раз это и ловит: человек перестаёт маскироваться.


        1. fhunter
          18.02.2026 07:28

          Когда человек перестал максироваться - уже поздно. Всё равно или уйдёт или догорит до пепла.


  1. Akon32
    18.02.2026 07:28

    Интересное наблюдение. Если проект становится не нужен, зачем прилагать усилия? Усилия - это инвестиции в проект, а если ты скоро уходишь, делать их ни к чему.

    Слышал, что жёны так же уходят.


    1. grigr
      18.02.2026 07:28

      Да верно. Помню состояние перед разводом или после сильной ссоры.

      Полное равнодушие к человеку и его делам, нет вовлечённости, нет желания отвечать сразу, все ответы односложные


    1. Fesc
      18.02.2026 07:28

      Вот тут выделяется интересное направление,которое,к слову,не лишено этических дилемм...


    1. randvell
      18.02.2026 07:28

      Слышал, что жёны так же уходят

      Вот и я читая статью сразу подумал, что пункты, выделенные автором, подозрительно подходят под описание [затухающих] отношений. Все же инвестиции времени и эмоций они везде похожи


  1. panzerfaust
    18.02.2026 07:28

    Вспомнилось. В Сбертехе много лет назад внедряли практики DevOps, CI, CD. Естественно, через колено. В частности была там система, кажется, "Око" - она следила за падениями пайплайнов на тестовых средах. А падали они тогда в основном из-за нестабильности этих самых сред ("gridgain развалился"), а не потому что разрабы дураки. НО! После серии падений к нам заходил менеджер и начинал парить вопросами "а чегой-то у вас там всё падает?". Хотя система показывала, что падали не тесты, а инфра.

    Это я к тому, что никаких "этических тупиков" нет. Если у эффективных мудозвонов появится возможность сношать разрабов за неправильные комменты в ревью - именно это и будут делать.


    1. ScriptShaper Автор
      18.02.2026 07:28

      Вы описали ровно то, чего я боюсь. Инструмент заботы в руках нормального тимлида и тот же инструмент в руках «эффективного менеджера» — два разных предмета. Проблема в том, что инструменту всё равно, кто его держит.


      1. achekalin
        18.02.2026 07:28

        А я вот подумал про внезапно ставший плохим проект. Те не люди решили уйти от невовлеченности, а... Возьмите Макс этот несчастный, его ж в другой ипостаси пилили не шатко не валко, и вдруг - проект переименовали, продали топам как замену телеги, как открровение, а под капотом тот же тамтам, и... вот как там длина комментов изменилась?

        Кстати, что у макса с инфрой - вообще непонятно. Раз боятся разрешать всем делать ботов, то, видно, запас прочности небольшой, а ведь на него завязаны всякие госуслуги... есть от чего стиль комментов сменить!


      1. paperwork
        18.02.2026 07:28

        Но этот инструмент обоюдоострый, можно формулировать комментарии через ИИ-ассистента и настроить стиль, тогда всё будет ровно всегда.
        Ну, или изначально привыкать отвечать только кратко и односложно...?


    1. Rubinchik
      18.02.2026 07:28

      Мама дорогая,гридгейн, он ещё стоит?


  1. Nikx83
    18.02.2026 07:28

    Вполне логично. Причем не обязательно в проекте. Еще бы нейросеть причины такого выгорания подсказывала. Может руководитель идиот и не слушает специалистов. Может по финансам что-то не так.


    1. ScriptShaper Автор
      18.02.2026 07:28

      Причины за пределами модели. Она видит только симптом. Но вы правы, интересно было бы скрестить с данными из тикетов: кому какие задачи падают, меняется ли сложность, слушают ли на планировании. Может когда-нибудь доберусь.


    1. Wwyn
      18.02.2026 07:28

      При правильных настройках она вполне способна найти причину. Я свою натренировал так, чтобы она сразу переходила к делу, а не выдавала мне общеизвестный факт. Сейчас она прежде чем ответить, спрашивает уточняющую информацию, потом снова уточняет и уже на основе этого выдает мнение. Я научил ее получать анамнез, все анализы и жалобы, прежде чем начинать писать ответ. Теперь, задав вопрос, почему я не сплю по ночам, она не выдает мне простыню текста с вероятными причинами, не пишет, какой клевый вопрос, вот бы всем такие вопросы научиться задавать и самое главное, не пытается продолжать, если это не нужно в контексте разговора.


  1. AndrewSu
    18.02.2026 07:28

    Половина комментариев — «поправь отступ»

    Зачем это на ревью перекладывать? Настройте автоформатирование, которое всех устроит, а в CI добавьте задачу, которая проверит.

    Если что-то не так с форматированием, или другими тривиальными вещами, то до ревью человеком не должно доходить.


    1. ScriptShaper Автор
      18.02.2026 07:28

      Полностью согласен. Линтеры, форматтеры, pre-commit хуки — и половина шума исчезает до ревью. Но в реальности из всех репозиториев, которые я смотрел, нормальный CI с проверкой форматирования был у трети. Остальные обсуждают пробелы руками. В 2026 году...


      1. Vsevolod_888
        18.02.2026 07:28

        Так может в этом одна из проблем выгорания? И есть может закономерность симптомов в репах с этим мусором и репах где это норм настроено?


        1. ScriptShaper Автор
          18.02.2026 07:28

          Хороший вопрос. Не проверял, но гипотеза рабочая — в захламлённых репах шум выше, сигнал тонет, и люди быстрее перестают стараться. Может быть не причина выгорания, а ускоритель. Стоит покопать.


      1. Zukomux
        18.02.2026 07:28

        И для этого теперь вместо линтера на хуке прекоммита мы будем настраивать модель ИИ на 10к ревью. Просто слов нет как эффективно...


  1. ihouser
    18.02.2026 07:28

    Чтобы неугасать, людям надо больше общаться с глазу на глаз. Та электронная прослойка убивает непосредственную обратную связь. Возможно получивший ревю очень рад дельным комментариям, но через текст он не может этого показать полностью.

    Вот те, у кого горели глаза от желания помочь, теряют интерес, т.к. не получают порции дофамина от непосредственного общения. Энтузиазма и воображения [как он общается] на долго не хватает.


    1. ScriptShaper Автор
      18.02.2026 07:28

      Согласен. Текст — канал с очень низкой пропускной способностью для эмоций. «Спасибо, дельное замечание» в чате и то же самое с улыбкой на кухне разные вещи. Модель, кстати, ловит именно это: что человек перестал писать.


    1. Akon32
      18.02.2026 07:28

      От общения удовольствие получают не только лишь не все, среди айтишников, вероятно, даже меньшинство. А процесс ежедневного перемещения на работу ещё и пустая трата времени и топлива.


      1. Gwilwo
        18.02.2026 07:28

        Думаю вы преувеличиваете. Удовольствие от общения это базовая вещь, если его нет, то это уже проблемы.


      1. MikeVentris
        18.02.2026 07:28

        Айтишники, в большинстве своем, не получают удовольствия от стереотипно-экстравертного общения. Вот эти "ого, какими судьбами, старичек, как жена, как сам!? выкладывай давай!". Но это не значит, что им не нужно общение и человеческий контакт, которые банально на биологическом уровне меняют баланс нейромедиаторов. Просто оптимальный формат иной.


        1. Akon32
          18.02.2026 07:28

          Общаться можно и вне работы...


          1. MikeVentris
            18.02.2026 07:28

            Можно. Это и приводит к тому что есть "нормальная жизнь", а есть "ежедневная каторга" длинною в 8 часов. Так люди и горят. Work-life balance, мать его.


        1. Fesc
          18.02.2026 07:28

          Но есть и не стереотипный. Когда ты общаешься по задаче,но можешь шутить в контексте,крепить отсылочки и тп. В тексте это не так уместно, + невербальное общение даёт больше именно ощущений от общения,которые влияют на эмоциональное состояние,подпитывают.


    1. antonb73
      18.02.2026 07:28

      Я бы сказал - все ровно наоборот. Если общатся не с кем по сути, то лучше такого общения избегать, потому что "желание помочь" не является "возможностью помочь" по умолчанию. А ведь желающий, с горящими глазами который, помочь ждёт похвалы и благодарности за своё участие и приченённую пользу. Часто сил нет благодарить, так как все силы ушли на объяснение помогающему где именно и что он не понял в задаче перед тем как начал помогать.


      1. ihouser
        18.02.2026 07:28

        Общение с людьми важно, но нет обязанности общаться с каждым мудаком подряд. Если человек неумеет принимать дельные (или не очень) советы и замечания, ну и ладно, пускай выгорает в одиночку.


  1. winkyBrain
    18.02.2026 07:28

    Вы наверняка знаете это состояние: открываешь чужой PR на ревью, а там сорок два комментария. Глаза разбегаются. Первый — отступ, второй — пробел, третий — «ок», четвёртый — «ок», пятый — переименуй переменную. Где-то между ними спрятано замечание про гонку данных, которая уложит продакшен через неделю, но ты его благополучно пропустил, потому что к двадцатому «ок» мозг уже не здесь.

    То есть решить большинство упомянутых проблем(отступ, пробел и даже нейминг) с помощью линтеров вы по какой-то причине не могли? Или если это всё убрать, то останутся только замечания по делу и не будет материала для статьи?)


    1. ScriptShaper Автор
      18.02.2026 07:28

      Мог и должен был. В статье об этом есть. Это проблема не моя, а датасета. Из 47 публичных репозиториев нормальный CI с линтерами был у трети. Остальные как есть. Но если убрать весь шум линтерами, материал для статьи всё равно остался бы: модель зацепилась не за отступы, а за то, как меняется поведение автора со временем. Линтер эту задачу не решает.


  1. windsurfer69
    18.02.2026 07:28

    Получился рассказ. Немного сентиментальный.


  1. wmlab
    18.02.2026 07:28

    Статья интересная. В принципе - вещь очевидная. На утренних стандапах это видно и без всяких комментариев - раньше человек вмешивался в каждую проблему, что-то предлагал, увлеченно рассказывал про свои решения. Потом замолчал, отвечал коротко, сухо, только на прямые вопросы. А потом раз - новость: имярек нас покидает, переходит в другую компанию. Надо просто быть внимательным, AI помогает высветить проблему. Но если менеджер внимательный, он и без всякого AI на 1:1 поинтересуется, что не так.

    Единственная претензия - к стилю. Бьющие по глазам AI обороты. Сейчас много таких статей появилось - темы разные, а стиль как под копирку. Возможно, черновик пропустили через условный ChatGPT с просьбой поправить стилистику. Это само по себе неплохо, но это вымораживает авторский стиль и вызывает раздражение. По себе заметил - если пропускаю свои заметки через AI - на выходе получается вот такая стандартная болванка. Советую - экспериментируйте, просите напрямую изменить стиль, избегать любимых AI оборотов, скопировать стиль известного журналиста или писателя.

    Поставил плюсик, чтобы не подумали, что я придираюсь.


    1. ScriptShaper Автор
      18.02.2026 07:28

      Спасибо за плюсик и за честность. По сути — полностью согласен: внимательный менеджер на 1:1 увидит всё то же самое. Модель не заменяет внимание, она просто не устаёт его проявлять. Но проблема в том, что внимательных менеджеров сильно меньше, чем git-логов.


    1. CloudlyNosound
      18.02.2026 07:28

      На утренних стендапах видно только, спал ли ночью сотрудник. На послеобеденных - отдохнул ли, после обеда, да и обедал ли вообще. На вечерних, положительно выделяются те, кто отлично поспал днём.


  1. axion-1
    18.02.2026 07:28

    Не пробовали связывать паттерн с циклом жизни проекта? Может не люди "угасали", а просто активная работа над проектом заканчивалась во многих случаях?


  1. broondulyak
    18.02.2026 07:28

    Раньше люди считывали невербальные сигналы при общении (помните сериал "Обмани меня"), а сейчас: "точку в конце сообщения поставил - что бы это могло значить?". Печаль...


    1. Orisava
      18.02.2026 07:28

      помните сериал "Обмани меня"

      https://en.wikipedia.org/wiki/Dunning–Kruger_effect


    1. ymishta
      18.02.2026 07:28

      точку в конце сообщения поставил - что бы это могло значить?

      Сигнал в центр "работаю под принуждением, возможна деза" )))


      1. CorruptotronicPervulator
        18.02.2026 07:28

        Всегда остаётся ещё и цветочница для проверки…


  1. unih
    18.02.2026 07:28

    Видимо не совсем пончл. У вас же первая моделька классификацирует комментарии по одному, без знания остальных и без знания человека. Как она может узнать о динамике? А ро одному комментарию узнать что то тяжело


  1. dolovar
    18.02.2026 07:28

    Менеджер видит сигнал заранее. Подходит, спрашивает: «Эй, всё нормально? Чем помочь?»

    Теоретически, это ускорит уход, потому что человек задумается и поймет, что устал. И может понять, что другие это тоже заметили. Нет причин тянуть резину. И вполне возможно, что тянуть его назад вопреки существующему процессу накопления усталости - это ускорять процесс накопления.

    Впрочем, причины потери интереса могут быть слишком разные, и "не видеть интереса в окружающих" тоже может быть, в таком случае активизация поможет.


    1. Akon32
      18.02.2026 07:28

      Полагаю, этот эффект проявляется, когда решение об уходе уже принято, хотя у эффекта могут быть и более банальные причины (проект просто поднадоел).


  1. Varrah
    18.02.2026 07:28

    У Ласло Бока в "Работа рулит" описано, как в Гугле еще лет 15-20 назад (в золотые времена, когда "dont' be evil" ещё что-то значило) сделали аналитику по десяткам разных показателей, для того, чтобы предсказывать увольнения. Система отлично работала без всякого ИИ. Они пошли дальше, стали проводить консультации с такими людьми, узнавать что не так и из-за чего они увольняются или почему их отношение к работе снизилось. В большом проценте случаев оказалось, что проблема в непосредственном начальнике такого сотрудника. Они стали копать ещё и выявили паттерны, по которым они смогли определять начальников с проблемным поведением. Таких начальников они отправляли на курсы, что позволило им улучшить атмосферу в командах и текучка снизилась. Увы, никаких дополнительных подробностей там не описано.


  1. SecondUniverse
    18.02.2026 07:28

    Сама большая причина выгорания - это осознание бесполезности работв, если проект заведомо кривой, или пишется то, что никому не нужно. Или хаос в работе. А ещё "тут пробел поправьте'' демотивирует. Ты уже не создаешь, а занимаешься перекладываем камней в чистом поле. Не нужен тут ИИ, чтобы понять, что человек выгорел.


  1. Dok_DD
    18.02.2026 07:28

    50% - это такое... как вероятность встретить динозавра: либо да, либо нет


  1. anatoly_seregin
    18.02.2026 07:28

    Спасибо. Здорово написано. Интересный поворот в середине. Открытый финал. Каждый сам выбирает, что ему важно. Как с энергией атома и другими технологиями.

    Многие пишут, что текст с помощью ИИ написан. Я не заметил. Интересно, использовали ИИ в этом тексте или нет?


  1. Reveurex
    18.02.2026 07:28

    Я бы убрала из заголовка “начала предсказывать увольнения”, в тексте ушёл - это исчез из репозитория на год, не факт увольнения, и даже по вашим цифрам для отмеченного моделью человека шанс ухода около 50/50


    1. paperwork
      18.02.2026 07:28

      к тому же по заголовку может показаться, что слово "увольнение" означает не сам ушёл, а уволили


  1. edge790
    18.02.2026 07:28

    Имхо, вывод натянут: "короткие комментарии => выгорание => увольнение"

    По своему опыту скажу что если ты знаешь что уходишь с проекта: имеешь офер в другую компанию , переходишь в другой проект, то у тебя требования к коду старого проекта меньше. То ты ревьюишь его с мыслью что тебе с этим кодом работать и исправлять а следовательно всё должно быть так чтобы тебе хотелось с ним работать, а то ты понимаешь что ты через неделю/месяц будешь заниматься уже другим проектом, а те кто сделали этот PR и будут им дальше заниматься. Отсюда и вопрос: зачем тебе говорить им как должен работать и выглядеть их код за который им отвечать и им же работать.


  1. Tatooine
    18.02.2026 07:28

    Проще говоря, стало всё равно.

    Ключевая фраза.

    Сначала спец пытается что-то доказать, сделать как лучше, потом смиряется с хаосом и идиотизмом и в итоге ему становиться пофиг


  1. Kelbon
    18.02.2026 07:28

    Ни у кого нет ощущения, что статья выдумана и написана полностью клаудом? У меня есть


    1. H01y
      18.02.2026 07:28

      Я больше скажу - он и комментарии пишет. Палится из-за одинаковой структуры.


  1. domix32
    18.02.2026 07:28

    Исчезают восклицательные знаки, «круто!», «ого», «спасибо», эмодзи

    Мне интересно кто вообще занимается таким. Эмодзики-то ладно, а вот всякие восклицания в принципе обычно редкость, когда кто-то делает что-то неожиданное и приятное.


    1. CloudlyNosound
      18.02.2026 07:28

      Эмодзи и восклицательные знаки притянуты за уши. Динамика знаков препинания - совсем другое дело, хотя и тоже никакой не показатель, ведь можно сразу писать только словами и пробелами, не тратя драгоценное время на пунктуацию, ведь эти комментарии никто и никогда не станет читать.


  1. Anher
    18.02.2026 07:28

    • «Тут будет падение, если массив пустой» — сигнал.

    • «LGTM» — шум.

    Автор пересмотрел рилсов про самомотивацию?


  1. kain64b
    18.02.2026 07:28

    "Половина комментариев — «поправь отступ»" люди не могут настроить одинаково среды разработки и линты, а лезут в какое-то ии, вместо правки реально проблемных и дешёвых в починке вещей omg


  1. nokeya
    18.02.2026 07:28

    Вспоминается статья от игровой компании-оператора ММО (Инновы кажется) тут на Хабре.

    Они тоже сделали подобную аналитику и стали очень точно предсказывать, что вот такой-то игрок скоро перестанет заходить на сервер и уйдет. Но понять причину ухода людей им эта аналитика так и не помогла.


    1. Maxud_Dallum
      18.02.2026 07:28

      Следующая стадия - ИИ анализирует частоту и характер запросов и самостоятельно поддерживает пользователя и его интерес. До момента пока потребитель токенов необходим, т.к. конец этой истории просматривается


  1. CloudlyNosound
    18.02.2026 07:28

    Инструмент заботы - когда к тебе внезапно приходят и начинают что-нибудь спрашивать, а в особенности если это менеджер, ты только быстрее уйдешь. Задалбывают неуместными вопросами, заставляя думать о чрезмерном внимании, без причины. И "без причины" - это самый мягкий вариант, ведь кто-нибудь может впасть в депрессию, решив, что раз пришли пинать, значит уже точно провинился.

    Инструмент слежки - у hr это и так основная функция, поэтому они с руками оторвут такой увольнятор. Выгнать сотрудника раньше, чем он уйдет сам дорогого стоит, потому что можно открыть еще одну вакансию и создавать видимость еще более бурной деятельности.

    Неизбежность - да, неизбежность. И она в том, что нет смысла выявлять недовольство таким способом и на столь позднем этапе. Борьба со следствием, постфактум, вместо учета причин на ранних стадиях. Человек мог хотеть уйти с первого дня, но просто отсиживать положенные пять лет, или сколько он решил посвятить вашему важнейшему проекту.

    В целом же, описанный случай, когда модель поведения у тех, кто "скоро уйдет из проекта", настолько однообразна, можно и нужно сделать вывод о чрезмерной затянутости управленческих болтов и гаек, когда у сотрудника не остается, ни сил, ни времени на подумать и он начинает действовать, как проще. В таких проектах, рано или поздно, но уходят вообще все, заменяясь кем-нибудь ещё. И некоторая неравномерность ухода сотрудников просто подтверждает тот факт, что все люди разные, физически, морально, как угодно, поэтому и выгорают с разной скоростью, не говоря уже об изначальных установках - далеко не все, ведь, являются достигаторами, многим нужна тихая гавань.