У нас в проекте четыреста пул-реквестов в месяц. Половина комментариев — «поправь отступ», ещё четверть — «LGTM». Я хотел научить машину отличать полезное от шума. Машина научилась. А потом я полез смотреть, где она ошибается — и три недели думал об этом перед сном.
Вы наверняка знаете это состояние: открываешь чужой PR на ревью, а там сорок два комментария. Глаза разбегаются. Первый — отступ, второй — пробел, третий — «ок», четвёртый — «ок», пятый — переименуй переменную. Где-то между ними спрятано замечание про гонку данных, которая уложит продакшен через неделю, но ты его благополучно пропустил, потому что к двадцатому «ок» мозг уже не здесь.
Код-ревью давно превратилось в ритуал. Галочка в Jira. Запятые обсуждаем час, архитектуру — никогда. Я решил это починить.
Датасет и первые результаты
Задача выглядела обманчиво простой: берём комментарий, классифицируем — сигнал или шум.
«Тут будет падение, если массив пустой» — сигнал.
«LGTM» — шум.
«Переименуй в
getUserData» — шум.«А что если пользователь отправит null?» — сигнал.
Я собрал сорок семь открытых репозиториев с публичной историей — почти одиннадцать тысяч комментариев. Три тысячи разметил вручную, остальное полуавтоматом с выборочной проверкой. Модель обучилась за вечер и угадывала правильно в восьмидесяти семи случаях из ста.
Устроено внутри сознательно просто — хотел видеть, за что модель цепляется. Никаких эмбеддингов, никаких трансформеров. Из каждого комментария вытаскиваю шесть признаков руками:
EMPTY_APPROVALS = {"lgtm", "ok", "ок", "+1", "?", "норм", "ладно", "looks good", "принято", "ship it"} def extract(comment: str) -> dict: words = comment.split() return { "length": len(comment), "has_question": "?" in comment, "has_code_ref": bool(re.search(r'`[^`]+`|\.py|\.js|line\s*\d+', comment)), "has_suggestion": bool(re.search(r'а если|лучше|consider|what if', comment, re.I)), "is_empty_approval": comment.strip().lower() in EMPTY_APPROVALS, "specificity": len(re.findall(r'\w+\.\w+|\w+\(', comment)) / (len(words) + 1), }
Есть ли в комментарии вопрос. Ссылается ли на конкретный код. Предлагает ли альтернативу. Или это просто «ок» — одно слово, галочка, дальше. Последний признак — specificity — считает, как часто человек упоминает конкретные функции и файлы относительно длины текста. Чем конкретнее комментарий, тем выше шанс, что в нём есть сигнал.
Классификатор — логистическая регрессия. Пробовал деревья, пробовал бустинг — разница полтора процента, а регрессию можно открыть и посмотреть глазами, какие признаки тянут. has_code_ref и specificity оказались самыми сильными. Длина сама по себе — почти бесполезна: бывают длинные пустые комментарии и короткие точные попадания в баг.
Всё! Можно было писать туториал, собирать лайки и закрывать задачу.
Но я сделал то, что делает любой нормальный инженер — открыл список ошибок.
Паттерн, которого я не искал
Первые двадцать ошибок — ерунда: пограничные случаи, сарказм, который машина не распознала, вопросы, которые можно трактовать и так и так.
А потом я заметил кое-что странное. Модель систематически сомневалась на одних и тех же людях. Их комментарии выглядели нормально — короткие, по делу, формально полезные. Но там, где обычно модель уверена на девяносто процентов, на этих авторах она выдавала пятьдесят на пятьдесят.
Первая мысль — баг в разметке. Проверил, нет. Вторая — особенность стиля, может они просто пишут иначе. Проверил — да, пишут иначе. Но почему именно эта группа?
Полез смотреть, кто эти авторы. Поднял историю коммитов. И нашёл общее: все они ушли из проекта. Через месяц, два, три после тех самых комментариев — последний коммит, и тишина.
Три часа ночи, экран светится
Вот конкретный человек. Полтора года в проекте, сто сорок пул-реквестов, активный, въедливый, спорит на каждом ревью. А вот его последние восемь недель: комментарии становятся короче, вопросов всё меньше, «ок» вместо развёрнутых абзацев. И потом — тишина.
Модель не ошибалась. Она видела то, чего я не искал: угасание. Задолго до того, как человек написал заявление. Возможно, задолго до того, как он сам понял, что уходит.
Пять признаков «тихого ухода»
Следующие две недели, по вечерам, я этим и занимался. Выделил восемьдесят девять человек, которые ушли и не вернулись. Ушли — значит последний коммит, потом тишина минимум на год. Не знаю, уволились ли они, перешли в другой проект или просто потеряли интерес — из публичных данных это не видно. Но паттерн угасания перед уходом одинаковый, независимо от причины. Потом сравнил их последние комментарии с тем, что они писали раньше. Паттерны оказались пугающе одинаковыми — у всех.
1. Длина комментариев сжимается
Не резко — постепенно, как громкость, которую убавляют по миллиметру в день. Полгода назад человек пишет: «Тут лучше вынести в отдельный сервис, потому что эта логика будет расти — я уже видел такое в модуле биллинга, потом три месяца распутывали». За месяц до ухода: «Ок». Среднее падение — до сорока процентов от прежней длины. Стабильно, у всех.
2. Вопросы исчезают
Человек перестаёт спрашивать «почему так?», перестаёт предлагать «а если иначе?». Принимает всё, кивает, не спорит. Вопрос — это инвестиция: ты тратишь энергию, потому что тебе важен ответ. Когда перестаёт быть важно — вопросы заканчиваются. Падение на семьдесят процентов за шесть недель.
3. Пустые одобрения
«LGTM» без единого замечания на код в пятьсот строк. Раньше такого не было — раньше этот человек всегда находил хоть что-то. Теперь — галочка и дальше. Доля таких «пустых» ревью подскакивает с пятнадцати процентов до шестидесяти.
4. Время реакции растёт
Время от назначения ревью до первого комментария увеличивается вдвое. Не потому что человек стал объективно занятее — нагрузка в команде у всех примерно одинаковая. А потому что задача переместилась в конец внутреннего списка приоритетов. Проще говоря, стало всё равно.
5. Тон выравнивается
Исчезают восклицательные знаки, «круто!», «ого», «спасибо», эмодзи. Раньше: «Блин, точно! Не подумал. Спасибо что поймал». Теперь: «Исправлю». Ровный, стерильный текст — как кардиограмма, которая выпрямляется в линию.
Каждый из этих признаков по отдельности — ничего особенного: плохая неделя, усталость, проблемы дома. Но когда все пять совпадают — это не плохая неделя. Это решение, которое человек ещё не произнёс вслух.
Модель-предсказатель
Я должен был проверить. Построил простую модель — не для продукта, для себя. Пять признаков, скользящее окно в две недели. Для каждого автора — его собственная базовая линия за предыдущие полгода. Не «длинный ли комментарий», а «стал ли он короче, чем обычно у этого человека». Не «быстро ли ответил», а «медленнее ли, чем он сам отвечал раньше».
def attrition_signal(author_id, window_days=14): recent = get_comments(author_id, last_n_days=window_days) baseline = get_comments(author_id, last_n_days=180) if len(baseline) < 10 or len(recent) < 3: return None # мало данных — лучше промолчать return { "length_ratio": mean_len(recent) / mean_len(baseline), "question_rate_delta": question_rate(recent) - question_rate(baseline), "empty_approval_rate": empty_rate(recent), "response_time_ratio": median_hours(recent) / median_hours(baseline), "sentiment_delta": mean_sentiment(recent) - mean_sentiment(baseline), } # вспомогательные функции считают среднее/медиану по окну, логика тривиальная
Каждая строчка — один из пяти признаков. length_ratio ниже единицы — комментарии сжимаются. question_rate_delta уходит в минус — вопросы исчезают. empty_approval_rate растёт — всё больше «ок» без единого замечания. response_time_ratio выше единицы — человек отвечает медленнее. sentiment_delta падает — тон выравнивается, эмоции уходят.
Тут важный момент. Классы несбалансированы: ушли восемьдесят девять человек из шестисот с лишним — примерно пятнадцать процентов. Если модель каждому скажет «останется», она угадает в восьмидесяти пяти случаях из ста и не поймает ни одного ухода. Красивая цифра, бесполезная модель. Поэтому простая точность тут врёт — нужно смотреть, сколько уходов модель нашла и сколько раз подняла ложную тревогу.
Что измеряем |
Результат |
|---|---|
Из тех, на кого модель указала — действительно ушли (precision) |
52% |
Из тех, кто реально ушёл — модель поймала (recall) |
73% |
Общее качество ранжирования (ROC AUC) |
0.84 |
Половина ложных тревог — много. Из десяти, на кого модель показала пальцем, пятеро действительно ушли, пятеро — нет: передумали, получили повышение, влюбились, или паттерн объяснялся чем-то, о чём мы не знаем и не должны знать. Зато из тех, кто реально ушёл, модель заметила почти три четверти. За шесть недель. По комментариям к коду.
Для сравнения: если просто смотреть, стал ли человек писать короче, — качество ранжирования около 0.65. Пять признаков вместе — 0.84. Случайное угадывание — 0.50. Проверял на пятикратной кросс-валидации, стратифицированной — чтобы не обманывать самого себя.
Модель не видит причину. Только симптом. Но симптом — видит увереннее, чем я ожидал. Данные — GitHub API, тональность считал через TextBlob/dostoevsky, классификатор — логрег. Пайплайн воспроизводим за вечер на любых 40+ публичных репозиториях.
Три этических тупика
Тут я не мог понять, что с этим делать. Потому что есть три способа смотреть на эту штуку — и все три одновременно правда.
Инструмент заботы
Менеджер видит сигнал заранее. Подходит, спрашивает: «Эй, всё нормально? Чем помочь?» — не «почему ты уходишь», а именно «чем помочь». Человек хотел уйти, потому что его не слышали, а его услышали — и он остался. Выгорание, пойманное за шесть недель, это выгорание, которое ещё можно вылечить. За шесть часов до заявления — уже нет.
Инструмент слежки
Человек имеет право уходить молча. Не объяснять, не сигнализировать, не отчитываться о своих эмоциях через длину комментариев. Если каждый твой «ок» анализируется на предмет лояльности — ты живёшь в паноптикуме. Тюрьма, которую два века назад придумал Бентам: надзиратель видит всех, его не видит никто. Ты не знаешь, следят ли за тобой — и ведёшь себя так, будто следят всегда. HR-отдел с моделью предсказания увольнений — это паноптикум, только с нейросетями вместо вертухаев.
Неизбежность
Данные уже существуют. История коммитов, время ответа, длина сообщений — всё это логируется годами в каждой компании. Вопрос не в том, можно ли это анализировать, а кто сделает это первым. Если не вы — то стартап, который продаст это вашему начальству как «платформу аналитики персонала». Красивые дашборды, метрики удержания, прогнозы оттока. Без вашего участия и без этических вопросов.
Что с этим делать (без модели)
Вот что я понял точно: не нужна модель, чтобы видеть угасание. Нужно просто смотреть.
Если коллега перестал задавать вопросы на ревью — задайте ему вопрос. Не «ты уходишь?» — а «что думаешь про эту архитектуру?». Верните его в разговор.
Если комментарии стали короче — не списывайте это на эффективность. Это потеря интереса. «Ок» от человека, который вам доверяет, и «ок» от человека, которому всё равно, выглядят одинаково, но значат противоположное.
Если время ответа растёт — не дёргайте. Спросите, что случилось. Не в рабочем чате — лично.
Модель увидела паттерн за шесть недель. Вам достаточно одной, чтобы заметить. Разница в том, что вы можете не просто предсказать уход — вы можете сказать: «Эй, ты как?»
Почему мы не замечаем
Я искал мусор в комментариях, а нашёл людей, которым плохо. Модель оказалась внимательнее меня — не умнее, именно внимательнее. Потому что у неё нет дедлайнов, нет усталости, нет привычки не замечать медленные изменения.
В этом и штука: мы адаптируемся. Коллега стал тише — привыкли. Реже спорит — привыкли. Не шутит на созвонах — привыкли. Каждый день почти как вчера, разница в полтона, а через месяц мы уже не слышим. Модель не привыкает — для неё каждый комментарий это точка на графике, и она видит тренд просто потому, что не устаёт смотреть.
Миф про лягушку в кипятке — что она не выпрыгнет, если нагревать медленно — неправда, лягушка выпрыгнет. А мы нет. Сидим в воде, которая теплеет по градусу в неделю, и не замечаем, что кто-то рядом уже сварился.
У Лема в «Голосе Неба» учёные думали, что расшифровывают сигнал из космоса. Строили гипотезы, спорили о значении. А потом поняли: сигнал изучал их — показывал, кто они такие, по тому, как они его интерпретируют.
Я думал, что классифицирую комментарии к коду. А изучил — как мы перестаём замечать друг друга.
Паттерн всегда был в данных. Мы просто не искали. Может, не хотели.
В канале токены на ветер раскрываю вопрос: модель видит, когда человек уходит. А когда выгорает, но остаётся?
Спойлер: видит. И это страшнее.
Комментарии (63)

Akon32
18.02.2026 07:28Интересное наблюдение. Если проект становится не нужен, зачем прилагать усилия? Усилия - это инвестиции в проект, а если ты скоро уходишь, делать их ни к чему.
Слышал, что жёны так же уходят.

grigr
18.02.2026 07:28Да верно. Помню состояние перед разводом или после сильной ссоры.
Полное равнодушие к человеку и его делам, нет вовлечённости, нет желания отвечать сразу, все ответы односложные

Fesc
18.02.2026 07:28Вот тут выделяется интересное направление,которое,к слову,не лишено этических дилемм...

randvell
18.02.2026 07:28Слышал, что жёны так же уходятВот и я читая статью сразу подумал, что пункты, выделенные автором, подозрительно подходят под описание [затухающих] отношений. Все же инвестиции времени и эмоций они везде похожи

panzerfaust
18.02.2026 07:28Вспомнилось. В Сбертехе много лет назад внедряли практики DevOps, CI, CD. Естественно, через колено. В частности была там система, кажется, "Око" - она следила за падениями пайплайнов на тестовых средах. А падали они тогда в основном из-за нестабильности этих самых сред ("gridgain развалился"), а не потому что разрабы дураки. НО! После серии падений к нам заходил менеджер и начинал парить вопросами "а чегой-то у вас там всё падает?". Хотя система показывала, что падали не тесты, а инфра.
Это я к тому, что никаких "этических тупиков" нет. Если у эффективных мудозвонов появится возможность сношать разрабов за неправильные комменты в ревью - именно это и будут делать.

ScriptShaper Автор
18.02.2026 07:28Вы описали ровно то, чего я боюсь. Инструмент заботы в руках нормального тимлида и тот же инструмент в руках «эффективного менеджера» — два разных предмета. Проблема в том, что инструменту всё равно, кто его держит.

achekalin
18.02.2026 07:28А я вот подумал про внезапно ставший плохим проект. Те не люди решили уйти от невовлеченности, а... Возьмите Макс этот несчастный, его ж в другой ипостаси пилили не шатко не валко, и вдруг - проект переименовали, продали топам как замену телеги, как открровение, а под капотом тот же тамтам, и... вот как там длина комментов изменилась?
Кстати, что у макса с инфрой - вообще непонятно. Раз боятся разрешать всем делать ботов, то, видно, запас прочности небольшой, а ведь на него завязаны всякие госуслуги... есть от чего стиль комментов сменить!

paperwork
18.02.2026 07:28Но этот инструмент обоюдоострый, можно формулировать комментарии через ИИ-ассистента и настроить стиль, тогда всё будет ровно всегда.
Ну, или изначально привыкать отвечать только кратко и односложно...?

Nikx83
18.02.2026 07:28Вполне логично. Причем не обязательно в проекте. Еще бы нейросеть причины такого выгорания подсказывала. Может руководитель идиот и не слушает специалистов. Может по финансам что-то не так.

ScriptShaper Автор
18.02.2026 07:28Причины за пределами модели. Она видит только симптом. Но вы правы, интересно было бы скрестить с данными из тикетов: кому какие задачи падают, меняется ли сложность, слушают ли на планировании. Может когда-нибудь доберусь.

Wwyn
18.02.2026 07:28При правильных настройках она вполне способна найти причину. Я свою натренировал так, чтобы она сразу переходила к делу, а не выдавала мне общеизвестный факт. Сейчас она прежде чем ответить, спрашивает уточняющую информацию, потом снова уточняет и уже на основе этого выдает мнение. Я научил ее получать анамнез, все анализы и жалобы, прежде чем начинать писать ответ. Теперь, задав вопрос, почему я не сплю по ночам, она не выдает мне простыню текста с вероятными причинами, не пишет, какой клевый вопрос, вот бы всем такие вопросы научиться задавать и самое главное, не пытается продолжать, если это не нужно в контексте разговора.

AndrewSu
18.02.2026 07:28Половина комментариев — «поправь отступ»
Зачем это на ревью перекладывать? Настройте автоформатирование, которое всех устроит, а в CI добавьте задачу, которая проверит.
Если что-то не так с форматированием, или другими тривиальными вещами, то до ревью человеком не должно доходить.

ScriptShaper Автор
18.02.2026 07:28Полностью согласен. Линтеры, форматтеры, pre-commit хуки — и половина шума исчезает до ревью. Но в реальности из всех репозиториев, которые я смотрел, нормальный CI с проверкой форматирования был у трети. Остальные обсуждают пробелы руками. В 2026 году...

Vsevolod_888
18.02.2026 07:28Так может в этом одна из проблем выгорания? И есть может закономерность симптомов в репах с этим мусором и репах где это норм настроено?

ScriptShaper Автор
18.02.2026 07:28Хороший вопрос. Не проверял, но гипотеза рабочая — в захламлённых репах шум выше, сигнал тонет, и люди быстрее перестают стараться. Может быть не причина выгорания, а ускоритель. Стоит покопать.

Zukomux
18.02.2026 07:28И для этого теперь вместо линтера на хуке прекоммита мы будем настраивать модель ИИ на 10к ревью. Просто слов нет как эффективно...

ihouser
18.02.2026 07:28Чтобы неугасать, людям надо больше общаться с глазу на глаз. Та электронная прослойка убивает непосредственную обратную связь. Возможно получивший ревю очень рад дельным комментариям, но через текст он не может этого показать полностью.
Вот те, у кого горели глаза от желания помочь, теряют интерес, т.к. не получают порции дофамина от непосредственного общения. Энтузиазма и воображения [как он общается] на долго не хватает.

ScriptShaper Автор
18.02.2026 07:28Согласен. Текст — канал с очень низкой пропускной способностью для эмоций. «Спасибо, дельное замечание» в чате и то же самое с улыбкой на кухне разные вещи. Модель, кстати, ловит именно это: что человек перестал писать.

Akon32
18.02.2026 07:28От общения удовольствие получают
не только лишьне все, среди айтишников, вероятно, даже меньшинство. А процесс ежедневного перемещения на работу ещё и пустая трата времени и топлива.
Gwilwo
18.02.2026 07:28Думаю вы преувеличиваете. Удовольствие от общения это базовая вещь, если его нет, то это уже проблемы.

MikeVentris
18.02.2026 07:28Айтишники, в большинстве своем, не получают удовольствия от стереотипно-экстравертного общения. Вот эти "ого, какими судьбами, старичек, как жена, как сам!? выкладывай давай!". Но это не значит, что им не нужно общение и человеческий контакт, которые банально на биологическом уровне меняют баланс нейромедиаторов. Просто оптимальный формат иной.

Akon32
18.02.2026 07:28Общаться можно и вне работы...

MikeVentris
18.02.2026 07:28Можно. Это и приводит к тому что есть "нормальная жизнь", а есть "ежедневная каторга" длинною в 8 часов. Так люди и горят. Work-life balance, мать его.

Fesc
18.02.2026 07:28Но есть и не стереотипный. Когда ты общаешься по задаче,но можешь шутить в контексте,крепить отсылочки и тп. В тексте это не так уместно, + невербальное общение даёт больше именно ощущений от общения,которые влияют на эмоциональное состояние,подпитывают.

antonb73
18.02.2026 07:28Я бы сказал - все ровно наоборот. Если общатся не с кем по сути, то лучше такого общения избегать, потому что "желание помочь" не является "возможностью помочь" по умолчанию. А ведь желающий, с горящими глазами который, помочь ждёт похвалы и благодарности за своё участие и приченённую пользу. Часто сил нет благодарить, так как все силы ушли на объяснение помогающему где именно и что он не понял в задаче перед тем как начал помогать.

ihouser
18.02.2026 07:28Общение с людьми важно, но нет обязанности общаться с каждым мудаком подряд. Если человек неумеет принимать дельные (или не очень) советы и замечания, ну и ладно, пускай выгорает в одиночку.

winkyBrain
18.02.2026 07:28Вы наверняка знаете это состояние: открываешь чужой PR на ревью, а там сорок два комментария. Глаза разбегаются. Первый — отступ, второй — пробел, третий — «ок», четвёртый — «ок», пятый — переименуй переменную. Где-то между ними спрятано замечание про гонку данных, которая уложит продакшен через неделю, но ты его благополучно пропустил, потому что к двадцатому «ок» мозг уже не здесь.
То есть решить большинство упомянутых проблем(отступ, пробел и даже нейминг) с помощью линтеров вы по какой-то причине не могли? Или если это всё убрать, то останутся только замечания по делу и не будет материала для статьи?)

ScriptShaper Автор
18.02.2026 07:28Мог и должен был. В статье об этом есть. Это проблема не моя, а датасета. Из 47 публичных репозиториев нормальный CI с линтерами был у трети. Остальные как есть. Но если убрать весь шум линтерами, материал для статьи всё равно остался бы: модель зацепилась не за отступы, а за то, как меняется поведение автора со временем. Линтер эту задачу не решает.

wmlab
18.02.2026 07:28Статья интересная. В принципе - вещь очевидная. На утренних стандапах это видно и без всяких комментариев - раньше человек вмешивался в каждую проблему, что-то предлагал, увлеченно рассказывал про свои решения. Потом замолчал, отвечал коротко, сухо, только на прямые вопросы. А потом раз - новость: имярек нас покидает, переходит в другую компанию. Надо просто быть внимательным, AI помогает высветить проблему. Но если менеджер внимательный, он и без всякого AI на 1:1 поинтересуется, что не так.
Единственная претензия - к стилю. Бьющие по глазам AI обороты. Сейчас много таких статей появилось - темы разные, а стиль как под копирку. Возможно, черновик пропустили через условный ChatGPT с просьбой поправить стилистику. Это само по себе неплохо, но это вымораживает авторский стиль и вызывает раздражение. По себе заметил - если пропускаю свои заметки через AI - на выходе получается вот такая стандартная болванка. Советую - экспериментируйте, просите напрямую изменить стиль, избегать любимых AI оборотов, скопировать стиль известного журналиста или писателя.
Поставил плюсик, чтобы не подумали, что я придираюсь.
ScriptShaper Автор
18.02.2026 07:28Спасибо за плюсик и за честность. По сути — полностью согласен: внимательный менеджер на 1:1 увидит всё то же самое. Модель не заменяет внимание, она просто не устаёт его проявлять. Но проблема в том, что внимательных менеджеров сильно меньше, чем git-логов.

CloudlyNosound
18.02.2026 07:28На утренних стендапах видно только, спал ли ночью сотрудник. На послеобеденных - отдохнул ли, после обеда, да и обедал ли вообще. На вечерних, положительно выделяются те, кто отлично поспал днём.

axion-1
18.02.2026 07:28Не пробовали связывать паттерн с циклом жизни проекта? Может не люди "угасали", а просто активная работа над проектом заканчивалась во многих случаях?

broondulyak
18.02.2026 07:28Раньше люди считывали невербальные сигналы при общении (помните сериал "Обмани меня"), а сейчас: "точку в конце сообщения поставил - что бы это могло значить?". Печаль...

ymishta
18.02.2026 07:28точку в конце сообщения поставил - что бы это могло значить?
Сигнал в центр "работаю под принуждением, возможна деза" )))

unih
18.02.2026 07:28Видимо не совсем пончл. У вас же первая моделька классификацирует комментарии по одному, без знания остальных и без знания человека. Как она может узнать о динамике? А ро одному комментарию узнать что то тяжело

dolovar
18.02.2026 07:28Менеджер видит сигнал заранее. Подходит, спрашивает: «Эй, всё нормально? Чем помочь?»
Теоретически, это ускорит уход, потому что человек задумается и поймет, что устал. И может понять, что другие это тоже заметили. Нет причин тянуть резину. И вполне возможно, что тянуть его назад вопреки существующему процессу накопления усталости - это ускорять процесс накопления.
Впрочем, причины потери интереса могут быть слишком разные, и "не видеть интереса в окружающих" тоже может быть, в таком случае активизация поможет.

Akon32
18.02.2026 07:28Полагаю, этот эффект проявляется, когда решение об уходе уже принято, хотя у эффекта могут быть и более банальные причины (проект просто поднадоел).

Varrah
18.02.2026 07:28У Ласло Бока в "Работа рулит" описано, как в Гугле еще лет 15-20 назад (в золотые времена, когда "dont' be evil" ещё что-то значило) сделали аналитику по десяткам разных показателей, для того, чтобы предсказывать увольнения. Система отлично работала без всякого ИИ. Они пошли дальше, стали проводить консультации с такими людьми, узнавать что не так и из-за чего они увольняются или почему их отношение к работе снизилось. В большом проценте случаев оказалось, что проблема в непосредственном начальнике такого сотрудника. Они стали копать ещё и выявили паттерны, по которым они смогли определять начальников с проблемным поведением. Таких начальников они отправляли на курсы, что позволило им улучшить атмосферу в командах и текучка снизилась. Увы, никаких дополнительных подробностей там не описано.

SecondUniverse
18.02.2026 07:28Сама большая причина выгорания - это осознание бесполезности работв, если проект заведомо кривой, или пишется то, что никому не нужно. Или хаос в работе. А ещё "тут пробел поправьте'' демотивирует. Ты уже не создаешь, а занимаешься перекладываем камней в чистом поле. Не нужен тут ИИ, чтобы понять, что человек выгорел.

anatoly_seregin
18.02.2026 07:28Спасибо. Здорово написано. Интересный поворот в середине. Открытый финал. Каждый сам выбирает, что ему важно. Как с энергией атома и другими технологиями.
Многие пишут, что текст с помощью ИИ написан. Я не заметил. Интересно, использовали ИИ в этом тексте или нет?

Reveurex
18.02.2026 07:28Я бы убрала из заголовка “начала предсказывать увольнения”, в тексте ушёл - это исчез из репозитория на год, не факт увольнения, и даже по вашим цифрам для отмеченного моделью человека шанс ухода около 50/50

paperwork
18.02.2026 07:28к тому же по заголовку может показаться, что слово "увольнение" означает не сам ушёл, а уволили

edge790
18.02.2026 07:28Имхо, вывод натянут: "короткие комментарии => выгорание => увольнение"
По своему опыту скажу что если ты знаешь что уходишь с проекта: имеешь офер в другую компанию , переходишь в другой проект, то у тебя требования к коду старого проекта меньше. То ты ревьюишь его с мыслью что тебе с этим кодом работать и исправлять а следовательно всё должно быть так чтобы тебе хотелось с ним работать, а то ты понимаешь что ты через неделю/месяц будешь заниматься уже другим проектом, а те кто сделали этот PR и будут им дальше заниматься. Отсюда и вопрос: зачем тебе говорить им как должен работать и выглядеть их код за который им отвечать и им же работать.

Tatooine
18.02.2026 07:28Проще говоря, стало всё равно.
Ключевая фраза.
Сначала спец пытается что-то доказать, сделать как лучше, потом смиряется с хаосом и идиотизмом и в итоге ему становиться пофиг

domix32
18.02.2026 07:28Исчезают восклицательные знаки, «круто!», «ого», «спасибо», эмодзи
Мне интересно кто вообще занимается таким. Эмодзики-то ладно, а вот всякие восклицания в принципе обычно редкость, когда кто-то делает что-то неожиданное и приятное.

CloudlyNosound
18.02.2026 07:28Эмодзи и восклицательные знаки притянуты за уши. Динамика знаков препинания - совсем другое дело, хотя и тоже никакой не показатель, ведь можно сразу писать только словами и пробелами, не тратя драгоценное время на пунктуацию, ведь эти комментарии никто и никогда не станет читать.

Anher
18.02.2026 07:28«Тут будет падение, если массив пустой» — сигнал.
«LGTM» — шум.
Автор пересмотрел рилсов про самомотивацию?

kain64b
18.02.2026 07:28"Половина комментариев — «поправь отступ»" люди не могут настроить одинаково среды разработки и линты, а лезут в какое-то ии, вместо правки реально проблемных и дешёвых в починке вещей omg

nokeya
18.02.2026 07:28Вспоминается статья от игровой компании-оператора ММО (Инновы кажется) тут на Хабре.
Они тоже сделали подобную аналитику и стали очень точно предсказывать, что вот такой-то игрок скоро перестанет заходить на сервер и уйдет. Но понять причину ухода людей им эта аналитика так и не помогла.

Maxud_Dallum
18.02.2026 07:28Следующая стадия - ИИ анализирует частоту и характер запросов и самостоятельно поддерживает пользователя и его интерес. До момента пока потребитель токенов необходим, т.к. конец этой истории просматривается

CloudlyNosound
18.02.2026 07:28Инструмент заботы - когда к тебе внезапно приходят и начинают что-нибудь спрашивать, а в особенности если это менеджер, ты только быстрее уйдешь. Задалбывают неуместными вопросами, заставляя думать о чрезмерном внимании, без причины. И "без причины" - это самый мягкий вариант, ведь кто-нибудь может впасть в депрессию, решив, что раз пришли пинать, значит уже точно провинился.
Инструмент слежки - у hr это и так основная функция, поэтому они с руками оторвут такой увольнятор. Выгнать сотрудника раньше, чем он уйдет сам дорогого стоит, потому что можно открыть еще одну вакансию и создавать видимость еще более бурной деятельности.
Неизбежность - да, неизбежность. И она в том, что нет смысла выявлять недовольство таким способом и на столь позднем этапе. Борьба со следствием, постфактум, вместо учета причин на ранних стадиях. Человек мог хотеть уйти с первого дня, но просто отсиживать положенные пять лет, или сколько он решил посвятить вашему важнейшему проекту.
В целом же, описанный случай, когда модель поведения у тех, кто "скоро уйдет из проекта", настолько однообразна, можно и нужно сделать вывод о чрезмерной затянутости управленческих болтов и гаек, когда у сотрудника не остается, ни сил, ни времени на подумать и он начинает действовать, как проще. В таких проектах, рано или поздно, но уходят вообще все, заменяясь кем-нибудь ещё. И некоторая неравномерность ухода сотрудников просто подтверждает тот факт, что все люди разные, физически, морально, как угодно, поэтому и выгорают с разной скоростью, не говоря уже об изначальных установках - далеко не все, ведь, являются достигаторами, многим нужна тихая гавань.
AdrianoVisoccini
ок чат джипити, перепиши мои комментарии так как будто я не выгораю....
sushka0
на это тоже силы требуются, если сильно выгорел, то и на это станет без разницы
ScriptShaper Автор
Именно. Самый тяжёлый этап когда даже на имитацию нормальности уже нет ресурса. Модель как раз это и ловит: человек перестаёт маскироваться.
fhunter
Когда человек перестал максироваться - уже поздно. Всё равно или уйдёт или догорит до пепла.