Привет! Я Женя, тимлид одной из команд Альфы. В статье расскажу, как наша команда скептиков вайб‑кодинга за две недели вывела в прод новый сервис и почему я переменил своё мнение.
В Альфу я пришёл разработчиком в июле 2023-го, сейчас управляю разработкой сервиса «Подбор» HR‑Tech‑платформы Alfa People. Про вайб‑кодинг слышал давно — соцсети заполнили ролики, где инфоцыгане наперебой рассказывали, как за пять минут сделать стартап с ИИ. Я понимал сложность энтерпрайз‑систем, где за каждым релизом стоят десятки согласований, техдокументация и ответственность за данные. Думал, что хайп будет недолгим.
Как скептика загнали в пилот
В марте этого года прошла новость: Альфа заводит в контур GLM‑5 с плагином KiloCode для редактора кода. Руководители разработки в HR Tech попросили несколько человек попробовать ИИ. Я был среди них, хотя настроен был скептически — мой опыт сводился к мелким вопросам в чате, а не к написанию кода.
Первая проба подтвердила опасения. Я взял задачку по вёрстке нового дизайна, скормил GLM‑5, а в ответ получил пустые разговоры. Казалось, объяснять, что нужно, дольше, чем писать руками. По иронии, на дейлике в тот же день меня назначили участником пилота с вайб‑кодингом.
Всего в пилоте было три человека: я, системный аналитик Костя и продакт Маша. Нас выбрали, видимо, потому что мы были в числе немногих, кто открыто выступил против внедрения ИИ в процессы. «Собрали скептиков в одной комнате, чтобы проверить, кто первый сдастся», — как мы потом шутили.
Выбор проекта: убить двух зайцев
Нам дали полную свободу: придумайте задачу сами, завтра расскажете. Я предложил конструктор процессов с удобной визуализацией вроде Miro, потому что провал не убьёт бизнес‑процессы. Маша предложила сделать сервис для рекрутеров внутри Alfa People.
Мы посмотрели на мастер‑план и увидели задачу «Цели на испытательный срок» на 4 квартал. Идея переросла в сервис для постановки целей всем сотрудникам банка. Мы могли убить двух зайцев — закрыть задачу из плана и попробовать вайб‑кодинг на бою.
Сроки были жёсткими: изначально 1 апреля, потом дедлайн сдвинули на 26 марта, а через день — на 23 марта.

На раскачку оставалась пара дней. Discovery уже провели коллеги, боли собраны, минимальные решения описаны. Мы скормили всё GLM‑5: «Готовь бизнес‑требования». ИИ выдал файлик, Маша на правах продакта отредактировала лишнее — и вперёд.
Бессонные ночи, Git и 19 версий прототипа
В первый день я готовил среду для команды. Понимал: ребята никогда не работали с прикладными приложениями, не видели IDE и тем более Git. За день написал онбординг, настроил редактор, объяснил базы. На следующий день уже стартовали.

Самый большой сюрприз — не сам ИИ, а Git. Когда в команде работают не‑программисты, конфликты в ветках появляются на каждом шагу.

Первые два дня я по шесть часов вручную резолвил мёрдж‑конфликты между работой Маши и Кости. Они не понимали, что такое «забрать последние изменения», «сделать пул», «запушить».
Параллельно возникла проблема с нагрузкой. Пилот с вайб‑кодингом одновременно проходили 15 команд, все юзали GLM‑5 в банке через веб‑чат. Днём модель отвечала по 2–3 минуты, инструмент становился нерабочим. Приходилось кодить ночами, с 23:00 до 04:00, когда нагрузка падала. Маша уходила спать в 3–4 утра, я работал до часа ночи, потом вставал в 8:00 — и снова за дело.
Первый прототип мы создали буквально описанием: «Хочу зелёную кнопку справа, при клике — модальное окно». GLM‑5 генерировал HTML‑файл. Всего мы сделали 19 версий, последняя стала основой для разработки. Маша описывала интерфейс, ИИ верстал, потом я прикручивал бэкенд.
48 часов до релиза — это же целая рабочая неделя

В последнее воскресенье перед дедлайном в 4 утра Маша уснула прямо на созвоне, Костя не выдержал и ушёл спать. Я сидел один, уже не мог спорить с GLM‑5 в чате и руками правил последние баги.

В понедельник в 8 отдал сервис в поставку. Релиз прошёл, осталось поправить три мелких корнер‑кейса. В тот же день GLM‑5 ушёл на техническое обслуживание. Мы остались единственными, кто вывел сервис в продакшн.
В 17:00 у нас было назначено демо. У меня два часа, чтобы всё починить. Я один, Kilo Code не работает, Маша и Костя мне не помощники — они не умеют писать код без ИИ. Пришлось разрываться между фронтом и бэком.
Самый нервный момент — за час до презентации я посмотрел в логи и увидел: ИТ‑директор создал цель в нашем сервисе и редактировал её. Руки затряслись — а вдруг упала токенизация? Побежал смотреть логи: всё нормально, он реально протестировал сервис до демо.
Из необычного — мы внедрили глобальный поиск по сотрудникам, реализованный коллегами. До сих пор его не прикручивали к другим сервисам Alfa People. Из‑за маскирования в тесте даже не могли нормально проверить, но в проде всё завелось.
На демо из 15 команд увидел, что в прод за 3 недели вышли только мы — остальные запустились на локальной машине или в тестовой среде. Возможно, причина в том, что они не вайб‑кодили ночью. Сразу уточню, это наше личное безумие, а не норма в Альфе.
Я доволен: за первую неделю после релиза в «Моих целях» уже было 10 000 уникальных юзеров, они создали 9240 целей и прикрепили к ним 981 задачу.

Сейчас «Мои цели» забрали развивать и обвешивать фичами коллеги. Да, я отдал продукт, который видел перспективным. Но понимаю — ресурсы ограничены, в команде «Подбор» тоже полно задач.
Чем для меня в итоге стал вайб‑кодинг
Пока я вижу в ИИ ассистента. Типовые задачи, на которые раньше тратил час, теперь отдаю ему: «Нарисуй кнопку, выровняй форму, напиши валидатор». Пока я на созвонах, он кодит. Пока копаюсь в бэкенде, он правит фронт. Стало удобно вести два потока параллельно.
Но сложные задачи: архитектура, интеграции, безопасность, — я оставил за собой. Использую GLM‑5 для мозгового штурма: мы вместе строим гипотезы в чате, потом пробуем кодить. Роли в Kilo Code (архитектор, ревьювер, тестировщик) помогают структурировать процесс.
Что стоит знать о вайб‑кодинге тем, кто начинает
Мы часто упускаем из виду базу. Курсы про вайб‑кодинг учат писать код, но никто не говорит про Git. Когда команда не‑программистов работает параллельно, конфликтов в ветках — десятки. И если ты не умеешь их резолвить, весь ИИ‑поток превращается в головную боль.

Второй момент — нагрузка. В нашем пилоте было 15 команд, и все юзали GLM‑5 через веб. Днём он просто не отвечал. Позже коллеги из ИИ‑платформы сделали приоритизацию для тех, кто работает из редактора кода, но всё равно без ночных смен поначалу не обойтись.
Третий — границы планирования. Когда ребята поняли, что я могу вывести сервис в прод, началось: «А давай ещё это, давай ещё то». В какой‑то момент пришлось сказать: «Сейчас я забираю последние изменения, с ними идём в релиз. Остальное — после».
Что буду делать с вайб‑кодингом дальше
Сейчас в моей команде 6 человек. После первого опыта с вайб‑кодингом для энтерпрайза мы поделились на две подкоманды — по три человека на фронтенд и бэкенд. Разработчики периодически меняются между командами, чтобы контролировать процесс и помогать аналитикам, тестировщику, продакту. Наш эксперимент с вайб‑код‑разработкой в HR Tech продолжается.
Если бы мне не поставили задачу, вряд ли я сам бы так быстро перешёл на кодинг с нейросетями. Даже сейчас скепсис у меня остался, но теперь это скепсис с опытом: знаю, где ИИ помогает, а где мешает.
И главный вывод: в крупных компаниях вайб‑кодинг не замена разработчику, а инструмент в руках опытного спеца. Без понимания архитектуры, без умения контролить Git и без ответственности за релиз ты просто получишь красивый прототип, который никто не потрогает.
Комментарии (20)

ooko
29.04.2026 14:37Как хорошо работать в альфе с появлением ИИ, столько человек на проекте. Тоже делал приложение для Альфы. Но фронт в одного. И срок на первую версию неделя

cher11
29.04.2026 14:37Впереди еще много открытий. И GLM-5.1, которая реально поумнее. И тот факт, что агента можно попросить порезолвить конфликты - с чем он справляется вполне неплохо (: И что вообще не обязательно спорить. LLM тем и ценен, что не доказывает тебе, что ты не прав, а делает, как говоришь

UFO_01
29.04.2026 14:37Да вот как раз наоборот, LLM должен меня регулярно одёргивать если я несу дичь. Иначе будет классический gigo, что мы сейчас и наблюдаем. Как по мне, модель должна работать где-то посередине, ты сказал ей херь, а она отвечает "Необычное решение, вот подводные камни, вот альтернативные варианты, но если хотите сделаю как вы хотите". И вы мозгами пошевелите, и экспертизу не потеряете, и лишних ошибок не наделаете.

blackyblack
29.04.2026 14:37Она так и делает. С каким-нибудь GPT 5.4 пообщайтесь - именно в таком ключе отвечает. Не критикует, а объясняет, почему идея так себе.
А вот если агенту хреновую идею дать, то у него нет этапа обсуждения и он начинает лепить какие-то монструозные конструкции, пытаясь выполнить невыполнимую задачу.

UFO_01
29.04.2026 14:37При правильном подходе и какой-нибудь квен можно так раскочегарить. Даёшь контекст, проблему, пишешь свой вариант решения, спрашиваешь можно ли сделать лучше, какие могут быть проблемы, и сидишь обсуждаешь. Нейронка может предложить много и быстро, ты знаешь контекст. Да, получается медленнее чем если я бы руками писал, но большинство проблем и тупиков отлавливаются заранее, и решение выходит лучше. И самое главное - я весь проект держу в голове.

tklim
29.04.2026 14:37К сожалению, в режиме агента это не работает. С разными моделями. Бывает, просто открыто две студии и по ошибке пишу запрос не в ту. И оно усердно начинает "чинить" работающий проект.

UFO_01
29.04.2026 14:37Поэтому я и не пользуюсь агентами :) Можете считать меня луддитом, старпёром, отсталым, застрявшим в прошлом веке, но я всё ещё считаю что нажимать на курок должен человек. Чтобы ни на секунду не было соблазна просто копировать - вставить или просто принять изменения потому что модель пишет быстрее чем вы можете проверить. Меня вполне устраивает роль модели как адаптивного поисковика, источника иного мнения и черновика.

Arlekcangp
29.04.2026 14:37Согласен. Не понимаю, как можно напрямую, не разбираясь, принимать код от нейронки?! Они же дичь очень часто лепят. А очень часто совсем не то, что нужно по тз (дефицит контекста или дефицит тз, но это не отменяет, что код будет не тот)

blackyblack
29.04.2026 14:37Попробуйте Opus 4.6 на каком-нибудь проекте не из внутреннего контура. Чтобы вообще понимать, на что ИИ в принципе способен.

RulenBagdasis
29.04.2026 14:37/model Select model Switch between Claude models. Applies to this session and future Claude Code sessions. For other/previous model names, specify with --model. 1. Default (recommended) Sonnet 4.6 · Best for everyday tasks ❯ 2. Opus ✔ Opus 4.7 · Most capable for complex work · ~2× usage vs Sonnet 3. Haiku Haiku 4.5 · Fastest for quick answers4.7 уже вышла же

blackyblack
29.04.2026 14:37Да я знаю, но по ней пока смешанные впечатления. С 4.6 легче работать, мне кажется.

evgeniy_kudinov
29.04.2026 14:37Посмотрят топы, что за это время можно выпускать продукт, думая, что вы всё делали в законное рабочее время в расслабленном "вайб" состоянии, и начнут всем такие дедлайны устанавливать. И риск, что будут все работать по схеме 9-9-7, будет очень вероятным.
rsashka
Как это знакомо :-) https://habr.com/ru/articles/1027706/