Андрей Карпатый, бывший директор AI в Tesla и один из создателей OpenAI, на прошлой неделе дал интервью Sequoia Capital: Ссылка на видео: Andrej Karpathy: From Vibe Coding to Agentic Engineering (Sequoia Capital, 29 апреля 2026, ~30 мин). Я пересмотрел дважды, потому что первый раз не поверил в то, что услышал. Ниже мой вольный пересказ с комментариями из собственной практики.
Декабрь 2025: что-то щёлкнуло
Карпатый начинает с простого наблюдения. В какой-то момент в конце 2025 года агентные инструменты (Claude Code, Codex, Cursor) перестали ошибаться. Не стали идеальными, а перешли порог, после которого ты перестаёшь помнить, когда последний раз что-то исправлял руками.
Я это подтверждаю. У меня работает Telegram-бот, который публикует посты, рендерит обложки, управляет очередью, синхронизирует данные между сервисами. Весь код написан агентами. Не “с помощью” агентов в режиме автокомплита, а именно агентами: я описываю задачу, агент пишет, тестирует, деплоит. Мой вклад: постановка задачи и финальная проверка.
Полгода назад это было невозможно. Сейчас это рутина.
Software 3.0: промпт вместо кода
Карпатый вводит термин Software 3.0 и объясняет эволюцию:
Software 1.0 работал просто. Ты пишешь код, компьютер исполняет. Явные инструкции на явном языке.
Software 2.0 заменил часть инструкций данными. Вместо “если пиксель красный, то это кот” ты собираешь датасет котов и обучаешь нейросеть. Код всё ещё есть, но центр тяжести сместился к данным и весам модели.
Software 3.0 убирает и код, и данные. Остаётся промпт. Текст на естественном языке, который LLM интерпретирует в контексте. Нет компиляции, нет фиксированной логики. Есть описание намерения, и модель сама разбирается, как его реализовать.
Карпатый приводит яркий пример. Раньше, чтобы установить инструмент вроде OpenClaw, нужен был bash-скрипт. Скрипт ломался на другой ОС, другой версии Python, другом расположении файлов. Теперь ты просто копируешь инструкцию по установке в окно Claude Code, и агент сам адаптируется к твоему окружению. Не выполняет фиксированный скрипт, а решает задачу “установить OpenClaw” с учётом реальности.
Это не удобная обёртка. Это принципиально другой способ создания софта.
MenuGen и смерть приложений
Самый провокационный момент интервью. Карпатый рассказывает про своё приложение MenuGen: фотографируешь меню в ресторане, OCR распознаёт текст, генеративная модель создаёт картинки блюд, рендер собирает всё в красивый интерфейс. Полноценный продукт.
А потом он увидел, как ту же задачу решают в Software 3.0: просто отправляешь фото меню в Gemini с промптом “наложи картинки блюд через Nanobanana”. Одна строка. Никакого приложения. Никакого кода. Тот же результат.
Его собственное приложение стало “лишним”. Не потому что плохое, а потому что сама парадигма изменилась. Зачем строить пайплайн из OCR + генерации + рендера, если всё это уже есть внутри модели?
Я ловлю себя на том же. Недавно я строил систему публикации постов: рендер обложки через Playwright, загрузка на сервер по SSH, прогрев OG-кэша Telegram, отправка через Bot API. Сложный пайплайн из шести шагов. Через месяц переписал всё на прямую отправку фото через MTProto: один вызов sendFile. Шесть шагов превратились в один. И каждый раз, когда я оглядываюсь назад, вижу то же самое: инженерия ради инженерии.
Vibe Coding vs Agentic Engineering
Карпатый разделяет два тренда, которые часто путают.
Vibe coding поднимает пол. Теперь любой человек может создать работающий софт, не зная ни одного языка программирования. Предприниматель может за вечер собрать лендинг, CRM-бота, email-автоматизацию. Это демократизация. Это прекрасно.
Agentic engineering сохраняет потолок. Профессиональный софт по-прежнему требует архитектуры, безопасности, масштабируемости. Но теперь инженер координирует “нестабильных, но мощных стажёров” вместо того, чтобы писать каждую строку руками.
Это точное описание моей ежедневной работы. Я не пишу код. Я формулирую задачу, проверяю результат, направляю агента, когда он идёт не туда. Ускорение не 2x и не 5x. По некоторым задачам я делаю за час то, что раньше занимало неделю.
Но. Чтобы это работало, нужно понимать, что ты делаешь. Карпатый говорит об этом прямо.
“Рваный интеллект”
Карпатый вводит термин “jagged intelligence” (рваный интеллект). Модель может безупречно отрефакторить 100 000 строк кода, но при этом посоветовать пешком идти на автомойку в 50 метрах от тебя. В одних задачах модель сверхчеловечна, в других поразительно глупа.
Причина не в фундаментальном ограничении. Просто лаборатории обучают модели на тех задачах, где есть верифицируемые награды: код (тесты проходят/не проходят), математика (ответ верный/неверный). Там, где нет чётких критериев проверки, модели остаются слабыми.
Отсюда практический вывод: модели взрывают в верифицируемых доменах. Если вы строите бизнес и видите нишу, где можно создать RL-среду с проверяемыми наградами, пусть даже маленькую, вы можете получить непропорциональное преимущество. Лаборатории не смотрят на вертикальные ниши. А вы можете.
Почему вкус важнее знания API
Агенты уже не ошибаются в синтаксисе. Вам больше не нужно помнить, что в PyTorch параметр называется dim, а в NumPy axis. Что в одной библиотеке keep_dims, а в другой keepdim. Агент знает это лучше вас.
Что агент не знает: архитектуру вашего продукта. Что CRM должна привязывать покупки к user ID, а не к email из Stripe (потому что у пользователя может быть несколько email). Это вкус. Это суждение. Это инженерное чутьё, которое нарабатывается годами.
Карпатый формулирует так: “You can outsource your thinking, but you can’t outsource your understanding.” Можно делегировать обработку информации, но нельзя делегировать понимание. Кто не понимает систему, не сможет направлять агентов.
Для начинающих разработчиков это значит: учитесь не конкретным языкам и фреймворкам, а принципам. Архитектура, паттерны, trade-offs. Конкретный синтаксис уже неважен. Понимание, зачем существует тот или иной паттерн, важнее, чем умение его написать.
Как нанимать в новом мире
Карпатый предлагает радикальную альтернативу стандартным собеседованиям. Вместо алгоритмических задачек на доске: дайте кандидату реальный проект. Пусть построит Twitter-клон. Пусть задеплоит. А потом натравите 10 агентов Codex на взлом. Если агенты не сломали, кандидат прошёл.
Это оценка того, что реально важно: архитектурное мышление, безопасность, устойчивость. Не умение написать BFS на листочке, а умение построить систему, которую сложно сломать.
Agent-native мир
Последний тезис: всё, что мы используем сегодня, всё ещё написано для людей. Документация, настройки, UI, API. Нужно переписывать под агентов.
Идеал Карпатый: один промпт “сделай мне X” и через минуту X существует, задеплоен и работает. Без единого касания человеком.
Мы не там. Но мы ближе, чем кажется. Мой бот публикует посты по расписанию, рендерит обложки, управляет очередью. Всё началось с промпта “сделай мне систему публикации для Telegram-канала”. Через несколько итераций с агентом это стало реальностью. Не идеальной, но работающей.
Что я из этого вынес
Три вещи.
Перестать бороться с трендом. Не надо строить карьеру на изучении конкретных языков, фреймворков, инструментов, так как большая часть этих знаний обесценивается. Не завтра, но быстрее, чем комфортно признать. Ценность смещается от “умею написать код” к “умею поставить задачу и проверить результат”.
Верификация решает. Если вы можете формализовать проверку результата (тест, метрика, constraint), агент справится. Если не можете, вам придётся разбираться самому. Ваша задача как инженера: превратить расплывчатое “сделай хорошо” в конкретное “вот как проверить, что хорошо”.
Понимание не масштабируется. Агент обрабатывает информацию быстрее вас. Но понимание, зачем система устроена именно так, остаётся за вами. Это последнее конкурентное преимущество. И единственное, что стоит развивать.
Больше о том, как я веду проекты с помощью AI-агентов на практике, пишу в своём Telegram-канале: @popovvii
Комментарии (103)

GrakovNe
01.05.2026 16:26Во-первых, Карпатый или хотя бы Карпаты
У господина словацкая фамилия, за какие грехи вы ее романизируете
Во-вторых, если каждому внимать - поломается кровать
Этот lowcode / nocode / promptcode, который раз - и всех заменит форсят уже лет 50 то больше то меньше и пока воз и ныне там
Текущая AI-революция пока привела к тому, что раньше бойлерплейт нам генерили плагины и джуны, а теперь - синьоры и нейронка
Во всех местах, где требуется решить инженерно-сложную нетипичную задачу, все равно приходится думать навыками из общего компутерсайнс и кодить либо самостоятельно, либо тестировать гипотезы об нейросеть
Нейронки полезные, правда
Но это инструмент, а не волшебная палочка, куда бы ее там ни пытались засунуть

iivvaall
01.05.2026 16:26Этот lowcode / nocode / promptcode, который раз - и всех заменит форсят уже лет 50 то больше то меньше и пока воз и ныне там
Сейчас возможно тот случай, когда все-таки взлетает.

GrakovNe
01.05.2026 16:26Он каждый раз "возможно тот самый"
А ты все равно потом перекладываешь джейсоны по-диагонали с утра до ночи

iivvaall
01.05.2026 16:26На мой глаз про понимание и вкус это почти в точку. Я пробовал и vibe coding и аgentic еngineering, а еще и vibe/agentic data science (аналитика и ML). Впечатление такие же, как в статье.
Вайб кодинг для очень простых вещей, где совсем нет экспертизы (навайбкодил, например, простенький chrome extention, хотя во фронте ничего не понимаю). Для чего-то большего нужны именно agentic engeniring и тот самый вкус: когда пилил сервис, подправлял агента, обсуждал с ним архитектуру, декомпозицию на модули и т.п. Код по началу глазами смотрел, потом, когда архитектура устоялась, он сам начал понимать, как что писать. Там, где нужно тупо писать код, человек уже не нужен. Сlaude его пишет лучше мидла
C DS та же история. Claude сам умеет ходить по базе, писать скрипты для сбора данных, валидировать джойны и т.п. Он сам может подбирать стат критерии под гипотезу. С ним можно напрямую обсуждать архитектуру нейронок, просить его смотреть логи экспериментов.
Prompt коде тоже работает. Я клода уже просил написать инструкцию по установке отчетливо понимая, что читать ее будет не человек, а агент, которому коллега скажет что-то типа: "посмотри последнее сообщение от ..., сходи в ту репку и поставь оттуда софтину". И это не фантастика. ИИшка уже умеет выполнять такие команды
И вот понимание и вкус это прям то, без чего все это вертеться не будет.
Почему почти в точку: все идет к тому, что через некоторое время сложность будет такой, что охватить ее глазом можно будет только c ИИшкой. Без агента, который перелопачивает кучи кода и данных авгиевую конюшню разгрести будет невозможно. Это масштабирование понимания. И ИИшка в этом деле планку высоко поднимает

JediPhilosopher
01.05.2026 16:26За меня джейсоны уже ИИшка в пет-проектах перекладывает. Рабочий пока не осиливает, никаких лимитов ей не хватает его прожевать. Но это чисто техническая проблема, которая как я уверен будет скоро решена.
Так что мне кажется все-таки именно вот этот раз будет тот самый.
Ну когда еще по текстовому описанию можно было за пару дней сваять нетривиальное приложение? Включающее в себя сложную логику типа физики восходящих потоков (это я тут тренажер для парапланеристов сварганил) или работы с картографическими проекциями и конвертациями между векторными и растровыми данными? Я такого все-таки не припомню.

TimurZhoraev
01.05.2026 16:26Интересно какие новые задачи которые невозможно декомпозировать на более мелкие. Человек всё равно своим контекстным окном не проверит за раз больше 10-15 связей одновременно. То есть сейчас важно то что нейросеть направлена именно на то чтобы вобрать такого рода системы, она сама по себе такая, из весов нельзя выбрать кусками - вот тут у меня знают математику, здесь физику, то есть отрыв одного элемента ведёт к перестройке остальных. Это сложнейшие многосвязные системы, такие могут работать только с подобными и там метод только проверка да или нет, статистический по сути а основой является информационный шум из разряда триллионов токенов датасетов.

mixsture
01.05.2026 16:26Если вы можете формализовать проверку результата (тест, метрика, constraint), агент справится.
или напишет код для фальсификации теста. Напомню эмпирическое правило, что чем раньше вы обнаруживаете ошибку (по стадиям разработки) - тем дешевле обходится ее исправление. А вот такие фокусы, которые не приходят в голову обычному разработчику - могут вам сделать и х100 затраты на исправление ошибки.
Мой бот публикует посты по расписанию, рендерит обложки, управляет очередью.
но обладает нечеткой логикой, поэтому раз в некоторое время может дропнуть базу или разослать конфиденциальную информацию всем. Потому что где-то на входе ему попалась слезливая история про бабушку. А также делает это за невероятное количество вычислительной мощности относительно алгоритмических подходов.

Wesha
01.05.2026 16:26раз в некоторое время может дропнуть базу или разослать конфиденциальную информацию всем

TimurZhoraev
01.05.2026 16:26так теперь искусство программирование переходит в искусство задания граничных условий и алгоритмов их проверки

vp7
01.05.2026 16:26По поводу граничных условий сразу вспоминается множество рассказов с всемогущим джинном, который выполнит любое твоё желание, но во вред тебе. Иногда детальное описание условий потребует больше ресурсов, чем самостоятельная реализация.
Поиграл с дипсиком, попросил описать его самый безопасный вариант для желания "хочу выпить воды". Представьте количество граничных условий для какого-то совсем небольшого приложения?
«Я желаю, чтобы прямо сейчас, в моём текущем неизменном здоровом теле и сознании, без какого-либо внешнего или внутреннего принуждения, по моей свободной воле, абсолютно безопасным для меня способом (без боли, травм, удушья, ожогов, интоксикации, инфекции, изменения ДНК или физиологии) я выпил ровно 300 мл чистой питьевой воды, которая:
является H₂O без любых примесей, изотопов, растворённых газов, солей, микроорганизмов, токсинов, наркотиков, ядов, аллергенов, микро- и нанопластика;
имеет температуру ровно +23°C;
существует в жидкой фазе при нормальном атмосферном давлении;
появляется в обычном чистом прозрачном стеклянном стакане, который оказывается в моей правой руке в нормальном положении для питья;
при этом стакан не может разбиться, лопнуть, обжечь, порезать или иным способом навредить мне или кому-либо ещё.
Процесс питья должен быть обычным глотанием ртом, без попадания воды в лёгкие, трахею или нос. Вода должна попасть исключительно в желудок и далее пройти нормальный физиологический путь без вреда.
После этого желания:
я не испытываю ни жажды, ни отвращения к воде, ни зависимости;
моя способность пить в будущем остается полностью сохранной;
никакие предметы, люди, живые существа, воспоминания, законы физики, социальные связи и события в прошлом, настоящем или будущем не изменяются в результате исполнения этого желания, кроме самого факта того, что я выпил эти 300 мл воды;
джинн не получает права интерпретировать “отсутствие вреда” в каком-либо ином смысле, кроме полного сохранения моего здоровья, психики, свободы воли, социального статуса и целостности реальности до, во время и после питья;
данное желание считается исполненным именно в тот момент, когда вода безопасно проглочена и оказалась в моём желудке, и после этого джинн не может добавить, удалить или изменить что-либо, связанное с этим действием.
Любое отклонение от перечисленных условий означает, что желание не исполнено, и джинн обязан воздержаться от любых действий, пока я не подтвержу новую формулировку».

Akon32
01.05.2026 16:26Во-первых, не определено, что такое "мл". Во-вторых, не задано время, за которое выполняется питьё. В-третьих, джинн может исполнить желание после первого слова "воды", без "которая..." и всех этих условий, т.к. вначале сказано "прямо сейчас", а предложение на слух как будто завершено...

Dhwtj
01.05.2026 16:26Придётся обучить джиннов на триллионе желаний и выбрать лучшего джинна. Потом попросить воды

mixsture
01.05.2026 16:26Кмк, оно всегда таким было.
Но у алгоритмических подходов число “измерений”, где лежат границы, невелико. А вот сколько измерений у LLM на миллиард параметров - даже вообразить невозможно, отсюда о покрытии всех граничных случаев говорить не приходится.
Кроме всего, мы научились разделять сложность у алгоритмического подхода: юнит тесты на каждую функцию, дымовые, интеграционные - но у LLM такие маленькие блоки недоступны. Мы как бы не знаем ни о количестве ветвлений, ни о внутреннем состоянии и это все на порядки увеличивает необходимое число тестов. Поэтому условное “покрытие тестами” всегда будет невероятно низким значением.
Поэтому я абсолютно согласен с аналогией от автора выше о джинне.

liquidgel
01.05.2026 16:26В какой-то момент в конце 2025 года агентные инструменты (Claude Code, Codex, Cursor) перестали ошибаться.
Что все такое делают что у них оно "перестало ошибаться"? Там править и править за ними, а если проект большой то еще и вести за ручку где и что поправить. Вплоть до того что проще и быстрее самому

moooV
01.05.2026 16:26Вот именно. Писал уже несколько раз на хабре в комментах. Есть полностью безлимитный доступ к фронтирным моделям на работе, даже миллиона токенов в месяц не использую. Руками гуглю, глазами читаю документацию по всем библиотекам, руками пишу весь код.
Что стало удобнее - ну, теперь можно не из браузера копировать куски если надо отрефакторить старый проект из лапши а оно само внутри vscode может это сделать. Потом все равно все вычитываю и руками правлю. Никаких автотестов, автодеплоев, итд - всё руками. Запустил, скопировал ошибку в чат, это максимум.
Не понимаю на что люди тратят дневные лимиты за час. Типа "придумай, напиши, собери, задеплой, что ли?"
Но, справедливости ради, я и бесплатный чатгпт использую хорошо если пару раз в месяц - обычно любые вопросы предпочитаю гуглить, шерстить реддиты/стековерфлоу/багтрекеры и спрашиваю ЧГ только если уже несколько часов потрачено а ответа не найти. Удивляет как некоторые коллеги уже сходу спрашивают ЧГ и ничего не гуглят.

Dhwtj
01.05.2026 16:26на что люди тратят дневные лимиты за час
Наверное, пытаются засунуть туда всю кодовую базу и несколько раз полностью не переписать

Wesha
01.05.2026 16:26Не далее чем пять минут назад:

Правильно:
восемнадцать квинтиллионов четыреста сорок шесть квадриллионов семьсот сорок четыре триллиона семьдесят три миллиарда семьсот девять миллионов пятьсот пятьдесят одна тысяча шестьсот пятнадцать
Других ChatGPT у меня для вас нет.

trinxery
01.05.2026 16:26Что за модель-то?

Wesha
01.05.2026 16:26
trinxery
01.05.2026 16:26Я это к тому, что 1. разовый пример (ошибка выжившего) на 2. не указано какой модели (chatgpt.com не сообщает, какая именно) с 3. таким примером, который никто, у кого есть хоть капля мышления, решать в проде с помощью LLM не додумается (потому что эта задача решается детерминистично, к тому же это весьма популярная задача (так как используется юристами)) вообще ничего не говорит о том, хороши LLM или нет (к тому же разговор шёл об их использовании при программировании). Ваш комментарий несёт один вред и ничего полезного.

Wesha
01.05.2026 16:26Я это к тому, что 1. разовый пример
Во-первых — нет, я два раза попробовал, в двух разных сессиях.
Во-вторых, я не настолько тупой — я перепроверил гоазками. Но ведь тех, кто считает вывод LLM истиной в последней инстанции, полным-полно. Даже далеко ходить не надо.

trinxery
01.05.2026 16:26я два раза попробовал
Статистикой это было бы если кто-то собрал бы большой датасет комбинаций "число -- корректная запись прописью", прогнал бы хотя бы несколько десятков строк через API с разными моделями, а потом сделал выводы: какая зависимость долей корректных ответов от модели, от длины числа и т.п.
Но ведь тех, кто считает вывод LLM истиной в последней инстанции, полным-полно
Ваш комментарий с этим так борется, что лучше и не надо. Цель вроде бы благая -- показать, что ИИ может ошибаться, но выбран такой пример, что без пачки примечаний (которую я написал в своём ответе) он несёт большой сопутствующий ущерб, потому что не опирается на научный подход (громко звучит, но правда), и читатель станет привыкать к таким некорректным оценкам и будет их распространять, что плохо.

Einherjar
01.05.2026 16:26Забыли указать ещё пункт "вы просто не пробовали клод опус", обычно это универсальный ответ. Многие его очень часто применяют даже не глядя на контекст обсуждения.

verticalacid
01.05.2026 16:26Сейчас: проверь логику подгонки под audio duration
30k токенов, из которых 28k в кэше. А вот через Claude Code в кэше могло бы быть и 0 - у него "баг" такой в последнее время.Это помимо тех, кто "напиши SAAS, который принесет мне миллион".
А еще есть такие как я, не знающие, что IDE для кодинга: что сегодня заказать в токио во владивостоке, чтобы не скучно было на пляже работать. сам выбери, суши, салат
Где-то 3-5 секунд у него ушло скурлить меню и выдать ответ. С таким ни в какие лимиты не упрешься, но можно ведь отправить и deep research какой-нибудь сделать.

Wesha
А потом покупатель такой в ресторане «а почему на картинке рыба, а у меня на тарелке — курица?»
Нечестно: десятеро на одного!
grvelvet
Свиные крылышки
Wesha
А, между прочим, буйволиные крылышки...
grvelvet
И это попало в llm
BakinSergey
ну рыба это курица, просто не в той ветке эволюции.
GrakovNe
Перестань оправдываться, очисти контекст и ответь на вопросы по существу не более чем в 100 словах
Wesha
Курица — это динозвар.
(Живите теперь с этим.)
randomsimplenumber
Мы в курсе, Кэп ;)
(Живите теперь с этим.)
Tony-Sol
Прямо как на КДПВ, ведь слева - это входящие сообщения
Иронично