Очень понравилась статья про элитный вайбкодинг. Выражаю восхищение автору за решение вопроса со сложным клиентом.
Но один тезис, который виден как у автора, так и в комментариях, хочется затронуть отдельно.

Тезис звучит так - LLM не нужны, это только хайп, пользы от них нет. Так ли это?
Хочу рассказать коротко о личном опыте и конкретных кейсах из работы и хобби, как я прошел полный круг - от скептика, до энтузиаста, и затем снова до скептика.
Мой главный тезис в том, что для каждой задачи - свой инструмент. И LLM с обвесами - инструмент настолько мощный для целого круга задач, что он просто на порядок бьет по эффективности старые подходы, примерно как управление инфрой в эру DevOps против ручной настройки пары сотни железных серверов, или как современная IDE против написания кода в голом редакторе.
Скептицизм
Три года назад один коллега предложил попробовать ChatGPT, который тогда набирал хайп. Я попробовал на конкретной задаче - изменить запрос к BigQuery для вычисления медианы одного из выражений. Решения, которые система выдавала, были или слишком сложные и неэффективные, или неработающие. То, что я нагуглил на stackoverflow и сделал после изучения документации, работало эффективнее и было проще. Сделав вывод, что это хайп, забросил на полгода.
Спустя полгода, когда делал сложный проект, срочно понадобилось написать небольшую утилиту для парсинга API параллельно по другой задаче. И при этом общаться с внешней командой. На вход был только curl запрос. Времени погружаться в контекст и экспериментировать не было. Тогда ChatGPT добавил режим с редактированием кода. Не особо погружаясь, я решил задачу-влет параллельно, делая ревью кода и не теряя контекст основного проекта. Это было необычно, и я стал более открыт, что из этих LLM может получиться толк.
Развитие - Cursor, MCP, RAG, модели, perplexity, боль роста
Тут даже сложно сказать, но постепенно я стал видеть, как более эффективно решаю старые задачи с новыми инструментами. Делаю больше, лучше, и даже то, что никогда не любил. Ниже я приведу несколько конкретных кейсов, объединенных в группы
Поиск
Самое большое изменение - это Perplexity + ChatGPT против Гугла. В гугле нельзя было сделать follow-up (кроме как через site:some-great-forum.com и ряд других подходов). В Гугле нужно было руками пробираться через левые статьи, руками смотреть и разбирать ветки форумов. В Гугле нужно было, если ты нашел какой-то пример кода, адаптировать его. Если ты исследовал серьезную тему, то полчаса-час-два могло уйти на десятки вкладок и эксперименты по красноглазию.
Теперь на большую часть вопросов можно получить быстрый ответ и уточнить его. Можно получить в виде сниппета кода. Погрузиться в новую технологию, взять типовые команды и проверить быстро по документации - можно погрузиться за полчаса, а не за полдня или неделю.
Реверс-инжиниринг
Примерно через год после ChatGPT мне нужно было за один день понять, как работает примерно сотня классов. Документации не было, это критически важный участок системы. В прошлой жизни без документации и разработчиков на такие задачи уходили недели. С Курсором и указанием входных точек, откуда смотреть, а также в каком формате и что изучать (взаимосвязи, бизнес-логика), я за полдня погрузился в систему и увидел все ключевые точки, а также проблемы.
Поиск в документации
Самое сильное изменение - поиск по синонимам и смыслу. Не помните точную фразу? Нужно саммари 10 первых результатов из поиска Confluence? LLM делает это возможным. Кстати, есть даже решения (включая open-source он-прем), которые индексируют вашу документацию и делают поиск по ней очень эффективным. И просто рабочим.
Документация
С MCP для Confluence для в одном GCP проекте для документирования облачных функций, которые стали плодиться как пирожки, эта проблема была решена. Раньше было не добиться от команды документации, а сейчас она генерится быстро. Да, нужно выверять и проверять, но гораздо проще работать по живому тексту, чем с нуля.
Упрощение рефакторинга
Сколько в прошлом было случаев, когда нужно было в чужом (или своем старом) коде отрефакторить проект. И либо писать сложную тулзу (использовать существующие), которая делает замены зависимостей и обновление кода, причем дольше, чем просто самому руками везде обновить. Либо просто отложить. Сейчас можно сделать анализ зависимостей, спланировать небольшой, средний, большой рефакторинг, и по частям его осуществить.
Тесты, всякие и разные
Как и документация, тесты многие не любят писать, если это не обязательно. Стоит ли говорить, что набросать базовое покрытие тестами разных уровней можно очень быстро, равно как и поддерживать их актуальными. Да, нужно смотреть, да, нужно дорабатывать и додумывать и дописывать. Но значимая часть базовой и даже средней сложности юз кейсов может закрываться LLM.
Кодревью
Авторевью внешими инструментами в Github - это мастхэв. Анализ кода, подсвет ошибок и проблем, диаграмма последовательностей - и все в каждый pull request. Экономия сотен часов тимлидов в год. Это не заменяет тимлидов, но можно фокусироваться на ключевых и сложных проблемах, и не тратить время на указание мелочей или очевидных моментов.
Нелюбимые технологии
Я всегда был больше бекендером, особенно с тех времен, как были хаки для IE, а потом JS фреймворки менялись так часто, что даже появилась шутка - придумай слово и вбей в Гугл, и найдешь такой JS фреймворк. jQuery, ExtJS, mootools, потом смена идеологии (пример SPA, VDOM и тд), и с нами Angular, React, Vue, и тд.
Туда же - верстка. Переносить в таблицы (а потом дивы) макеты из PSD (потом Фигмы) и под десяток браузеров + устройств тюнить с помощью магии HTML+CSS - не мое.
Думаю, у каждого есть какое-то слабое место, которое человек может сделать (как и я могу отдебажить баг на фронте - иногда даже поймать race condition, поднять реакт проект или верстку пофиксить), но просто не любит. Или не готов потратить X часов, чтобы стать экспертом.
Однако, как у каждого разработчика, всегда были и есть идеи. Но порог вхождения до уровня мастерства высок, равно как и отсутствие времени+желания. Теперь же с помощью LLM можно легко и прототипировать тот же фронт (и давать агенту получать обратную связь), и быстро чинить проблемы, и ускорять погружение в разы. Для того, чтобы стать экспертом, усилия приложить придется, но двигаться можно гораздо быстрее - от выжимок лучших практик и опоры на лучшие проекты в данной технологии, до конкретных реализаций
Новые технологии и рисерч/эксперименты
Я не фанат Typescript, больше люблю Golang/Python. Но для общего развития, в одном из прототипов в этом году под ключ с нуля собрал и три раза отрефакторил приложение для сбора данных с двух поставщиков и дедупликации (с medallion слоями). Докеризация, ПГ база, UI/UX, API, документация, пайплайн, тесты. Да, исходный промпт у меня был очень большой, и архитектуру я продумал заранее (на листках), равно как и схему БД. И сначала заставил одну из последних моделей спланировать все, взвесить совместно (ответив на уточнения, подсветив ошибки и риски), а затем пошагово реализовать - добиваясь результата в виде прохождения тестов, сборки в докере. Это буквально работа в роли solution архитектора на первом этапе, а затем такие рисерчи - когда ты получаешь реальные данные поставщика, тестируешь его API , и итерируешь систему на базе полученной информации.
Аналогичные итерации вместо трех дней в прошлом занимали несколько недель и это был труд целой команды программистов. Не говоря про декомпозицию задачи, отписывание всем, затем кодревью, тестирование, деплой и проверку.
А уже если ты добавляешь в эксперименты новый элемент - например, Эластик, потому что подходит для Use Case - то еще неделя-две-три уходит на настройку нового добра, отладку, чтение книг и статей, форумов с best practices. Сегодня же LLM при наличии Skills / rules + правильного контекста и инструментов (например, MCP для Гугл документации - вышел на днях - чтобы агент имел самую актуальную доку) львиная часть этой работы автоматизируется, так что ты можешь сосредоточиться на главном. На достижение результата, на trade-offs, на архитектуре системы, на учете как оно будет жить в продакшене и как использоваться и сколько стоить, и так далее.
А как же ПРОД?
Вставлю отдельный абзац. Разберу несколько случаев
Первый случае - у меня перестала с сервера идти синхронизация данных в Gcloud. С другого сервера с тем же service account работает, а с этого нет. Буквально за десяток минут я смог понять проблему - отвал был на получении токена, и на сервере сбился сервис синхронизации времени. Обычно на поиск такой штуки уходил час-два-три (особенно когда в запаре и никаких изменений , две идентичные среды).
Второй случай - команда другого проекта сильно улучшила джоб получения данных с кучи API, добавила всяких quality gates, и тд. Я когда-то тыкал этот джоб, но их версию видел впервые. В силу многий ограничений, нужно было быстро взять из их проекта и пересадить джоб к нам в проект. LLM позволила сделать мне это за пару часов под ключ, руками же вычленение кода из чужого проекта это легко денек-другой, с переписками - а что это делает, или отладкой.
Третий случай - быстрый дебаг. После обновления облачной функции GCP python3.9 до 3.11 сломалась запись в логи результатов работы с внешним API в одном поле. Буквально на второй итерации сразу был найден тонкий момент, который я упустил на ревью, и фикс был готов.
Еще один пример - я знал в целом, как получать анализы расходов в облаке. Но мне нужно было нарезать их по секциях - запросы BigQuery по источникам (самые дорогие и тяжелые + самые частые которые в сумме дают расход), классифицировать запросы (паттерны выделить у самых частых, но дающих в сумме ощутимый расход); а также другие сервисы по SKU и прочему. Я набросал анализатор, пообщавшись с LLM об алгоритмах и подходах сначала, которые подойдут. LLM подружила это с нужными эндпоинтами, а я получил инструмент срезов и группировки данных, который я до появления агента анализа в костах у Гугла даже думал как продукт сделать (а-ля не понимаешь, куда и как идут деньги и что надо оптимизировать ? Штука проанализирует).
Ну и да, я в 3 раза (речь о сотнях долларов) сократил расходы в месяц , добавив партиций и поправив запросы (чтобы партиции использовались, условно в where clause фильтр по дате записи уменьшает скан с десятка Гб до мб) на базе того анализа в одном из GCP проектов. Это уже только сам, ибо там было очевидно, low hanging fruit.
Другие сферы для разработчика - от изучения рынка до планирования поездок, перевод книг
Тут даже не знаю. Прикрутив MCP, запустив несколько локальных агентов, потыкав нейтан , я получил возможность делать вещи, которые раньше занимали недели и до большинства не доходили руки. От подбора по матрице параметров нужных мест, используя какой-нибудь Places API, сочетания музеи, театры и рестораны с достопримечательностью. До опроса десятков разных источников данных и анализа, вместо сведения цифр в эксель (или загрузки в DWH + попытки приладить какой-нибудь BI для визуализации и срезов, когда ты не дата сатанист). Бери и делай, стоит только захотеть.
Знакомый попросил помочь перевести книгу, и буквально за пару поисков был найден гитхаб репо, где книга разбивается на чанки, переводится в MD, и воткнутый ключ OpenAI со средней моделькой переводит книгу.
Обработка текста непростая, когда сверстали таблицу, что она не копируется нормально (привет Хабру)? Простой скрипт, и вот уже за пару минут все прекрасно решено.
Прислали длинный текст и нет времени читать? Саммари легко и быстро.
Список сфер, где ИИ полезна и повышает эффективность, раздвигает границы, просто бесконечен.
ИИ как продукт
Попробовал сделать достаточно типовые задачи, вроде помощника по подбору билетов, или агента по анализу потенциальных ниш на рынке , исходя из общедоступных АПИ и датасетов и конкурентов. Результаты пока не блещут, но очень интересный опыт.
Боль роста
Несколько раз по пути мне попадались люди, которые прямо говорили - если я не могу сделать что-то с помощью LLM, то я просто не умею. После десятка лет опыта слышать это было тяжело, но было необходимо (как в старых фильмах сначала талантливого ученика заставляют убираться, чтобы самомнение сбить, и только потом он готов впитывать знания).
И действительно, нужно было учиться пользоваться инструментами. Сначала - промпты, простой прием "попроси LLM сгенерить промпт для тебя" сделал огромный рывок в эффетивности. Затем - Cursor rules. Затем - понимание контекстного окна, и когда ты сначала говоришь агенту планировать, а потом уже делать, и задаешь контекст, используешь MD как память и внешние штуки типа openmemory, бьешь задачу на шаги, выступая в роли тимлида , если угодно. Потом - выбор более дорогих моделей, закупка тулз. И постепенно - свой локальных репозиторий mcp proxy, свои агенты, свои rules. Все это делает тебя более эффективным, способным делать новое и интересное.
И да, по пути бывали и тупящие модели (привет Соннету), и галлюцинации, и когда контекст упущен, и много чего еще. Все это решается путем адаптации к инструменту и пониманию, как лучше его использовать в данном конкретном случае.
Скептицизм 2.0 и AI first
В итоге, я для примерно половины задач активно применяю всякие ИИ инструменты. Курсор может работать 10-15-20 минут. И требовать корректировки.
Еще ждет освоение цепочек агентов на серьезном уровне - все вокруг хвалят.
И каждую задачу, которую я вижу, я пытаюсь посмотреть - можно ли ее решить частично с помощью ИИ (для поиска информации, анализа, идей, критики).
Но при этом во мне постоянно живет кодревьюер. Все требует проверки. И результат, и получаемый продукт, и идеи. Утверждения - фактчекинга, написанный код - прохождения тестов (которые надо проверить, чтобы там не было подгонки под результат, и были учтены все моменты). С моделью Opus 4.6 кстати, стало все сильно лучше. До этого Gemini 2.5 Pro рулил.
Как я могу эффективно и быстро проверять, что делает ИИ, и не говорить ,что это маразм? И делать то, что мои коллеги делают часами или днями?
Легко, коллеги. Это как красноглазие. Как опытный админ жопой чует, когда проблема в железе, а когда в софте, а когда кривые руки чьи-то накатили конфиг левый, или что сетевые правила виноваты, апстрим, или и правда Меркурий в ретрограде, так и опытный разработчик понимает, и когда использовать ИИ, когда - не использовать. И как быть при этом с ним на "ты".
Возвращаясь к исходному тезису - IDE сделала нашу жизнь лучше и приятнее, а волосы гладкими и шелковистыми. LLM дают нам огромный рычаг и возможности, а все обвесы к ним, а также способы организации этого дела в агентные системы и прочие конвееры - очень интересное будущее. В конечном итоге, как говорят в ML, garbage in - garbage out. И если ваш опыт с LLM не достигает хайпа, возможно, как той басне про 10 типов людей и бинарную систему счисления - что вы или правы, или просто не освоили этот скилл.
В конце-концов, хайп хайпом, но инструмент революционный. Особенно, если у вас солидная база и практический опыт, и вам нужны руки и автоматизация.
Поделитесь в комментариях личным опытом, пожалуйста. Большинство на Хабре видит пользу и толк на практике (в работе, в хобби, в обычной жизни) от LLM, MCP, агентов и прочего, или нет? Если убрать хайп и инфоцыганство, смогли ли вы поставить этот инструмент себе на службу?
Комментарии (21)

K0styan
12.02.2026 09:12Я с одной стороны со всеми тезисами в статье согласен - у меня другой профиль деятельности, но и для себя LLM нашёл, где применить. И постоянно щупаю новые варианты + оптимизирую имеющиеся.
Но с другой стороны - во всей статье, буквально с заголовка, сквозит одна мысль: умелый специалист сможет использовать плюсы LLM и побороть минусы. Но вопрос - а как быть неопытным? И как люди будут становиться опытными через N лет, когда вся та работа подмастерий уйдёт железкам? Не подразумеваю тут, что-де все отупеют - но действительно интересно...
Одна версия ответа у меня, кстати, есть, но интересно, к чему дискуссия выведет)

Cord Автор
12.02.2026 09:12Не знаю, если честно.
Как минимум - такие люди породят много работы для опытных коллег, как автор оригинальной статьи.
Но вообще, проблема не нова. Вот 20 лет назад сайт было дорого делать и уникально. А сейчас - 40% сайтов в мире работают на Wordpress пруф
Наверное, я бы предпочитал, чтобы сайты в мире делали эксперты и делали хорошо. Но для массового рынка сделали комбайн с низким порогом входа, и появился вагон всего. И есть целые специальности, и движки - https://wpengine.com/ (кстати, у него автор - потрясающий блог раньше вел http://blog.asmartbear.com/ )
Люди покупают картину на стене, а не молоток. Поэтому если LLM дает им иллюзию решения задач, то они будут платить. Особенно когда за этим хотя бы частично стоит реальный результат - и переводы, и поиск информации, и текстовые задачи. И оно за небольшую цену - 20 долларов условно - дает суперсилу, причем качество постоянно растет.
Туда же и отупение. С одной стороны, есть общий эффект падения качества много где, и люди ленятся. С другой, люди выдерживают потоки информации, невиданные ранее нашими предками. Поэтому точно неизвестно, как оно по балансу выйдет.
Как пример - было мнение, что люди потеряли фокус внимания. Но вот есть же Lex Fridman, например, с длинными подкастами. Или Сурдин, или Бушвакер. Где непростую информацию излагают, и люди слушают.
K0styan
12.02.2026 09:12Ну вот у меня ответ очень близкий. Если я, как неспециалист, могу оценить результат - то это уже работает. Если я могу заглянуть под капот и хотя бы понять, что там происходит, сделать мелкую правку - отлично.

Nikx83
12.02.2026 09:12А как становятся опытными? Шишки набивать. Я так и делал. Сейчас в работе использую. Я обследованием зданий и сооружений занимаюсь, так помогает писать ответы. Дал ему раздел обследования, указал как по этому разделу составить ведомость дефектов - через пару минут у меня уже почти заполненная ведомость. Стандартные решения проблем ему тоже загружаю. А там останется лишь проверить, да дописать несколько ячеек. Главное самому научиться правильно формировать задание. Другие разделы ответа уже делает быстро. Проверка отчёта вообще красота. Главное понимать, что он должен искать. На это у меня ушло пол года экспериментов. Зато теперь отчеты делаются быстрее и легче. Я концентрируясь на главном - описании самих дефектов и повреждений конструкций, на их координатах и категориях. А формировать в нужной форме - нейросети помогают.

janvarev
12.02.2026 09:12Знакомый попросил помочь перевести книгу, и буквально за пару поисков был найден гитхаб репо, где книга разбивается на чанки, переводится в MD, и воткнутый ключ OpenAI со средней моделькой переводит книгу.
К слову - уже есть рабочий опенсорсный плагин Ebook Translator для Calibre (это такой известный софт для каталогизации книг и конвертации в разные форматы), который все, что ест Calibre (FB2, EPUB и пр.), может переводить через нейросети по OpenAI-совместимому API - естественно, разбивая на куски, иначе в контекст не влезет. (Описание подключения Ebook Translator мое тут, делал под себя - адаптируйте под свои кейсы, кому нужно)
Так что иногда даже не обязательно кодить решение, достаточно хорошо поискать - уже для кучи современных прог с плагинами скорее всего найдется способ "сделать внутри что-то с помощью LLM", что не может не радовать.
Думаю, у каждого есть какое-то слабое место, которое человек может сделать ... но просто не любит. Или не готов потратить X часов, чтобы стать экспертом.
Вот тут прям дико за. Иногда что-то хочется сделать, в чем ты не профессионал - но ручками учиться 10 лет не готов (ну, рисованию например). Нейросети дают возможность.

Cord Автор
12.02.2026 09:12Спасибо!
Я нашел вот это https://github.com/smyrgeorge/lexis
Завелось после небольшой правки. Для одноразовой задачи сработало.

constXife
12.02.2026 09:12Я где-то год наверное сижу на нейросетях и пилю свои пет-проекты до которых раньше не доходили руки из-за недостатка моральных сил.
Новогодний пет-проект для замены bitwarden/vault https://github.com/constXife/zann.
Уже где-то год пилю несколько раз с нуля генератор планет на основе тектонических плит, с простенькой моделью климата, ветра, и тд
Не так давно еще открыл для себя NixOS, конфиги настраиваю через LLM и это очень круто. Начал пилить для себя self-hosted пет-проекты типа homepage с различными пространствами (для детей, для админа, для обычных людей):

Также LLM настраивает мне дашборды графаны в виде json файлов, а NixOS их автоматом провизионирует в графану.

Сейчас экспериментирую с автоматизированным RCA, которая собирает в кучу все сигналы а-ля логи, трейсы, sentry, и пытается найти автоматизированно проблему.

akardapolov
12.02.2026 09:12экспериментирую с автоматизированным RCA
Есть результаты?

constXife
12.02.2026 09:12Да, но пока в формате эксперимента. Я "продал" эту идею своим коллегам, теперь ставим на staging тестировать как оно себя покажет. Первое время будет разбирать падения тестов. Скорей всего нужно будет докручивать, но на тех примерах которых я проверял, вполне себе определяет. У нас используется локальная LLM.
Я использовал для основы LangGraph, каждые ноды ходят и делают что-то свое (подтягивают ресурсы, проверяют логи и тд), а потом сверху анализируются результаты.

azTotMD
12.02.2026 09:12планеты - красиво, где можно глянуть подробнее?

constXife
12.02.2026 09:12
Пока нигде, планировал задеплоить куда-то. А вообще, честно говоря, я хочу сделать проект worldbuilding, на котором смог бы в теории заработать. Задумка такая — сделать сервис генерации научно-обоснованных миров. Условно, если в определенном месте стоит континент или горы, значит там происходили некие процессы, которые послужили причиной.
В моей генерации вначале генерируются некие случайные стартовые параметры, типа master noise, которые задают изначальный температурный шум мантии, потом DFS обегает по "слабым" местам и формирует основы тектонических плит, таким образом формируя их органические границы.
Также в моем проекте предусмотрены "снапшоты" в таймлайне. Сейчас я пока сосредоточен на создании планеты в моменте, но есть и возможность просимулировать планеты во времени, тектонические плиты будут двигаться, и системы будут пересчитываться (в облегченном режиме), и дадут реальную историю, которую можно как-то использовать для лора, ну и в целом история будет отражаться на самой планете внешне. Можно проектировать в таймлайне как выглядела планета когда на ней была например Атлантида и какими событиями она была уничтожена.
azTotMD
12.02.2026 09:12Условно, если в определенном месте стоит континент или горы, значит там происходили некие процессы, которые послужили причиной
такой подход вызывает уважение, когда не просто генерится правдоподобная картинка, а какая-то за этим стоит базовая логика.
А визуализацию на чем сделали? У вас отделен рендеринг от логики построения мира?

constXife
12.02.2026 09:12Генератор создает такие снапшоты, которые рендерятся через webgl на фронте. Но вообще на основе этих файлов какой угодно может быть рендеринг, потому что, да, рендеринг отделен от логики. Я думал еще попробовать добавить поддержку стилей рендеринга, чтобы можно было в стиле hmm3 отрисовать карту.


Weron2
12.02.2026 09:12Кстати, есть даже решения (включая open-source он-прем), которые индексируют вашу документацию и делают поиск по ней очень эффективным. И просто рабочим.
А что за решения? Интересно

mrbp_old
12.02.2026 09:12Perplexity+Cursor
"Назначаешь" Perplexity тимлидом. Говоришь ему, что у него "подчинении" синьер Cursor. Которому нужно правильно ставить задачи, предварительно написав основные правила всего формате типа ООП, всегда виртуальная среда, логирование, тестирование, подробные отчёты и пр.
И вот вы шеф команды, которая не бухает, не беременеет, не ноет про переработки отгулы, удаленку и т.п.;)

LernardDranrel
12.02.2026 09:12Радует что хоть кто-то стал говорить об этой теме вслух и с пониманием на Хабре.
ИИшка хороший и мощный инструмент. Но как и водиться - каждый инструмент с нюансами. ИИ не волшебная палочка, в текущем виде это как тупенький, но очень упорный Джун под энергетиками. Все что можно дать такому Джуну - можно дать и ИИшке.
Но как и в случае с Джуном:
Не доверяй и не надейся на лучшее - только проверка и прослеживание логики
Сверяйся с условиями задачи и что реально было сделано
Базовые предельный и критические сценарии
Дай другой ИИшке сочинить тесты. Другой, которая НЕ ВИДИТ Код и не может подстроиться под него. (один Джун пишет код, другой тесты к нему)
Меняй модели, ставь условия по-другому и тп и тд
И если соблюдать хотя бы стандартные правила - выигрыш будет точно такой же как от разрабов в подчинении Лида.

Cord Автор
12.02.2026 09:12Поддерживаю
Добавлю, что последние модели - Opus 4.6 как пример - разительно лучше и умнее. Особенно, если заставлять их работать по частям.
Как пример галлюцинаций и хождения по кругу, у меня были проблемы с Соннетом (кажется, четвертым). Один и тот же баг - ходим по кругу, приходится детально лезть во все самому. И даже направление не помогает - говоришь сначала вывести логи, затем смотришь вместе с ИИ, но причину находишь сам.
Опус 4.6 и сам догадывается логи вывести, и сам анализирует. И так же не забывает, если ты говоришь ему - собирай в докере и пробуй, пока не получится.
Но пожалуй, самое впечатляющее был рефакторинг с Опусом под ключ приложения. Говоришь - спланируй все и пропиши. Потом - распланируй по частям. Смотришь, добавляешь комментарии. Заставляешь задать вопросы и отвечаешь на них.
А затем даешь работать по частям, и смотришь за итерациями (давая дампить состояние и прогресс в MD планы).
Поэтому я бы сказал, что и как миддл можно вполне заставить работать, немного поднаторев и зная точно, чего хочешь. Представь, что руководишь миддлами, как бы ты поставил задачу, как бы выделил точки, где подключиться, а где бы дал автономности. И как бы сделал кодревью, как сделал по приоритету приемку.
Ну и конечно, скиллы, MCP, правила. Просто один факт добавления MCP, который смотрит актуально в документацию, или в инет, снижает вероятность, что уйдет не туда.
https://developers.googleblog.com/introducing-the-developer-knowledge-api-and-mcp-server/
Очень актуально, поднимал приложение, и оно прямо по ходу смотрело и увидело ошибки в вызовах LLM и ошибки в конфигурации
Иногда надо посмотреть на подход, вот как недавно было с подключением к Firestore у меня. И если там не взлетает - показать конфигурацию (через gcloud), и одновременно по-дедовски найти рабочий пример (в самой доке Гугла) и дать направление. Это пожалуй, единственный небольшой затык, который у меня был с Опусом и где прямо самому нужно было руками решить

ALexKud
12.02.2026 09:12Пока использую по мелочам, на подхвате. Недавно нужен был скрипт на powershell для перекачки логов их одного сервера в другой. Я с powershell был почти не знаком. Через гугловский браузерный ии вполне нормально получилось, но пришлось сделать итераций достаточно много, чтобы скрипт выполнял и перекачку, не вешая сервер, и обновление и чистку источника и выполнялся по расписанию. Ушло примерно полдня, с перерывами на другую задачу. По старинке, наверно бы понадобилась пара дней только на понимание, что возможно в powershell и как разрабатывать, делать отладку скрипта.
Nikx83
В целом это не нейросети плохие. Это пользователи не умеют с ними работать. Грешить на микроскоп, что им неудобно забивать гвозди... Ну и нейросети не волшебная палочка, они не пишут за нас. Они помогают писать нам. Текст, код, инструкцию.
Кстати на счет проверки. Советую перекрестную проверку: сделал код - дай другой нейросети на проверку. А потом еще другой. А потом обратно после переработки. В большинстве случаев получается вылизанный и прилизанный код под нужные функции. С текстом аналогично. Только нейросеть должна точно понимать, что нужно вам