Одно любопытное исследование опубликовала некоммерческая организация Model Evaluation and Threat Research (METR). Они пригласили 16 опытных разработчиков, работающих над крупными open-source репозиториями, чтобы те исправили 136 реальных багов. Оплата составила 150 долларов в час. Части разработчиков выдали для работы AI-инструменты, другим — нет. Исследователи записывали экраны участников, а затем изучили и проанализировали 146 часов видеозаписей. Вывод оказался следующим:
«Удивительно, но мы обнаружили, что при использовании AI-инструментов разработчики тратят на 19% больше времени. AI делает их работу медленнее. (…) Разрыв между восприятием и реальностью поразителен: разработчики ожидали, что AI ускорит их работу на 24%, и даже после того как фактически замедлились, они продолжали верить, что стали работать на 20% быстрее».
Результат действительно удивляет! Но в чём же дело? Давайте внимательнее посмотрим на само исследование.
Исследование посвящено влиянию Cursor на продуктивность разработчиков. Практически все участники использовали именно Cursor, с моделями Sonnet 3.5 или 3.7. При этом 44% разработчиков никогда раньше не работали с Cursor, а большинство остальных использовали его не более 50 часов.
Разработчики с AI тратили меньше времени на написание кода, но суммарное время выполнения задач у них было больше. Они также меньше времени уделяли ресёрчу и тестированию. Но при этом больше времени уходило на промптинг, ожидание откликов от AI, проверку его результатов и так называемый «IDE overhead» (накладные действия в среде разработки). В итоге дополнительное время, потраченное из-за AI, полностью нивелировало экономию на кодинге, исследовании и тестировании, показало исследование.
Стоит подчеркнуть, что это наблюдение относится ко всем AI-инструментам, а не только к Cursor, который просто был выбран для данного эксперимента.

Разработчики переоценивают влияние AI на продуктивность — по крайней мере, на первых порах. Из опроса:
«И эксперты, и разработчики сильно завышают полезность AI для продуктивности разработки, даже после того как провели много часов, работая с этими инструментами. Это подчёркивает важность проведения полевых экспериментов с чётко измеряемыми результатами вместо того, чтобы полагаться только на прогнозы экспертов или опросы среди разработчиков».
Один разработчик, который пользовался Cursor более 50 часов, показал значительное ускорение! В исследовании был всего один такой участник, и он продемонстрировал впечатляющее увеличение скорости работы на 38%. Но выборка в один человек явно не может быть репрезентативной для группы из 16 участников:

Разработчик по имени Саймон Уиллиссон — которого я считаю независимым экспертом в области AI-инструментов для разработчиков — интерпретирует результаты исследования так:
«Моя интуиция подсказывает, что это исследование в основном показало: кривая обучения в AI-ассистированной разработке достаточно крутая, и пока разработчики пытаются встроить её в свои рабочие процессы, их эффективность падает».
Действительно, он высказывал схожую мысль в одном из выпусков подкаста Pragmatic Engineer: «Нужно приложить очень много усилий, чтобы разобраться, исследовать, поэкспериментировать и научиться пользоваться инструментом. При этом никакого руководства нет».
В исследовании AI-инструментов, проведённом этим изданием на основе откликов примерно 200 инженеров, мы получили следующие данные: те, кто использовал AI-инструменты менее 6 месяцев, чаще имели о них негативное мнение. Очень типичный фидбэк от инженеров, которые перестали пользоваться такими инструментами: они пробовали, но результат не оправдал ожиданий, поэтому бросили.
Инженер, который показал ускорение на 38% по сравнению с коллегами без AI, дал интересный комментарий. Этот единственный участник с опытом более 50 часов работы в Cursor — аспирант Квентин Энтони. Вот что он говорит об исследовании и о том, как AI-инструменты влияют на эффективность разработчиков:
1. Ускорение от использования AI слабо коррелирует со способностями разработчика.
Все участники этого исследования были очень сильными инженерами. Думаю, дело скорее в том, что и модели, и люди склонны попадать в одни и те же «режимы отказа». Я работаю с множеством потрясающих инженеров, занимающихся pretraining-разработкой, и вижу, что у всех возникают схожие проблемы.
Мы любим говорить, что LLM — это инструмент, но на деле относимся к ним как к волшебной пуле.
Любой разработчик знаком с тем чувством удовлетворения, когда наконец удаётся отладить особо запутанный баг. LLM — это огромная «дофаминовая кнопка», которая иногда решает проблему одним выстрелом. Будешь ли ты продолжать нажимать на кнопку, которая имеет 1% шанс всё исправить? Это гораздо приятнее, чем идти долгим и изнурительным путём, по крайней мере, для меня.
2. У современных LLM крайне неравномерное распределение способностей.
Думаю, это связано в первую очередь с тем, для каких задач по программированию у нас есть достаточно чистых данных, и какие бенчмарки и метрики выбирают лаборатории LLM для оценки успеха.
Например, LLM отвратительно справляются с низкоуровневым системным кодом (GPU-ядра, параллелизм, коммуникации и т. п.). Причина в том, что таких данных в обучающем корпусе мало, а оценивать подобные навыки у моделей очень трудно (подробнее я разбираю на github).
«Поскольку такие задачи составляют значительную часть моей работы как инженера, занимающегося pretraining-разработкой, я хорошо понимаю, какие из них подходят для LLM (например, написание тестов, разбор незнакомого кода), а какие — нет (написание ядер, понимание семантики синхронизации при коммуникации и т. д.). Я использую LLM только тогда, когда уверен, что модель способна надёжно справиться с задачей.
Когда я решаю, подходит ли новая задача для LLM, я стараюсь жёстко ограничивать время работы с моделью, чтобы не провалиться в бесконечную кроличью нору. Опять же, очень трудно оторваться от LLM в тот момент, когда кажется, что «вот-вот получится!».
3. Во время ожидания ответа от LLM очень легко отвлечься.
Экономика внимания в соцсетях безжалостна: люди могут пролистать ленту полчаса, пока ждут результат 30-секундной генерации.
Всё, что могу посоветовать: нужно знать собственные слабые места и постараться провести время ожидания от LLM с пользой. Если задача требует высокой концентрации — лучше заняться подзадачей или обдумать какие-то вопросы. Даже если модель сразу даст правильный ответ, что ещё мне останется непонятым? Если задача не требует высокой концентрации — можно выполнить мелкую работу параллельно (ответить на письмо или сообщение в Slack, прочитать или отредактировать абзац текста и т. п.).
Как обычно, помогают простые меры цифровой гигиены (блокировщики сайтов, телефон в режиме «не беспокоить», отключение уведомленией из приложений и прочее). Извините, если это звучит слишком очевидно, но для меня это работает :)»
Квентин подытоживает:
«LLM — это инструмент, и нам нужно учиться понимать его подводные камни и иметь саморефлексию. Одна из причин, почему людям так нравятся выступления Андрея Карпати, в том, что он очень вдумчивый пользователь LLM. Он пришёл к этому раньше многих благодаря своему участию в их предобучении.
Если мы хотим действительно эффективно использовать этот новый инструмент, нам нужно понимать его (и свои собственные!) ограничения и адаптироваться к ним.»
Я думаю, не может ли переключение контекста стать ахиллесовой пятой AI-инструментов для программирования. Как разработчик, я наиболее продуктивен, когда нахожусь «в потоке» — полностью сосредоточен на задаче, без отвлекающих факторов, когда всё внимание направлено только на работу. Я прекрасно знаю, насколько дорого обходится возвращение в это состояние после того, как его потеряешь.
Но я не могу оставаться «в потоке», когда использую экономящий время AI-инструмент: пока код генерируется, я вынужден переключаться на другие дела, а это неизбежно прерывает концентрацию, и каждое такое переключение замедляет меня. Это отвлекает.
А что если само ограничение «быть в потоке» при написании кода — это не баг, а фича? И что если опытные разработчики, которые не пользуются AI-инструментами, оказываются продуктивнее большинства тех, кто их применяет, именно потому что осознанно остаются «в потоке» и концентрируются лучше? Возможно, те, кто работал без AI, находились в состоянии глубокой концентрации и показывали более высокую результативность, чем разработчики, которых AI вынуждал снова и снова переключать внимание.
Есть над чем задуматься: сэкономленное на написании кода время ещё не означает рост общей продуктивности при создании программного обеспечения.
Читать другие статьи по теме:
ИИ может тормозить процессы, если использовать его без грамотной методики. Практический курс «AI для разработчиков» — про то, как встроить Copilot/Cody и агентные фреймворки без потери фокуса: где модели реально экономят (тесты, документация, рефакторинг), а где их стоит выключать, плюс практики безопасной интеграции.
Приходите на открытые уроки, которые бесплатно проведут преподаватели курса:
12 ноября: Обзор AI-технологий для разработчиков: от идей до рабочих решений. Записаться
17 ноября: Создание UI с Claude Code и Playwright MCP. Записаться
Комментарии (10)

semmaxim
15.10.2025 14:46А есть бесплатные уроки или руководства, как же всё-таки взаимодействовать с ИИ?

Jijiki
15.10.2025 14:46c ИИ сьест время при условии если включить все опции в IDE(например на С++ нужен только дебагер, и блокнот или вс с с++ плагином и клангдом), включить все удобства, так же с ИИ окажется, что не всё может знать тот кто с ним взаимодействует, придётся учиться и чаще проверять(а так же нестандартно распаковывать широкие контексты ИИ тоесть знать что делаешь в коде), переубеждать ИИ так же нету смысла, говорить ему об ошибках его же тоже бесполезно, вот что я понял
настроив ИДЕ, убрав ненужные опции(настроив окружение), зная контекст или зная что делаешь в коде всё это упрощает взаимодействие с ИИ
по моим ощущениям классная ситуация, когда ИИ может направить на стратегию о чем подумать в рамках вопроса, показывает какую-то выкладку, делаешь, и вы уже на одной волне, бывает что ИИ уходит сразу во всё, и тут значит что контекст широкий, если контекст в результате ответа получается шире, значит это та ситуация, которую надо самому поискать поизучать
поидее это и есть те самые +20%, в альтернативном случае тратятся теже 20% просто поиском и изучением

0x6b73ca
15.10.2025 14:46Я без исследований скажу что ИИ пагубно влияет, из собственного опыта, использую codex, кодит он доволи не плохо, я стал использовать в последнее время всё чаще и теперь я не понимаю что там в коде происходит, оно просто работает но я не понимаю как, а сидеть и изучать сотни строк кода что он написал у меня нету желания, и мне интересно сколько людей делают так же?

meowfield
15.10.2025 14:46Практически все участники использовали именно Cursor, с моделями Sonnet 3.5 или 3.7.3.5 вышло в июне 24 года, за это время много воды утекло. Хотелось бы посмотреть на что-то более свежее из исследований

SlavikF
15.10.2025 14:46Если я что-то знаю и умею, то зачем мне использовать AI или что-то ещё?
AI круто помогает там, где я с темой не знаком. Там, где мне пришлось бы многие часы "погружаться" в тему.
В исследовании сравнивали разработчиков, которые компетентны выполнить задачу. А надо было взять разработчиков, которые не знакомы с какими-то технологиями и посмотреть, сколько у них времени возьмёт...

CrashLogger
15.10.2025 14:46По своему опыту использования ИИ (Cursor) могу сказать, что он полезен только как генератор идей, если вообще не представляешь, как решить проблему. Просто сидишь перед монитором с пустым взглядом и ноль идей. Спрашиваешь у ИИ, получаешь какой-то ответ и понимаешь, что "О, вот сюда я еще не копал" и идешь копать. Такая резиновая уточка на стероидах. Но использовать в проде код, который он сгенерировал - боже упаси. Оно даже и не компилируется, бывает. Все надо переделывать самому.
Architect_01
Естественно, если пользователь будет использовать голый ИИ, который в принципе мало на что рассчитан - ну может как поисковик - то и результат будет соответствующим. Это всё равно, что дать ребёнку карандаш и ждать от него изображения сопоставимое с Да Винчи. Написание промта - дело сложное и долгое, тем более, если человек не имеет понятие, как составить промт. Ну и - собственно - какая база у использованного ИИ.
JVyacheslav
"Ты - сеньор в [стек] с 10 лет опыта. Мне нужно [что нужно максимально чётко]. Используй текущую кодовую базу, новейшие версии библиотек и фреймворков и лучшие подходы к программированию. Объясни коротко основной функционал твоих изменений в коде без лишней "воды"."
Этого даже более чем достаточно, чтобы ллм тебя поняла. Дальше это будет скорее перебор)
А что в вашем понимании "одетый"
LLMИИ? Курсор им дали, подключили Клод соннет, которая вроде очень хорошая в коде по мнению многих любителей ллм. Да и вроде в эксперименте они не как поисковик её использовали, а как кодера.randomsimplenumber
Теперь я знаю кунг фу! (Ц)
justingotch
А как составляется промпт? Может ли не разработчик иметь понятие, как составить промпт для задачи по разработке, а разработчик не иметь? Спрашиваю, т.к. часто сталкиваюсь, как далекие от разработки люди, которые сделали сайт какой-то вайбкодингом, говорят разработчикам, что они не умеют составлять промпт.