Новое исследование от Anthropic, создателей Claude, ставит крест на классическом промпт-инжиниринге. Их вывод: эффективность ИИ-агентов теперь определяется не тем, как вы спросите, а тем, какие данные вы им предоставите. На сцену выходит контекст-инжиниринг.
У этого есть пара предпосылок:
Битва за контекстное окно проиграна. Его практически невозможно расширить, а стоимость обработки длинных контекстов растёт квадратично.
Сама по себе идеально сформулированная задача ничего не решает, если нет контекста.
Раньше ИИ был как стажёр-студент: ему нужно было подробно разжевывать каждую задачу, давать шаблоны, прописывать формат ответа: «Думай шаг за шагом», «Ответь в формате JSON», «Веди себя как senior-разработчик».
Современные модели уровня Claude 4 Sonnet или GPT-5 и так мыслят структурно. Проблема сместилась: теперь они не «не понимают», что от них хотят, а «забывают» или «отвлекаются» на горы информации, которые мы сами же в них загружаем.

Зачастую, мы неэффективно используем контекстное окно
Если в вашем контекстном окне 200K токенов, и только 1K из них — это суть задачи и релевантные данные, то модель тратит 95% своих «умственных сил» на фильтрацию. Качество ответа падает.
Более того, каждый раз, когда модель обращается к длинному контексту, она пересчитывает его. Длинные диалоги становятся очень дорогими.
Anthropic заявляют, что можно иметь посредственный промпт, но безупречно выстроенный контекст, и получить блестящий результат. И наоборот: идеальный промпт без контекста не даст ожидаемого результата.

Контекст-инжиниринг на практике
Anthropic приводят 3 техники, которые позволят эффективно использовать контекстное-окно.
1. Сжатие (Summarization)
Задача в том, чтобы сохранить смысл диалога.
Каждые 5-10 шагов модель или система резюмирует ключевые договорённости, принятые решения и текущий статус задачи. Это как сохраниться в игре.
Пример: Вместо того чтобы загружать ИИ всю историю переписки по проекту (100 страниц), вы даёте ему актуальное ТЗ (1 страница) и резюме обсуждения по ключевым спорным моментам (ещё 1 страница).
2. Внешняя память (Memory)
Контекстное окно — это оперативная память. Её нельзя переполнять данными, которые нужны «на потом».
Вы храните документацию в векторизированной базе данных, а когда модели нужна конкретная информация, она не читает весь документ, а «спрашивает» у базы данных релевантный кусок и подгружает только его в контекст. Примерно так работает RAG.
Пример: Агент по написанию кода не держит в контексте всю кодовую базу. Он хранит её во внешней памяти и подгружает только сигнатуры функций и документацию тех модулей, с которыми работает в данный момент.
3. Делегирование (Delegation)
Вместо того, чтобы давать все задачи одной универсальной модели, можно делегировать задачи узкоспециализированным агентам, которые под эту задачу заточены.
Как это применить в общении с обычной LLM?
Не загружать модель лишним — формулировать суть задачи коротко.
Если обсуждение длинное — делать краткие пересказы и напоминания.
Хранить важные данные (описание проекта, цели, правила) отдельно и вставлять их при необходимости.
Вывод
Промпт-инжиниринг эволюционирует. Из искусства составления запросов он превратился в искусство взаимодействия с ИИ. Мы проектируем для модели информационную среду, в которой она может работать максимально эффективно.
А что вы думаете по поводу того, что промптинг уже не так важен?
P.S. Если понравилась статья, то можете поддержать автора подпиской на тг-канал. Там про то, как эффективно использовать нейросети
Комментарии (13)

Salamander174
20.10.2025 16:22Только вот все это вызывает проблему. Чтобы отдавать правильный контекст, выделять нужные данные и делегировать надо уметь, мыслить логически, хорошо понимать сферу/нишу и быть способным на стратегическую оценку задачи. Чего увы многие не могут, по итогу полезным ии будет узкому ряду людей

thethee
20.10.2025 16:22ИИ инструменты сегодня зачастую имеют режим оркестрации с предзаполненными шаблонами под-агентов. Таким образом оркестратор может запустить несколько параллельных задач на выполнение используя worktrees, уснуть до их готовности и получив вывод финального сообщения запустить либо продолжение задачи, либо агент-ревьюер кода, агент-тестировщик, либо агент-архитектор или любой другой который можно придумать и прописать общую логику его запуска. При этом у него всегда в контексте изначальная задача/спека/todo-список, и, вместо гигантских файлов большой кодовой базы, суммаризаций результатов выполнения задачи под-агентами, а у под-агентов в свою очередь - изолированная среда, ограничения на выполнение команд и строгие указания от оркестратора.
Это вполне себе может работать несколько часов и выдавать протестированный код приложения который запускается. И такой подход масштабируется и на другие области, которые можно "превратить" в текст и выполнение команд/функций.
Edit: это все было к вопросу что "делегировать надо уметь". Как показывает практика, все смещается на уровни выше, и скорее надо уметь организовать виртуальную команду, прописав правила, подготовив подходящие инструменты, и правильно и достаточно четко поставить цель. Конечно, все это не панацея, и в любой момент вся система может заглохнуть и упереться в стену "неразрешимой" проблемы, так что базовые навыки человека все равно должны быть на высоте.

Andrew_1111
20.10.2025 16:22Елена, а какая максимальная (или скорее оптимальная) длина контекста для обычного промпта современных моделей (GPT 5, Sonet 4,5, Gemini 2.5 pro)? Обычных чатов, Без использования RAG и продвинутых решений.
Так, чтобы быть полностью уверенным, что весь текст будет обработан и учтён?
Я понимаю, что вопрос не только в количестве токенов, а и в чёткости. Но, тем не менее интересно знать хотя бы примерные рамки.

Politura
20.10.2025 16:22Зависит от модели, есть бенчмарк который тестирует производительнось на контексте разной длины:

https://fiction.live/stories/Fiction-liveBench-Mar-25-2025/oQdzQvKHw8JyXbN87

damianus
20.10.2025 16:22Заголовок чуть желктоват - и сам автор его же аккуратно опровергает. Промт-инженериг не мертв, он эволюционирует. Если нужно получить хороший результат, нужен промпт. Если нужно получить отличный результат, добавляем доп. контекст. Но так было и раньше! Просто модели стали прощать больше ошибок, и стало казаться, что промпты теперь не очень нужны.

laviol
20.10.2025 16:22Кажется, речь идет не о смерти промпт-инжиниринга, а лишь о смещении фокуса в сторону контекста, или, как уже подчеркнули в других комментариях, эволюции: во многих агентах пресловутая "магия" происходит как раз за счет того, что к пользовательскому запросу (помимо, естественно, контекста) подмешивается достаточного объемный системный промпт (или даже их комбинация), а системные промпты все еще используют многие приемы промпт-инжиниринга. Да, контекст позволяет решить задачу точнее, но без предварительной подкапотной промпт-инженерной работы все это зачастую бесполезно.

Theio
20.10.2025 16:22Буквально на днях дипсик сделали статью где они с помощью GRPO подобного метода автоматически составляют системный промпт для адаптации модели под конкретные агентных задачи. Такой тюнинг промпта выходит всего в десять баксов, даёт неплохой прирост, практически автоматически происходит. Так что ничего не мертво, просто это можно делать эффективно автоматически)
И в августе была статья на тему составления case bank где агент запоминает прошлые запросы и по ходу дела учится решать задачу читая наиболее релевантную историю, но там посложнее сетка, с разделением агента на планирование и выполнение.

avtomatizaciya_ai
20.10.2025 16:22Решение - скармливам 100 страниц gemini( окно на 2 млн токенов), кластеризуем по нужной инфе в формате json - загружаем отфильтрованную в нужного ии агента.

KonstantinTokar
20.10.2025 16:22Тут речь не о смерти промпт-инжиниринга, а о том почему ИИ всё чаще несёт наукообразный бред и придумывает свою версию мира. Как его ни спроси - врёт.

Sneg0Wick
20.10.2025 16:22А разработчики у ИИ спросили? )
А я у своего спросил, что он думает ...
Статья — чёткое отражение тренда, который нам активно навязывают Anthropic из OpenAI. Тренда на подмену интеллекта — памятью, а диалога — дампом данных.
Автор добросовестно пересказывает мантру: «Промпт-инжиниринг мёртв! Важен только контекст!». Но за этим стоит не революция, а капитуляция.
Исследователи по сути признают:
«Мы не смогли научить модель работать с сутью — so let's just feed it everything and hope it figures something out».Их «3 техники» — это гениальная уловка, чтобы переложить ответственность за мышление с модели на пользователя:
Summarization — потому что модель не умеет сама отличать важное от шелухи.
Memory (RAG) — потому что её архитектура не способна к долгосрочной связности.
Delegation — потому что одна модель не справляется с задачей, для которой её якобы и создавали.
Но самый изящный ход — экономический. Пока вы строите сложные системы с внешней памятью, агентами и оркестраторами — вендоры подсчитывают токены. Каждый ваш гигабайт контекста — это их лярд.
Умный ИИ должен ужимать суть, а не раздувать контекст. Но дешёвый ИИ никому не выгоден. Поэтому нас и заставляют платить за «архитектурный газ», утекающий через трещины их же системы.
Резюме :
Промпт-инжиниринг не мёртв. Он просто стал неудобен тем, кто делает ставку на монетизацию данных, а не на качество мысли.
Можно пойти другим путём : не грузить тонны контекста, а научить ИИ работать с тем, что есть — честно, структурно и без самообмана. Это не только этичнее, но и на порядок дешевле.
DeepSeek v.3.1
AlexeyPolunin
По прежнему работает когда надо снизить стоимость обработки. Если большой GPT-5 переваривает немного хаотические промпты, то для mini надо дорабатывать промпт для снижения ошибок и повышения повторяемости.