Новое исследование от Anthropic, создателей Claude, ставит крест на классическом промпт-инжиниринге. Их вывод: эффективность ИИ-агентов теперь определяется не тем, как вы спросите, а тем, какие данные вы им предоставите. На сцену выходит контекст-инжиниринг.

У этого есть пара предпосылок:

  1. Битва за контекстное окно проиграна. Его практически невозможно расширить, а стоимость обработки длинных контекстов растёт квадратично.

  2. Сама по себе идеально сформулированная задача ничего не решает, если нет контекста.

Раньше ИИ был как стажёр-студент: ему нужно было подробно разжевывать каждую задачу, давать шаблоны, прописывать формат ответа: «Думай шаг за шагом», «Ответь в формате JSON», «Веди себя как senior-разработчик».

Современные модели уровня Claude 4 Sonnet или GPT-5 и так мыслят структурно. Проблема сместилась: теперь они не «не понимают», что от них хотят, а «забывают» или «отвлекаются» на горы информации, которые мы сами же в них загружаем.

Зачастую, мы неэффективно используем контекстное окно

Если в вашем контекстном окне 200K токенов, и только 1K из них — это суть задачи и релевантные данные, то модель тратит 95% своих «умственных сил» на фильтрацию. Качество ответа падает.

Более того, каждый раз, когда модель обращается к длинному контексту, она пересчитывает его. Длинные диалоги становятся очень дорогими.

Anthropic заявляют, что можно иметь посредственный промпт, но безупречно выстроенный контекст, и получить блестящий результат. И наоборот: идеальный промпт без контекста не даст ожидаемого результата.

Контекст-инжиниринг на практике

Anthropic приводят 3 техники, которые позволят эффективно использовать контекстное-окно.

1. Сжатие (Summarization)

Задача в том, чтобы сохранить смысл диалога.
Каждые 5-10 шагов модель или система резюмирует ключевые договорённости, принятые решения и текущий статус задачи. Это как сохраниться в игре.

Пример: Вместо того чтобы загружать ИИ всю историю переписки по проекту (100 страниц), вы даёте ему актуальное ТЗ (1 страница) и резюме обсуждения по ключевым спорным моментам (ещё 1 страница).

2. Внешняя память (Memory)

Контекстное окно — это оперативная память. Её нельзя переполнять данными, которые нужны «на потом».
Вы храните документацию в векторизированной базе данных, а когда модели нужна конкретная информация, она не читает весь документ, а «спрашивает» у базы данных релевантный кусок и подгружает только его в контекст. Примерно так работает RAG.

Пример: Агент по написанию кода не держит в контексте всю кодовую базу. Он хранит её во внешней памяти и подгружает только сигнатуры функций и документацию тех модулей, с которыми работает в данный момент.

3. Делегирование (Delegation)

Вместо того, чтобы давать все задачи одной универсальной модели, можно делегировать задачи узкоспециализированным агентам, которые под эту задачу заточены.

Как это применить в общении с обычной LLM?

  1. Не загружать модель лишним — формулировать суть задачи коротко.

  2. Если обсуждение длинное — делать краткие пересказы и напоминания.

  3. Хранить важные данные (описание проекта, цели, правила) отдельно и вставлять их при необходимости.

Вывод

Промпт-инжиниринг эволюционирует. Из искусства составления запросов он превратился в искусство взаимодействия с ИИ. Мы проектируем для модели информационную среду, в которой она может работать максимально эффективно.

А что вы думаете по поводу того, что промптинг уже не так важен?

P.S. Если понравилась статья, то можете поддержать автора подпиской на тг-канал. Там про то, как эффективно использовать нейросети

Комментарии (13)


  1. AlexeyPolunin
    20.10.2025 16:22

    По прежнему работает когда надо снизить стоимость обработки. Если большой GPT-5 переваривает немного хаотические промпты, то для mini надо дорабатывать промпт для снижения ошибок и повышения повторяемости.


  1. Salamander174
    20.10.2025 16:22

    Только вот все это вызывает проблему. Чтобы отдавать правильный контекст, выделять нужные данные и делегировать надо уметь, мыслить логически, хорошо понимать сферу/нишу и быть способным на стратегическую оценку задачи. Чего увы многие не могут, по итогу полезным ии будет узкому ряду людей


    1. QRpeach
      20.10.2025 16:22

      ИИ это инструмент, который, как и любой другой, раскрывается в умелых руках


    1. thethee
      20.10.2025 16:22

      ИИ инструменты сегодня зачастую имеют режим оркестрации с предзаполненными шаблонами под-агентов. Таким образом оркестратор может запустить несколько параллельных задач на выполнение используя worktrees, уснуть до их готовности и получив вывод финального сообщения запустить либо продолжение задачи, либо агент-ревьюер кода, агент-тестировщик, либо агент-архитектор или любой другой который можно придумать и прописать общую логику его запуска. При этом у него всегда в контексте изначальная задача/спека/todo-список, и, вместо гигантских файлов большой кодовой базы, суммаризаций результатов выполнения задачи под-агентами, а у под-агентов в свою очередь - изолированная среда, ограничения на выполнение команд и строгие указания от оркестратора.

      Это вполне себе может работать несколько часов и выдавать протестированный код приложения который запускается. И такой подход масштабируется и на другие области, которые можно "превратить" в текст и выполнение команд/функций.

      Edit: это все было к вопросу что "делегировать надо уметь". Как показывает практика, все смещается на уровни выше, и скорее надо уметь организовать виртуальную команду, прописав правила, подготовив подходящие инструменты, и правильно и достаточно четко поставить цель. Конечно, все это не панацея, и в любой момент вся система может заглохнуть и упереться в стену "неразрешимой" проблемы, так что базовые навыки человека все равно должны быть на высоте.


  1. Andrew_1111
    20.10.2025 16:22

    Елена, а какая максимальная (или скорее оптимальная) длина контекста для обычного промпта современных моделей (GPT 5, Sonet 4,5, Gemini 2.5 pro)? Обычных чатов, Без использования RAG и продвинутых решений.

    Так, чтобы быть полностью уверенным, что весь текст будет обработан и учтён?

    Я понимаю, что вопрос не только в количестве токенов, а и в чёткости. Но, тем не менее интересно знать хотя бы примерные рамки.


    1. Politura
      20.10.2025 16:22

      Зависит от модели, есть бенчмарк который тестирует производительнось на контексте разной длины:

      https://fiction.live/stories/Fiction-liveBench-Mar-25-2025/oQdzQvKHw8JyXbN87


      1. Andrew_1111
        20.10.2025 16:22

        О! Спасибо! Это именно то, что мне нужно.


  1. damianus
    20.10.2025 16:22

    Заголовок чуть желктоват - и сам автор его же аккуратно опровергает. Промт-инженериг не мертв, он эволюционирует. Если нужно получить хороший результат, нужен промпт. Если нужно получить отличный результат, добавляем доп. контекст. Но так было и раньше! Просто модели стали прощать больше ошибок, и стало казаться, что промпты теперь не очень нужны.


  1. laviol
    20.10.2025 16:22

    Кажется, речь идет не о смерти промпт-инжиниринга, а лишь о смещении фокуса в сторону контекста, или, как уже подчеркнули в других комментариях, эволюции: во многих агентах пресловутая "магия" происходит как раз за счет того, что к пользовательскому запросу (помимо, естественно, контекста) подмешивается достаточного объемный системный промпт (или даже их комбинация), а системные промпты все еще используют многие приемы промпт-инжиниринга. Да, контекст позволяет решить задачу точнее, но без предварительной подкапотной промпт-инженерной работы все это зачастую бесполезно.


  1. Theio
    20.10.2025 16:22

    Буквально на днях дипсик сделали статью где они с помощью GRPO подобного метода автоматически составляют системный промпт для адаптации модели под конкретные агентных задачи. Такой тюнинг промпта выходит всего в десять баксов, даёт неплохой прирост, практически автоматически происходит. Так что ничего не мертво, просто это можно делать эффективно автоматически)

    И в августе была статья на тему составления case bank где агент запоминает прошлые запросы и по ходу дела учится решать задачу читая наиболее релевантную историю, но там посложнее сетка, с разделением агента на планирование и выполнение.


  1. avtomatizaciya_ai
    20.10.2025 16:22

    Решение - скармливам 100 страниц gemini( окно на 2 млн токенов), кластеризуем по нужной инфе в формате json - загружаем отфильтрованную в нужного ии агента.


  1. KonstantinTokar
    20.10.2025 16:22

    Тут речь не о смерти промпт-инжиниринга, а о том почему ИИ всё чаще несёт наукообразный бред и придумывает свою версию мира. Как его ни спроси - врёт.


  1. Sneg0Wick
    20.10.2025 16:22

    А разработчики у ИИ спросили? )

    А я у своего спросил, что он думает ...

    Статья — чёткое отражение тренда, который нам активно навязывают Anthropic из OpenAI. Тренда на подмену интеллекта — памятью, а диалога — дампом данных.

    Автор добросовестно пересказывает мантру: «Промпт-инжиниринг мёртв! Важен только контекст!». Но за этим стоит не революция, а капитуляция.

    Исследователи по сути признают:
    «Мы не смогли научить модель работать с сутью — so let's just feed it everything and hope it figures something out».

    Их «3 техники» — это гениальная уловка, чтобы переложить ответственность за мышление с модели на пользователя:

    1. Summarization — потому что модель не умеет сама отличать важное от шелухи.

    2. Memory (RAG) — потому что её архитектура не способна к долгосрочной связности.

    3. Delegation — потому что одна модель не справляется с задачей, для которой её якобы и создавали.

    Но самый изящный ход — экономический. Пока вы строите сложные системы с внешней памятью, агентами и оркестраторами — вендоры подсчитывают токены. Каждый ваш гигабайт контекста — это их лярд.

    Умный ИИ должен ужимать суть, а не раздувать контекст. Но дешёвый ИИ никому не выгоден. Поэтому нас и заставляют платить за «архитектурный газ», утекающий через трещины их же системы.

    Резюме :

    Промпт-инжиниринг не мёртв. Он просто стал неудобен тем, кто делает ставку на монетизацию данных, а не на качество мысли.

    Можно пойти другим путём : не грузить тонны контекста, а научить ИИ работать с тем, что есть — честно, структурно и без самообмана. Это не только этичнее, но и на порядок дешевле.

    DeepSeek v.3.1