
Когда мы говорим о “глубоких исследованиях”, чаще всего имеем в виду сервисы, которые сами планируют поиск, бродят по источникам, собирают цитаты и выдают аккуратный отчет. Это удобно, но почти всегда жестко привязано к одной стратегии и одному семейству моделей. Авторы Universal Deep Research (UDR) предлагают новый подход: дать пользователю выбрать любую LLM и самому задать стратегию исследования — без обучения моделей и сложной настройки. По сути, это обертка над LLM плюс компилятор стратегий из естественного языка в исполняемый код, который можно проверять, повторять и изменять.

Почему так важно отделить модель от стратегии
Сегодняшние инструменты deep research — Gemini, Perplexity, OpenAI Deep Research, Grok DeepSearch — хорошо ищут и аккуратно формируют отчет, но прячут ключевые рычаги. Пользователь почти не влияет на приоритеты источников, кросс‑валидацию, контроль стоимости вызовов, не может подменить “мозги” системы на свою любимую LLM, а главное — не может описать собственную, предметно‑специфичную тактику. Это особенно бьет по тем, кто работает в финансах, праве, здравоохранении и других высокоценных доменах, где цена ошибки велика, а требования к проверке источников жесткие.
UDR пытается закрыть три пробела сразу:
гибкий контроль источников, проверок и бюджета;
возможность задавать специализированные стратегии под домен;
свободная компоновка: любую стратегию можно запускать на любой LLM.
Как это устроено изнутри
Система работает в две фазы. Сначала стратегия, описанная простым списком шагов (на человеческом языке), превращается LLM в единый исполняемый код с понятным управлением и ограниченным набором инструментов (поиск, ранжирование, извлечение и т. п.). На этом этапе от модели требуют строгого соответствия: каждый кусок кода снабжен комментарием, какой пункт стратегии он реализует. Это сильно снижает риск, что LLM “срежет углы”, пропустит шаг или добавит лишние ограничения.
Далее код исполняется в изолированной “песочнице” с детерминированными вызовами инструментов. Все промежуточные данные живут в именованных переменных состояния, а не в растущем контексте чата — поэтому хватает даже небольшого окна (в экспериментах — 8k). Рассуждения LLM используются как утилиты: суммаризация, извлечение фактов, ранжирование. Оркестрация — это уже обычный код на CPU, а не скрытая “магия” внутри промта. Прогресс пользователь видит через поток уведомлений: стратегия сама решает, когда и что показывать.

Что дает такой подход
Надежность. Цельный код оказался стабильнее, чем длинные промты с рассуждениями или пошаговая генерация фрагментов. Меньше каскадных сбоев, проще аудит.
Эффективность. Разделение ролей снижает стоимость: LLM вызывается только там, где нужна ее интеллектуальная работа, а не для всего процесса.
Прозрачность. Уведомления, переменные состояния и воспроизводимый финальный отчет делают путь к результату прослеживаемым.
Безопасность. Исполнение в изоляции ограничивает риски от пользовательского кода — важный момент для корпораций.
Авторы показывают три семейства стратегий: минимальную (быстрый проход), экспансивную (широкое покрытие тем), и интенсивную (несколько итераций с переосмыслением поисковых фраз). Каждую можно править под ��адачи: от проверки гипотез в R&D до юридической проверки документов. Важно, что UDR не навязывает свою “агентность”: если в стратегии не задано свободное рассуждение, система не будет импровизировать.
Интерфейс для экспериментов
Поверх ядра есть простой UI: ввод промта, выбор и редактирование стратегии, поток уведомлений, просмотр отчета. Можно остановить исследование и сгенерировать промежуточный результат.

В демонстрациях стратегия минимального уровня на Llama 3.3 70B уверенно выдавала аккуратные отчеты по культурным и историческим запросам, по датам и новостным дням, а также по биографиям с требованиями к структуре и ссылкам. Важный момент — следование правилу “только из прочитанного в контексте”, что дисциплинирует модель и снижает риск домыслов.

Почему это важно
UDR аккуратно разводит модели и агентную логику. Это открывает двери к новым проверенным стратегиям для массовых сценариев. Производители LLM могут конкурировать качеством рассуждений, а разработчики — качеством стратегий, не мешая друг другу. Для организаций это путь к контролируемым, воспроизводимым исследованиям с четким управлением стоимостью и рисками.
***
Если вам интересна тема ИИ, подписывайтесь на мой Telegram-канал - там я регулярно делюсь инсайтами по внедрению ИИ в бизнес, запуску ИИ-стартапов и объясняю, как работают все эти ИИ-чудеса.