
В научных данных часто скрыты простые законы — уравнения, которые объясняют зависимость между величинами. Но найти их непросто: пространство формул огромное, данные бывают шумными, а перебор вариантов быстро захлёбывается. Символическая регрессия как раз и пытается восстановить такую компактную формулу. Многие подходы или перебирают деревья решений, или учат нейросети предсказывать готовые формулы. В обоих случаях LLM обычно лишь подсказывает идеи, а всю логику поиска жёстко задаёт человек.
Авторы SR‑Scientist предлагают иной взгляд: пусть LLM станет автономным учёным. Агент сам анализирует данные, пишет и запускает код, строит и проверяет уравнения, оптимизирует константы и шаг за шагом улучшает гипотезы, опираясь на экспериментальную обратную связь. Вся работа — как у настойчивого исследователя, только в машинном темпе.

Как это устроено изнутри.
Агент действует в стиле ReAct: на каждом шаге рассуждает, вызывает инструмент, смотрит на результат и решает, что делать дальше. Инструментов два. Первый — аналитик данных: с помощью кода смотрит статистики и делает выборки. Второй — оценщик уравнений: принимает “скелет” формулы, численно подбирает константы и возвращает метрики. Это избавляет от бесконечного велосипеда в коде и даёт честное сравнение разных гипотез.
У агента есть память — буфер опыта с лучшими уравнениями и их качеством. В новых итерациях модель видит эти находки и целится в более строгую цель по ошибке. Так поддерживается прогресс на длинном сценарии, даже при ограничении на число шагов и вызовов LLM.
Метрика, на которую ориентируется поиск, — MAPE в процентах. Она удобна, когда масштабы данных разные. Для сопоставимости с другими методами дополнительно отбирают формулу с наименьшим NMSE.
Обучение через подкрепление.
Чтобы агент научился не просто “думать вслух”, а системно доводить гипотезу до хорошего результата, авторы строят синтетический учебный набор по четырём дисциплинам и учат политику через Group Relative Policy Optimization. Награда непрерывная: чем ближе к целевому MAPE, тем выше. Важно, что это снижает разреженность сигнала: агент не ждёт редких “побед”, а видит градиент улучшений.

Что показали эксперименты.
Датасет LSR‑Synth покрывает материаловедение, химию, биологию и физику; есть обычные и вне‑доменные тесты. Главная метрика — accuracy‑to‑tolerance: доля примеров, где относительная ошибка укладывается в заданный порог. На таком бенчмарке SR‑Scientist стабильно превосходит бейзлайны. Абсолютный прирост точности — от 6% до 35% в зависимости от домена и модели. На GPT‑OSS‑120B достигается Acc_0.01 = 63.57% и Acc_0.001 = 49.35%. Отдельно заметен вклад обучения с подкреплением: на Qwen3‑Coder‑30B оно поднимает качество во всех дисциплинах.


Важна не только численная точность, но и символическая — совпадение структуры формулы с истинной. Здесь агент тоже впереди: 7–8 точных совпадений против 4–5 у лучших конкурентов на тех же настройках. Авторы показывают кейсы из физики, где найденные выражения совпадают с эталоном по ключевым условиям и физическому смыслу.

Что влияет на успех
Абляции честно показывают слабые места. Если выкинуть анализ данных, качество заметно падает: агенту трудно понять, где и почему ошибается гипотеза. Если убрать буфер опыта, прогресс рвётся — удачные формы не протаскиваются между итерациями. Ещё один практический момент — баланс длины сценариев и числа итераций: после ~25 шагов на попытку лучше инвестировать ресурс в дополнительные итерации, а не в сверхдлинные рассуждения.

Почему это важно
Большая языковая модель здесь не генератор красивых формул, а активный участник научного процесса. Она строит модель мира на лету: из данных — к гипотезам, через код — к проверке, по обратной связи — к улучшению. Минимум ручного оркестрирования, максимум автономии. Именно такой дизайн и усиливается RL‑обучением: агент учится мыслить длиннее и действовать эффективнее.
Вывод по сути прост: если дать LLM правильные инструменты и научить её жить в длинном горизонте, она начинает работать как внимательный исследователь. SR‑Scientist демонстрирует прирост точности, лучшую переносимость, устойчивость к шуму и более высокую символическую точность — всё то, что важно в реальном научном применении.
***
Если вам интересна тема ИИ, подписывайтесь на мой Telegram‑канал — там я регулярно делюсь инсайтами по внедрению ИИ в бизнес, запуску ИИ-стартапов и объясняю, как работают все эти ИИ-чудеса.
Комментарии (9)

Grey83
17.10.2025 12:30который открывает законы природы
Но пока ни одного так и не открыл?
без участия человека
Т.е. человек не участвует ни при создании запроса, ни при интерпритации и проверке полученого результата?

n0isy
17.10.2025 12:30Ещё бегает, где-то: мешается, вопросы глупые задаёт, публикации в архив делает, выдавая их за свои /s

Einherjar
17.10.2025 12:30ИИ даже в powershell-скриптах упорно комментарии через // вместо # пишет, открытия с такими инструментами это где то рядом с бесконечным числом обезъян которые напишут "войну и мир".

retinoblastoma
17.10.2025 12:30Так смысл то верный подставлен, и то коммент и то коммент. Фуллстек программисты сами часто так путают, какой тут надо ставить символ коммента, если без IDE писать...
Есть ли правильное векторение, что используем powershell? Что в системном промте и самом вопросе задачи при таких глюках?
VAF34
Без любопытства не может быть никакого открытия. Где любопытство у автомата? И, вообще, возможно ли любопытство у автомата.
n0isy
"Я согжу твой сервер, если ты не изобретешь что-то новенькое".
Хммм... Любопытно...
Hardcoin
Необоснованное утверждение. Вам просто интуиция подсказывает, что «любопытство» - необходимый компонент. Обосновать научно вы вряд ли сможете.
VAF34
Любопытство заставляет действовать, выбирать направление действия, ничего подобного у современных вариантов ИИ конкретно поясненного я не встречал.