Впервые в истории искусственный интеллект не просто обучается, а самостоятельно находит пути к собственному усилению. Он не следует алгоритму, а создаёт его сам. О новой разработке Японцев.

Если вы смотрели фильм “День, когда остановилась земля” или слышали про Зонд Фон-Неймана вам будет понятен принцип происходящего. Если нет – постараюсь объяснить простым языком.

Самообучающиеся ИИ (по сути ИИ-агенты) уже не фантастика. Но если я скажу что искусственный интеллект может переписывать собственный код, улучшая себя с каждым шагом, уже без помощи человека? 

Притом не просто обучаться на данных, а эволюционировать, как поколения живых существ. Именно такой прорыв сейчас заявила японская компания Sakana AI, разработав систему под названием Darwin Gödel Machine.

Её идея — соединить две мощные концепции: гипотетическую машину Гёделя, которая умеет улучшать себя с доказуемым результатом, и принципы Дарвина, где развитие происходит через вариации и отбор. Только вместо генов — строки кода, вместо окружающей среды — вычислительная платформа, а вместо выживания — рост производительности.

“Оригинальная Гёделева машина – программа, которая переписывает саму себя, если сама себе доказывает, что у данных ей задач есть более оптимальное решение.

Звучит сложно, и если проще – это как стратегия, где нужно победить за наименьшее количество шагов. 

Но в Sakana AI предложили чуток иное решение: отказаться от требования доказуемости и довериться эмпирике. Их ИИ генерирует множество версий собственного кода, запускает их в действие и сохраняет только те, что реально улучшают результат. Никакой теоретической гарантии — только факты: "это стало лучше" или "хуже". По сути, система работает так же, как и природа: мутации, отбор и выживание лучших.

И результаты впечатляют. В ходе эксперимента Darwin Gödel Machine переписывала агентов на основе популярных языковых моделей.

  • С моделью Claude 3.5 Sonnet (Anthropic) результат на SWE-bench вырос с 20% до 50%.

  • С моделью o3-mini от OpenAI — с 14.2% до 30.7% на бенчмарке Polyglot.

Главный вывод который пока удалось сделать — качество улучшений прямо зависит от вычислительных мощностей. Чем больше энергии и времени получает система, тем быстрее и умнее становится. 

Что особенно примечательно: теперь теория естественного отбора Дарвина начинает работать в среде, не имеющей никакого отношения к биологии. ИИ-агенты конкурируют, пробуют, умирают, улучшаются.

“Они начали обучать себя сами

А это как и почва размышлений о мрачных теориях будущего, так и возможно отправная точка технологической революции, которая сделает нашу жизнь совершенно иной.

Лицо машины на самообучении
Лицо машины на самообучении

И эта технология может быть полезной. Может быть нейтральной. Может стать конкурентом, или врагом. Но главное — она будет непредсказуемой, потому что её развитие уже не полностью подвластно нашему контролю. Нам осталось понять: успеем ли мы эволюционировать вместе с тем, что создаём?

И к слову, я веду блог о технологичных компаниях, которые привносят в мир инновации, и успешно реализуют себя на бирже, на pre-IPO и IPO-стадиях и рассказываю где их можно купить.

Комментарии (11)


  1. Neikist
    11.06.2025 12:53

    Генетические алгоритмы давно не новость. Чуть другой подход, но по сути то же самое. Я так понял что улучшаются не сами модели, а софт для агентов.


    1. onlyahead Автор
      11.06.2025 12:53

      Если разобраться, то и AI тоже не ново. Еще в 1957 Percetron изобрели. Важнее когда технология достигла точки практического применения.


  1. karmael
    11.06.2025 12:53

    отказаться от требования доказуемости

    и результаты впечатляют

    не блохо


    1. onlyahead Автор
      11.06.2025 12:53

      Не вырвали из контекста?)
      Речь о доказуемости варианта решения, который эффективней текущего, а не доказуемости самой задачи)


  1. Yrninibg
    11.06.2025 12:53

    Генетические алгоритмы существуют уже лет 30 держу в курсе


  1. proxy3d
    11.06.2025 12:53

    А вы пробовали гонять по кругу сетки, чтобы она написала код? Например, я помню пример сдвига формант речи. Функция небольшая, но главное это ее логика реализации. Да, llm в итоге ее написали и она стала выполняться без ошибок. Только делала она совсем не то.

    Как данный подход позволяет решить такие задачи? То есть исполняемый код они таким образом сделают. Но он часто будет мусором.

    То же самое было с написанием сложных SQL процедур на postgres для отчётов. SQL выполняется, результат нулевой. Ок, у нас на выходе будет результат идеальный для сравнен, он подгонят, а на других данных работать не будет. И хуже всего, когда его занесло не туда, дальше только хуже. Он не может пересмотреть весь подход и начать все сначала.


    1. Moog_Prodigy
      11.06.2025 12:53

      Я пробовал, 2000 вариантов за пару суток , условный промпт "это не работает, перепиши заново", скрипту пофиг что оно там написало, когда диффы вариантов начали биться в 96% и в ответах преобладало "ну я уже все сделал, что ты от меня еще хочешь то???" "я уже устал это переписывать", результат на выходе был очень хорошим. Почти идеальным. Но оцените трудоемкость такого подхода. Контекст был плавающим, т.к. в локальные модельки много контекста не засунешь, ну тут хотя бы 3 предыдущие итерации помнить и пойдет.

      Так бывает не всегда, многое зависит от модельки и от промпта. Но тем не менее это работает. Долго и нудно. Но работает. Если же даже итоговый результат плох, значит моделька не тянет, в большинстве случаев.

      Разумеется это не для платных llm - иначе разоритесь.


      1. proxy3d
        11.06.2025 12:53

        Какая конкретно была задача на входе? Так как оценивать надо по задаче. Так как от постоянного переписывания модели теряют детали прошлые и часто выкидывают важное или упрощают. Постоянно такое происходит, от LLM не зависело. Пробовал гонять между двумя тремя крупными LLM, аналогичным образом. Вроде на выходе идеально и правдоподобно и аргументировано по каждому пункту, но как начнешь разбирать, там чушь полная оказывается. Поэтому хочется понять, какие задачи подходят, а какие нет.


      1. artmel
        11.06.2025 12:53

        Не нужно так делать.

        Если не написало рабочее с первого раза, вернитесь в начало и уточните промпт , указав что не нужно делать. Также используйте метапромптинг для подробного ТЗ.


      1. holodoz
        11.06.2025 12:53

        Есть только проблема, как отличить ситуацию "сейчас допишет" от "моделька не тянет"