В сентябре нейросети «обскакали» студентов на Международной студенческой олимпиаде по программированию в Баку. Они были во внеконкурсе, но если бы участвовали на общей основе, то GPT-5 заняла бы первое место, решив 12 заданий из 12, а Gemini 2.5 Deep Think — второе с 10 заданиями из 12. И самое интересное: всего за полчаса «гугловская» нейросеть справилась с задачей «C», которую не смогла решить ни одна из человеческих команд. 

Привет, Хабр! Меня зовут Кирилл Пшинник, я научный сотрудник Университета Иннополис и CEO онлайн-университета zerocoder.ru. Поговорим о прорыве, совершенном Google DeepMind, и о том, можно ли это вообще считать прорывом. 

Что случилось

Международная студенческая олимпиада по программированию, она же International Collegiate Programming Contest, ICPC, — это крупнейшее и старейшее студенческое соревнование по спортивному программированию, которое в своем текущем виде проводится с 1977 года. Участники в командах по три человека решают алгоритмические задачи на время, используя только один компьютер, так что в этом деле огромное значение имеют не только знания, но и работа в команде. Сегодня ICPC считается «чемпионатом мира» по программированию среди студентов и служит стартовой площадкой для многих будущих инженеров ведущих IT-компаний.

Нейросети принимают участие в состязании «вне конкурса», по крайней мере, пока. И в этом году GPT-5 и Gemini 2.5 Deep Think проявили себя лучше, чем все человеческие конкурсанты, включая топовых участников из России, Китая и Японии. 

Что студенты не смогли решить, так это задание «C». Оно требовало найти способ распределить жидкость по сети взаимосвязанных каналов к неско��ьким резервуарам с целью подобрать такую конфигурацию каналов, которая заполнит все резервуары как можно быстрее. Каждый канал мог быть открыт, закрыт или приоткрыт, так что возможных вариантов решения было бесконечно много, что и делало задачу настолько сложной. 

И действительно — задачка оказалась сложновата. Зато ее решили GPT-5 и Gemini 2.5 Deep Think, причем последняя справилась за полчаса. 

График показывает, как быстро нейросеть от Gemini решала каждое из 12 заданий. Все задачи, кроме E и J, были решены нейросетью с одной попытки. С B и G она не справилась. 

Как решила задачу Gemini 2.5 Deep Think

Gemini предположила, что у каждого резервуара есть значение, отражающее, с каким приоритетом он должен обслуживаться в сравнении с другими. Потом, исходя из своего предположения, Gemini пришла к выводу, что наилучшую конфигурацию каналов можно найти при помощи алгоритма динамического программирования — достаточно задать набор приоритетов. Затем наш искусственный интеллект применил теорему минимакса, сведя исходную задачу к поиску таких приоритетных значений, при которых результирующий поток оказывается наиболее ограниченным. Используя взаимосвязь между приоритетами и оптимальными потоками, Gemini применила вложенный тернарный поиск для быстрого нахождения оптимальных значений приоритетов в «чашеобразном» выпуклом пространстве решений. На этом задание C было решено. 

Что это значит

С одной стороны, компьютерные мощности оказались «умнее» студентов, или такое могло сложиться впечатление. С другой стороны, это демонстрирует способности нейросети как идеального партнера для программистов. Как пишут в блоге DeepMind, «если бы лучшие человеческие и ИИ-решения были объединены в рамках состязания, все 12 задач были бы решены полностью и корректно. Это показывает потенциал, который есть у искусственного интеллекта в деле предоставления уникальных, новаторских решений, которые дополняют скиллы и знания человеческих экспертов». 

Согласно данным от Google, в соревновании участвовала нейросеть Gemini общего назначения, но специально натренированная решать сложные программистские и математические задачи. Они же называют свой ИИ «историческим шагом в сторону AGI», то есть, общего искусственного интеллекта. 

Считать ли это прорывом

Практически каждый успех нейросетей сейчас называют «шагом на пути к AGI». Сам концепт AGI стал неким недостижимым идеалом, к которому стремятся абсолютно все разработчики искусственного интеллекта. И пока достичь его не удалось — и остается вопрос, удастся ли, — все достижения ИИ будут считаться шагом по направлению к мечте. 

Это не первый раз, когда компьютеры побеждают человека на состязаниях. Все мы помним историческое сражение Гарри Каспарова с компьютером Deep Blue от IBM в 1997 году. Тогда Каспаров победил в первой игре, компьютер одолел его во второй, следом шли три «ничьи», и в шестой игре Big Blue закрепил свою победу. Тогда это продемонстрировало, что компьютеры способны выиграть у человека, пусть и в достаточно узком профиле. 

Похожая ситуация сложилась и в 2016 году с системой AlphaGo от DeepMind, натренированной играть в го — одну из самых сложных из всех созданных человечеством игр. Тогда AlphaGo выиграла со счетом 4-1 у признанного мастера игры в го, южнокорейского профессионала Ли Седоля. 

И теперь мы получили 2025 год и победу на крупнейшем студенческом соревновании по программированию. Пусть и во внеконкурсе. 

Хотя говорить о «шаге к AGI» довольно поспешно, результаты Gemini действительно впечатляют. Два года назад я проверял, сможет ли GPT-4 поступить в МГУ, причем использовал самый обычный чат-бот, не натренированный специально решать математические упражнения. Мой маленький эксперимент показал, что в вуз нейросеть не поступила бы, но вполне закрыла бы аттестат на «хорошо» по школьным знаниям. Интересно было бы повторить свой эксперимент еще раз — теперь с GPT-5 или героиней сегодняшней статьи Gemini 2.5 Deep Think. Вполне возможно, что им удалось бы пройти на мехмат. 

А что вы думаете по этому поводу? Можно ли считать победу Gemini на ICPC шагом по направлению к AGI, и вообще, честно ли сравнивать компьютеры и человека, когда дело касается состязаний по программированию? 

Комментарии (26)


  1. strelkove
    23.10.2025 08:27

    Что за Big Blue такой, который победил Каспарова?


    1. BigVal
      23.10.2025 08:27

      Ну конечно это Deep Blue
      https://habr.com/ru/articles/241531/


    1. kpshinnik Автор
      23.10.2025 08:27

      Действительно Deep Blue, не уследил за автокорректом


  1. Refridgerator
    23.10.2025 08:27

    А то, что Gemini - это и есть продукт топовых программистов - разве противоречия не вызывает? А в самой статье так и вообще речь о студентах и олимпиадных задачах. То есть тех задачах, решение которых известно заранее их составителям.


    1. namee
      23.10.2025 08:27

      Ещё в 90х, написал на бейсике крестики-нолики, которые невозможно было выиграть (Можно было либо в ничью сыграть, либо проиграть). И задался вопросом, умнее ли я этой программы.


      1. rpc1
        23.10.2025 08:27

        Я на паскале такое писал, три уровня сложности, на первом ходы случайны, на третьем, невозможно выиграть


        1. Vasya1209
          23.10.2025 08:27

          теперь исчо шахматы так же осталось написать... и по формуле байеса шоб считала вероятность того что противник читер )


          1. RadioPizza
            23.10.2025 08:27

            Так уже есть крутые шахматные движки, например Stockfish


    1. nikulin_krd
      23.10.2025 08:27

      Есть такое когнитивное искажение - «предвзятость подтверждения» или в народе «натянуть сову на глобус». Вот тут оно во всей красе


  1. georgri
    23.10.2025 08:27

    Студенты-олимпиадники - не то же самое, что топовые программисты мира.

    Потом, обычно в каждом туре Олимпиады сразу даётся по несколько задачек. Есть вероятность, что команды и не особо-то пытались решить эту конкретную задачу, сразу оценив ее как наиболее трудоёмкую, и бросив все свои силы на другие задачи тура.

    Наконец, LLM эти как раз и натренированы на решение олимпиадных задач, поэтому тут особо нечему удивляться. Нюанс в том, что условие подобной задачки очень точно сформулировано и помещается в относительно маленькое контекстное окно, и нейросети не надо анализировать местами противоречивую документацию или тонны легаси кода, как в реальных проектах.


    1. RadioPizza
      23.10.2025 08:27

      Реальная разработка и олимпиадное программирование - совершенно разные вещи. Большинство топовых разработчиков не справятся с олимпиадой такого уровня, а олимпиадники наоборот - с крупным высоконагруженным проектом.


  1. sergeyns
    23.10.2025 08:27

    Ну нельзя писать такие статьи, не приводя какие собственно были задачи... а судя по описанию решений - AI выигрывает просто за счет скорости перебора подходов...


    1. 4qqqq
      23.10.2025 08:27

      Конечно, нельзя. Приходится дополнять в комментариях: https://worldfinals.icpc.global/problems/2025/finals/problems/problemset.pdf


  1. Mizantrop777
    23.10.2025 08:27

    Отключите этим ИИ интернет - и ничего они решить не смогут. С интернетом любой дурак решит


    1. RadioPizza
      23.10.2025 08:27

      А кто сказал что они использовали интернет?


  1. Mr_Cheater
    23.10.2025 08:27

    Я не понял, а как ИИ решал? Ему на вход дали условие задачи, и он полчаса корпел над решением, повесив курсор в окне вывода, и потом выдал решение? Или полчаса оператор (программист, участник олимпиады, представитель гугла - кто там работал с сеткой) корректировал данные? И как вообще происходил процесс? Знал ли оператор решение задачи заранее?

    Короче, одни вопросы…


    1. kpshinnik Автор
      23.10.2025 08:27

      Представители OpenAI написали пост в твиттере:

      "Мы официально участвовали в очном AI-треке ICPC с тем же лимитом времени — 5 часов на решение всех двенадцати задач, отправляя решения в локальную систему ICPC World Finals Judge. Они оценивались идентично и одновременно с решениями участников мирового чемпионата ICPC. Мы получили задачи в точно таком же PDF-виде, и система рассуждений самостоятельно выбирала, какие ответы отправлять — без какой-либо специальной надстройки или ручных корректировок во время выполнения"

      Источник: https://venturebeat.com/ai/google-and-openais-coding-wins-at-university-competition-show-enterprise-ai

      При этом известно ещё и то, что Gemini 2.5 Deep Think стартовала на 10 минут позднее, чем участники-студенты: https://www.notebookcheck.net/Gemini-2-5-Deep-Think-achieves-gold-medal-level-at-ICPC-2025.1122767.0.html

      Больше никакой открытой информации не нашлось. Но не думаю, что оператор корректировал данные, скорее всего, машина сама перебирала варианты, пока не нашла решение проблемы.


  1. Stasikslayer
    23.10.2025 08:27

    прекрасно, заголовок "не осилили топовые программисты мира" а в статье про студентов


    1. kpshinnik Автор
      23.10.2025 08:27

      Ваша правда, исправил. Постараюсь вкладывать меньше эмоций в заголовки )


  1. amazingname
    23.10.2025 08:27

    Не сильно честное соревнование. Такого рода задачи точно были в обучающем материале, агенту нужно было только подшаманить решение.

    Пока если агент решает реальную задачу кодинга, даже простые задачи он решает так себе, часто переусложняет.


  1. Nik_Otin
    23.10.2025 08:27

    Я не очень понял причем тут программисты. Программисты не смогли написать программу или не смогли решить задачу? Если вопрос в решении задачи, то это не работа программиста. Это все-равно что обвинять программистов в неправильном диагнозе при лечении больного.


    1. NikkiG
      23.10.2025 08:27

      Олимпиада была по программированию


  1. UpWinger
    23.10.2025 08:27

    Мне не совсем понятен смысл термина AGI. Назовите мне хоть один класс задач, с которыми современный AI справлялся бы хуже среднего человека?


    1. Vest
      23.10.2025 08:27

      Забить гвоздь в стену


      1. UpWinger
        23.10.2025 08:27

        Недооцениваете вы современных роботов...

        Впрочем, из 3-й буковки в AGI явствует, что речь идёт о задачах интеллектуальных - о чём мне, конечно, следовало уточнить ;)


        1. Vest
          23.10.2025 08:27

          А вы думаете, это — просто?