Слева кадр из игры Labyrinth, в которой обучается агент искусственного интеллекта UNREAL. Программа фантазирует, как взять яблоко (+1 очко) и пирамидку (+10 очков), после чего произойдёт респаун в другом месте карты

Исследователи из британской компании DeepMind (собственность Google) опубликовали вчера интересную научную работу, в которой описывают неординарный метод обучения нейросети с подкреплением. Оказалось, что если в процессе самообучения нейросеть начинает «мечтать» о различных вариантах будущего, то тогда обучается гораздо быстрее. Сотрудники DeepMind подтвердили это экспериментально.

В научной статье объясняется работа интеллектуального агента Unsupervised Reinforcement and Auxiliary Learning (UNREAL). Он самостоятельно обучается проходить 3D-лабиринт Labyrinth в 10 раз быстрее, чем самое лучшее программное обеспечение типа ИИ на сегодняшний день. Эта игра отдалённо напоминает уровни первых 3D-шутеров, только без монстров и фашистов, специально разработана для тренировки нейросетей.

Конструкция Labyrinth впервые описана в предыдущей научной работе коллег из компании DeepMind.

Labyrinth


Программа UNREAL может играть в эту игру лучше 87% игроков-людей, а это довольно высокий результат.

«Наш агент намного быстрее тренируется и требует гораздо меньше входных данных из окружающего мира для тренировки», — объясняют сотрудники DeepMind и авторы научной работы Макс Ядерберг (Max Jaderberg) и Володимир Мних (Volodymyr Mnih). Такую нейросеть можно применять в разных задачах, а за счёт выдающихся характеристик она позволит быстрее и эффективнее прорабатывать различные идеи, над которыми работают исследователи.

Самообучение ИИ в играх — распространённая практика в разработке самообучаемых нейросетей с подкреплением.

ИИ от DeepMind учится играть в Atari Breakout


Это и понятно. Если ИИ научится хорошо играть в реалистичные компьютерные игры типа шутеров или симуляторов семейной жизни, то ему будет проще освоиться в реальном мире. В конце концов, в жизни человек тоже постоянно получает различные вознаграждения — улыбки окружающих, секс, деньги — и интеллектуально изменяет своё поведение, чтобы максимизировать количество вознаграждений. Также обучается и нейросеть с подкреплением.

Фантазии о будущем


Обучение нейросети с подкреплением происходит за счёт положительной обратной связи. Каждый раз при получении вознаграждения (в игре его роль выполняют яблоки) в нейросеть поступает положительный стимул. Эта игра отличается от многих других тем, что в ней частота вознаграждений относительно редкая, а агенту доступна только малая часть карты.

Как известно людям, редкие вознаграждения — именно то обстоятельство, которые объясняет положительное влияние мечты и фантазии.

Вот как объясняют работу UNREAL сами разработчики: «Рассмотрим ребёнка, который учится достигать максимального количества красного цвета в окружающем мире. Чтобы корректно предсказать оптимальное количество, ребёнок должен понимать, как увеличивать „красноту” в различных смыслах, включая манипуляции с красным объектом (приблизить его к глазам), собственное движение (приблизиться к красному объекту) и коммуникации (плакать, пока родители не принесут красный объект). Эти типы поведения вполне могут повториться во многих других ситуациях, с которыми столкнётся ребёнок».

Для агента UNREAL попытались реализовать примерно такую же схему достижения заданных целей, какая есть у описанного выше ребёнка. ИИ использует обучение с подкреплением для выработки оптимальной стратегии и оптимального значения целевой функции для многих псевдо-вознаграждений. Делаются другие дополнительные предсказания, чтобы обратить внимание агента на важные аспектах задачи. Среди этих предсказаний — долгосрочная задача предсказания общего вознаграждения и краткосрочная задача предсказания текущего вознаграждения. В игре Labyrinth это общее количество собранных яблок в игре и получение одного конкретного ближайшего яблока. Для более эффективного обучения при этом агенты используют механизм воспроизведения уже полученного опыта. «Как животные более часто мечтают о положительных или отрицательных вознаграждающих событиях, так и наши агенты предпочтительно заново воспроизводят последовательности, которые содержат вознаграждающие события».

Другими словами, иногда агенту ИИ даже не требуется заново проходить лабиринт, чтобы получить новые знания. Он просто использует свою память — и применяет новые стратегии как бы в своём воображении. Это и есть то самое, что исследователи называют фантазией.

Общая конструкция агента UNREAL изображена на иллюстрации. На ней изображён маленький буфер для хранения опыта (Replay Buffer), откуда берётся информация для генерации фантазий по краткосрочным и долгосрочным целям (Reward Prediction и Value Function Replay).



Фантазия (Reward Prediction) агента заключается в том, что по трём последним известным кадрам нейросеть должна предсказать вознаграждение, которое она получит на четвёртом неизвестном временном интервале.

На следующем видео показаны действия агента UNREAL в игре Labyrinth (зелёное яблоко даёт 1 очко, а красный объект — 10 очков; цель агента собрать 10 очков, после чего он переносится в другое место).


Кроме игры Labyrinth, агент UNREAL научился играть ещё в 57 винтажных игр Atari, такие как Breakout, намного быстрее и лучше, чем любые созданные ранее агенты. Скажем, прошлый чемпион среди агентов ИИ показывал результат примерно на 853% лучше топовых игроков-людей, а новый ИИ — на 880% лучше.

Результаты UNREAL во всех уровнях игры Labyrinth и Atari представлены на диаграммах. Аббревиатуры RP и VR соответствуют модулям фантазирования о краткосрочных и долгосрочных целях, а PC — модулю пиксельного контроля. UNREAL включает в себя все три модуля RP, VR и PC, а из остальных графиков мы можем понять вклад каждого модуля в общий успех агента.



Скептики


Несмотря на многочисленные научные исследования и успехи глубинного обучения нейросетей, находятся и скептики, которые сомневаются в перспективах этого направления для разработки ИИ. Например, бывший сотрудник компании IBM Сергей Карелов в телеграм-заметке «Снова о шарлатантстве в маркетинге науки и технологий» пишет:

Подход «данные на входе – действия на выходе», скорее всего, принципиально ошибочен для сколь-нибудь адекватного научного описания феномена человеческого сознания и всех связанных с ним понятий (интуиция и т.д.).

Первым это обосновал еще Джефф Хокинс в замечательной книге «Об интеллекте» (очень рекомендую всем, кто не любит разводилово про ИИ, но хочет понимать его реальные перспективы).

А сегодня к такому заключению склоняются все больше ученых мирового уровня, сфокусированных на изучении этой мульти-дисциплинарной области науки. Профессионально и не очень популярно (но здорово интересно) про это можно посмотреть тут.

К сожалению, Сергей Карелов не сказал, какой подход следует использовать учёным вместо той ерунды, которой они занимаются сейчас. Возможно, разработчики из компании DeepMind тоже хотят это знать.
Поделиться с друзьями
-->

Комментарии (20)


  1. Radmin
    18.11.2016 21:16
    +1

    В Supaplex нужно пустить этого "агента", я с удовольствием бы посмотрел на результаты обучения и попытки прохождения неизвестных уровней...


  1. DrZlodberg
    18.11.2016 21:33
    +2

    Мечтают ли андроиды…


    1. thatsme
      19.11.2016 08:59
      +2

      … об электроовцах?

      Зашёл проверить, есть ли здесь этот коментарий.

      А вообще я просто в восторге на букву о, от данного агента. Контроль визуального пространства как у геймера, страйфит и бэкпедалит, двигается эффективно.

      Ожидаем боевых дронов, вместо солдат в ближайшее 10-летие…


      1. igruh
        19.11.2016 11:49
        +1

        Напоминает начало крикунов.


  1. dorsett
    18.11.2016 22:43

    Было бы здорово сыграть во что-нибудь типа Master of Orion 2 с нормальным ИИ, тк в некоторых ситуациях он вставал в ступор и играть становилось неинтересно.


    1. handicraftsman
      19.11.2016 16:26

      dorsett, согласен. Особенно с этим резким и безпричинным изменением отношения к игроку, которое так или иначе приводит к войне.


  1. LorDCA
    19.11.2016 03:07
    +3

    Когда программа просчитывает варианты прежде чем совершить действие, то она «ФАНТАЗИРУЕТ»? Ну тогда шахматные программы просто неиссякаемый источник фантазий :)


    1. oPOCCOMAXAo
      19.11.2016 17:59
      +1

      Вы не путайте алгоритм, который жёстко задали программе, с ИИ и его обучением и принятием решений


      1. Dark_Daiver
        20.11.2016 13:06

        За UNREAL не скажу, но тот же AlphaGo, который «ИИ и его обучением и принятием решений» именно так и работал.


  1. ServPonomarev
    19.11.2016 08:32

    Глубокой сетке, чтобы сдвинуться, нужно подавать огромное количество обучающих образов. Поэтому, пройдя успешно лабиринт один раз (чисто случайно), они начинают прогонять его в памяти тысячи и миллионы раз — порождая тем самым с одного физического прохода большое число обучающих образов.

    Чисто техническое решение, от бедности, никакой «фантазии».


    1. red75prim
      19.11.2016 13:32
      +2

      У эволюции тоже фантазии немного. Нам треть жизни на что-то похожее приходится тратить.


    1. Zverienish
      19.11.2016 14:52
      +1

      У человека так же. Люди часто прогоняют в голове одни и те же ситуации, как способ получить этот опыт повторно, не повторяя ситуации.


    1. ilansk
      20.11.2016 13:05

      А может и наши фантазии — это технические решения мозга от бедности?


  1. Dr_Krasov
    20.11.2016 13:05

    Любопытно, что в новостях тема прошла под заголовком «В Google научили ИИ видеть сны». Сны и фантазии намного разные вещи: сон — обработка имеющейся информации в «свободное время», проигрывание новых сюжетов на основе того что было, а фантазия — ближе к теме планирования. Тоже на основе того что уже было, но с заданной целью.
    В данном случае alizar очень прав, то не упомянул про сны, чтобы не уводить читателя от сути.


  1. alexlcdee
    20.11.2016 13:05

    Обучить бы этого агента в доту играть. Было бы интересно, как такой ИИ стратегию построит.


    1. erwins22
      28.11.2016 12:18

      какая фора потребуется игрокам для сравнимой игры? 1000 золота?


      1. alexlcdee
        28.11.2016 13:19

        Да лучше не против игроков их пускать, а бот против бота. Ну и смотреть какие стратегии они проработают. А если против игроков пускать, то надо добавить вероятность принять ошибочное решение, и, в зависимости от уровня сложности, эту вероятность менять.


        1. erwins22
          28.11.2016 13:22

          Дота хороша тем, что в ней есть золото причем чем больше его на старте тем нехуже, а значит можно сравнивать рейтинг по золоту…


          1. alexlcdee
            28.11.2016 13:25

            Лучше уж по золоту в минуту в таком случае. Если боты слишком сложные, то докидывать каждому игроку по десяточке gpm и xpm)


          1. alexlcdee
            28.11.2016 13:41

            Но вообще, дота хороша не только тем, что в ней есть золото, но и тем, что им можно распорядиться по разному. Если знаком с дотой, то, вероятно, слышал про такое явление, как клуб Пайката: проиграть игру с 10к золота на руках = вступить в клуб Пайката.