Маленькие дети прекрасно понимают, что будет, если перевернуть стакан с соком. А вот машины нет. Несмотря на все многообразие современных алгоритмов компьютер не в состоянии предсказать последствия того либо иного своего действия. Конечно, если этот компьютер специально не обучить.

Группа исследователей из Института искусственного интеллекта Пола Аллена (Allen Institute for Artificial Intelligence, AI2) разработала программу, которая помогает слабой форме ИИ «понять», что произойдет при выполнении того либо иного действия. ПО «предсказывает» будущее, показывая, как может повести себя тот либо иной объект в определенных условиях. Это, говорят ученые, поможет ИИ делать меньше ошибок. Например, автономный автомобиль сможет «предсказать» последствия развития той либо иной ситуации на дороге.

Система, разработанная Рузбехом Моттаги (Roozbeh Mottaghi) и его коллегами, демонстрирует особенности ряда объектов. В программной платформе, созданной учеными, используется машинное обучение и 3D моделирование. Исследователи преобразовали более, чем 10 000 изображений в объемные сцены. Для этого использовался специализированный 3D движок.

После преобразования исходные изображения и их объемные аналоги загружались в нейронные сети. В результате компьютерная система понемногу обучалась на примере простых 3D объектов и движений этих объектов. После того, как система получила определенное количество пар «изображение — 3D модель», она научилась самостоятельно предполагать, какие силы могут быть приложены к трехмерному объекту, и какие могут быть последствия проявления этих сил.

Нельзя сказать, чтобы работа шла очень гладко. Но ситуаций, в которых компьютер мог предсказать поведение трехмерного объекта при взаимодействии с ним, оказалось больше, чем ситуаций, когда машина не понимала, что может случиться. ИИ «понял», например, что если степлер, лежащий на краю стола, толкнуть, то он упадет. Также система успешно показала ситуацию с кофейным столиком и диваном. ИИ смог «понять», что если кофейный столик двигать направлению к дивану, то столик непременно упрется в диван и дальше двигаться не сможет.

«Наша цель — изучить динамику физического движка. Вы должны научиться предсказывать возможное поведение объектов представленной сцены», — говорит руководитель проекта.

Результаты этой работы могут быть полезными для многих сфер. Так, далеко не везде применим метод проб и ошибок. В случае робомобиля это абсолютно исключено. Компьютер должен предсказывать возможное развитие ситуации, и делать это очень быстро. Сбор и анализ данных в таких ситуациях — это очень важно. Здесь можно привести еще один пример. Система обслуживания клиентов в магазине тоже не может сталкивать с полок товары, для того, чтобы понять последствия своих действий. Это дорого обойдется владельцу магазина и отпугнет клиентов.



Работа, которую выполняют ученые, является частью проекта Project Plato. Его цель — дать роботизированным системам возможность понимать последствия своих действий без проверки этого на практике. В частности, системы со слабой формой ИИ, которые используется в проекте, понимают, как будет двигаться лыжник, спускающийся с горы. Они понимают и то, как будет двигаться футбольный мяч, который только что отправил в полет футболист. Такие события и их последствия ИИ должен научиться понимать в режиме реального времени.

За последние годы компьютерные системы заметно «поумнели». Они уже могут анализировать изображения с последующей разбивкой по категориям, идентификацией элементов изображений и тегированием. Брендэн Лейк (Brendan Lake), специалист из Нью-Йоркского университета, считает, что проект Ai2 является важным для современного мира. «Понимание сцены — это гораздо сложнее, чем распознавание объектов», — говорит Лейк. «Когда человек видит кадр какой-либо сцены, он в состоянии рассказать целую историю о том, что происходит или что может происходить на указанном кадре». В идеале, машина должна уметь то же самое.

Конечно, пока что человек значительно превосходит возможности машины в приведенном примере. Но задача ученых — научить компьютерные системы анализировать возможные последствия своих действий. О том, чтобы компьютеры в этом смысле стали равны человеку или превзошли его, пока речи нет. Но и на текущем этапе это может быть очень полезным для целого ряда сфер.

Ученые, принимающие участие в проекте, не скрывают результаты своей работы. Исходный код, набор данных и все остальное можно получить по этой ссылке для самостоятельного изучения.
Поделиться с друзьями
-->

Комментарии (25)


  1. San_tit
    31.08.2016 08:43

    Может тут стоит попробовать автоматически генерировать 3d модель окружающей среды по данным датчиков (камеры, лидеры) и прогонять модель в каком-нибудь физическом движке…


  1. 74311
    31.08.2016 09:12

    маленькие дети прекрасно понимают что если перевернуть стакан с соком будет ата-та,
    иерархию подчинения понимают намного раньше(методом приучения), чем получат ответы.
    потом из них вырастают взрослые дядьки, только в моем окружении, только за прошлую неделю- один из которых варил лестницу в погребе, обложенном торфом-погреба больше нет, другой решил спилить торчащие в гаражной яме остатки арматур, какая нафиг разница что яма промаслена в сало и что в ней стоит тазик с какой то горючкой-теперь лежит не шевелясь(и это еще легко отделался, так сказать обманул эволюцию)… для того чтобы двигать дело вперед-люди идут на вероятностные решения зачастую с позиции авось(конечно не без глупостей, видимо в силу своей ограниченности)… машинам будет нелегко, нужно больше датчиков(не только визуальных), чтобы понимать например разделение сред в стакане, формы, устойчивости систем и факторы способные эти системы вывести из равновесия, дальше все несколько проще-предсказать как отдельные элементы поведут себя при данных условиях(которые тоже нужно не просто запомнить, а время от времени сверять, не изменилось ли что)… будут ли машины работать с вероятностными событиями? будет забавно на это посмотреть


    1. Sixshaman
      31.08.2016 10:35

      А что произойдёт, если спилить арматуру в промасленной яме? Её же не газовой горелкой спиливают. Искры? Нагрев от трения? Откуда возьмётся огонь? Правда интересно.


      1. sergku1213
        31.08.2016 10:47

        Я думаю, что от искр сначала воспламенились пары горючего в тазике, а промасленная яма являлась лишь вишенкой на торте — для полного и окончательного уничтожения объекта. Хозяин, к счастью, успел выбраться, а вот гараж теперь наверное придётся строить заново.


      1. knowy
        01.09.2016 00:17

        Болгаркой ее спиливают, и искры от нее вполне могут поджечь плотную сухую ткань, а уж пары от какого-то тазика — плевое дело.


      1. Mad__Max
        07.09.2016 21:43

        Видимо вы никогда болгаркой приличную сталь не резали — там такой фонтан искр с диска летит, примерно как от бенгальских огней. Разница только что огни во все стороны, а тут относительно направленный сноп искр получается но зато «бъющий» дальше чем от бенгальских.

        Вот так примерно это обычно выглядит если сталь более-менее твердая(с начала 2й минуты если метка времени не сработает): https://youtu.be/jeIdF1xlLb8?t=2m


  1. Danov
    31.08.2016 09:41

    Исследователи придумали прототип зеркальных нейронов.


    1. wormball
      31.08.2016 14:22

      Исследователи придумали костыль. Вот ежели бы оный робот сам бы мог строить модели, исходя из собственного опыта, причём не только модели комнаты с мебелью — вот тогда бы было другое дело.


      1. Sadler
        01.09.2016 07:37

        Что значит «сам бы мог» по отношению к наличию/отсутствию зеркальных нейронов? Они (нейроны) должны самозародиться или как? Если уж так подходить, то у нас тоже такой «костыль» имеется, и мы вполне примеряем на себя чужой опыт.


        1. wormball
          02.09.2016 02:06

          Начнём с того, что нас интересуют не сами зеркальные нейроны, а механизм обучения путём созерцания чужого (да и не только чужого) опыта. В котором у нас с вами _гипотетически_ принимают участие зеркальные нейроны. Как справедливо заметили в каментах к соседнему посту, упоминание зеркальных нейронов всуе ничего не объясняет. Ибо как они работают и как работает упомянутый механизм — это на сегодняшний день тайна за семью печатями.

          Что хорошего в этом смысле можем мы и не может машина? Мы можем сами выстраивать в мозгу различного рода модели, а затем их использовать. А что мы видим здесь? Модель уже задана добрыми программистами, а нейросеть только учится сопоставлять фотографии предварительно размеченным состояниям модели. Ежели вдруг надо будет не тумбочки двигать, а, скажем, в преферанс играть — то модель отправится в унитаз, и надо будет ручками задавать ещё одну модель (и не факт, что она хорошо себя покажет). Тогда как мы с вами можем даже по словесному описанию составить модель. А затем уточнять её сообразно полученному опыту. Что в обсуждаемом случае, насколько я понял, напрочь отсутствует. Другими словами, я здесь не увидел ничего сколько-либо революционного, чего раньше не умели нейронные сети.


          1. Sadler
            02.09.2016 07:27

            Вы здесь говорите об оптимизационных задачах ИИ, но почему-то подразумеваете создание искусственного разума. Как только ИР появится, конечно, он должен будет без всякой подгонки модели решать любую задачу, которую способен решать разум естественный. А пока серебряной пули нет, так что давайте без фантастики.


            1. wormball
              02.09.2016 12:43

              Вот уж извините. Статья называется «Машины как дети..» и размещена в хабе «Искусственный интеллект». Что как бы подразумевает, что нам сейчас будут толкать нечто, претендующее ежели не на разгадку тайны интеллекта, то по крайней мере на сколько-либо заметное продвижение на оном поприще. На что, собственно, и повёлся предыдущий оратор, упомянув всуе зеркальные нейроны. А я ему собственно и ответствовал, что ничего хоть сколько-либо прорывного и приближающего машины к человеческой способности учиться я в статье не увидел.

              > А пока серебряной пули нет, так что давайте без фантастики.

              Ну это, серебряную-то пулю тоже должен кто-то делать. А ежели сделать не получается, то по крайней мере можно пообсуждать. Для чего, на мой взгляд, и служат подобные статьи и каменты под ними.


    1. Crystal_Ra
      31.08.2016 18:59

      Да это все путь «делать по подобию», копирование у старших ))) — чтобы вырасти самим


  1. Vasyutka
    31.08.2016 10:35

    Исследователи такие исследователи! Еще с 90х готов в области игровых ИИ (например гонки) только так и живут. Рассчитывают физику в будущее и выбирают лучшую траекторию. То же самое в шахматах — дерево решений.


    1. geisha
      31.08.2016 11:05

      Ну да, в заглавии написано про последствия своих действий, хотя обсуждение идет именно механики окружающего мира. Последнее, конечно, можно смоделировать.

      Вообще, эта статья про ученого изнасиловавшего журналиста.


  1. mozgi
    31.08.2016 11:22
    +1

    «Маленькие дети прекрасно понимают, что будет, если перевернуть стакан с соком. А вот машины нет.»

    Маленькие дети понимают это только после обучения. В чём здесь принципиальная разница с машиной?


    1. Tirathangil
      31.08.2016 11:34

      Маленькая поправочка — после самообучения. Маленькие дети (до 3-х лет) совершают, на первый взгляд, совершенно глупые и бессмысленные вещи (бросят там что-нибудь, кота за ухо подергают и т.д.). Так вот, они делают действие и смотрят, что будет. Получают первичные навыки работы с окружающей средой. Подобные механизмы в принципе, возможно реализовать у ИИ.


      1. Lemiort
        01.09.2016 00:19

        Хотел бы посмотреть на робоясли, где сотни новеньких роботов дёргают манекены котов за ушей, кидают мячики и суют робо-пальцы в робо-розетку


        1. Tirathangil
          01.09.2016 09:23

          Посмотрите на любого чат-бота — они вас явно чему-то научат, и необязательно хорошему :)


    1. IVIol4un
      31.08.2016 13:29

      Абсолютно верно, чтобы начать понимать, что будет, если перевернуть стакан с соком — его нужно несколько раз опрокинуть.


  1. oneiroid
    31.08.2016 11:31

    хо-хо, ждал подобной новости давно. ии делает симуляцию развития ситуации. осталось только заставить его включать самого себя как объект симуляции — и феномен сознания будет на монитор (лицо), йу-ххууу


    1. Hardwar
      31.08.2016 14:12

      Добавим к такому способность придумывать алгоритмы для классов задач — и сильный ИИ будет, в общем-то, готов.


  1. NET_KOT
    31.08.2016 12:40

    Несмотря на все многообразие современных алгоритмов компьютер не в состоянии предсказать последствия того либо иного своего действия. Конечно, если этот компьютер специально не обучить.
    Ну есть же в шахматах какой-то самообучающийся алгоритм. Там просто необходимо предсказывать последствия не только своих действий, но и противника.


    1. Sadler
      01.09.2016 07:48

      Задача интеллекта — предсказание в условиях неполных и противоречивых данных. Это не значит, что нет неинтеллектуальных алгоритмов, способных к предсказанию конкретной задачи в условиях неполных данных. При игре против идеального переборного алгоритма, способного оценить все возможные ходы в шахматах, оппонент-человек в общем случае не сможет определить, играет он против интеллектуальной системы или переборной.


  1. GreenGoblin
    31.08.2016 15:26

    Это действительно шаг в сторону сильного ИИ. Нужно еще включить в модель Я, причем определенным(непонятно каким) образом. Еще нужна подсистема для общения на каком-то языке. А также подсистемы постановки целей, переключения контекста по ассоциациям и многое другое. В наших мозгах все это, судя по разным поломкам(синдромы Котара, Капгра, дислексия, аутизм...) сделано на уровне архитектуры. Найдем правильный способ способ сложить кирпичики — получим сильный ИИ. А подлежащий слой может быть каким угодно, и вовсе не обязательно это должны быть модные нынче нейронные сети.