CEO Nvidia Джен-Сан Хуанг показывает DGX-1 Илону Маску, сооснователю OpenAI

Открытая некоммерческая организация OpenAI, которая занимается исследованиями в области искусственного интеллекта, получила от компании Nvidia суперкомпьютер DGX-1. Сейчас специалисты из OpenAI работают над «слабой» формой ИИ. Ученые разрабатывают системы, способные обрабатывать огромное число первичных данных, выдавая структурированный массив информации. Для этого необходимы мощные компьютеры, а DGX-1 — очень мощный вычислительный комплекс. Nvidia заявляет, что в основе DGX-1 лежит новое поколение графических процессоров, которые обеспечивают скорость обработки данных, сравнимую с 250 серверами x86 архитектуры.

Создателями OpenAI являются Илон Маск и Сэм Альтман. Основные задачи организации — привлечение ученых, работающих в сфере ИИ, для совместной работы. Результаты исследований планируется сделать открытыми и доступными для всех желающих. По мнению основателей, все это поможет предупредить появление «злого» искусственного интеллекта. О такой угрозе много раз заявлял Маск.

Позиционируется DGX-1 как первый в мире суперкомпьютер для глубокого обучения, обладающий достаточной вычислительной мощью для развития ИИ. При помощи этого суперкомпьютера исследователи из OpenAI смогут обучать слабую форму ИИ гораздо быстрее, чем в случае работы с обычными серверами. На первом этапе ИИ обучат понимать текстовое общение людей. Кладезем разума в этом случае будет служить Reddit. Сообщения ресурса будут «скармливать» ИИ, а тот будет учиться понимать связь между отдельными словами, их группами и предложениями. Задача усложнена тем, что текст с Reddita насыщен жаргонизмами, сокращениями, это не академические тексты.

Андрей Карпаты (Andrej Karpathy), исследователь из OpenAI, говорит, что самообучающийся ИИ будет становиться все умнее с течением времени. «Глубокое обучение — особый класс моделей, поскольку чем больше сама модель, тем она лучше работает», — говорит он.

Язык остается важной проблемой для разработчиков искусственного интеллекта. И хотя многие проблемы решены, еще больше предстоит решить. Не так давно в Google провели эксперимент, когда самообучающуюся систему тренировали при помощи диалогов из фильмов. Спустя некоторое время оказалось, что ИИ дает вполне сносные ответы на относительно сложные вопросы. Иногда попытка сблизить слабую форму ИИ и людей дает неожиданные результаты. В марте этого года корпорация Microsoft запустила в Twitter бота-подростка Tay, и тот всего за сутки обучился плохому. После этого работники Microsoft сочли за лучшее удалить практически все сообщения Tay и отправили его «спать».

Ученые из OpenAI хотят понять, может ли робот выучить язык, взаимодействуя с людьми в реальном мире. Эксперимент с Reddit — первый этап в намеченной серии экспериментов. Благодаря DGX-1 обучение будет проходить гораздо быстрее, чем планировалось. ИИ можно будет обучать на примере больших, чем планировалось, массивов данных. Кроме текста, ИИ будут обучать методом проб и ошибок для выполнения ряда действий. Такой метод можно использовать для обучения искусственного интеллекта игре в видеоигры. Возможно, он сможет понять, что накопление игровых монеток в ряде игр позволяет повышать количество заработанных очков и улучшает способности персонажа.



Зачем все это нужно? В практическом плане слабую форму ИИ можно использовать во многих сферах. Например, создать робота, который способен выполнять работу по дому. И такой робот будет работать с течением времени все лучше и лучше, поскольку он способен учиться. Слабая форма ИИ нужна и для улучшения работы автономных автомобилей, разрабатываемых сейчас рядом компаний, включая Google. Что касается сильной формы ИИ, то здесь стоит опасаться, чтобы он не начал использовать в своих целях людей, о чем неоднократно упоминал Маск.

Ряд исследователей подвергает сомнению выполнимость задачи OpenAI по созданию «хорошего» искусственного сверхинтеллекта. По словам представителей самой организации, угроза создания злонамеренного ИИ нивелируется тем, что технологии, результаты разработок доступны всем. В то же время Ник Бостром, ученый из Оксфорда, считает, что именно открытость может привести к негативным результатам. То, что результатами исследований все делятся со всеми, говорит Бостром, и может стать проблемой. «Если у вас появилась кнопка „сделать всем плохо“, вряд ли вы захотите поделиться ей со всеми», — заявляет Бостром. Но в случае OpenAI эта кнопка будет доступна всем и каждому. В случае, если организация будет скрывать результаты своей работы, которые она считает опасными, то существование OpenAI потеряет свой смысл, поскольку организация уже не будет открытой.

Тем не менее, считает Бостром, положительные результаты работы тоже должны быть. Главный результат — это снижение вероятности контроля сверхинтеллекта какой-либо компанией в случае создания сильной формы ИИ. Монополизация сильной формы ИИ — это плохо, а OpenAI, скорее всего, позволяет уменьшить вероятность такого развития событий.
Поделиться с друзьями
-->

Комментарии (10)


  1. shokedjobana
    17.08.2016 16:14
    +9

    То чувство когда сам хуанг вставляет тебе видеокарту


  1. betrachtung
    17.08.2016 18:29
    +4

    Использовать для обучения ИИ реддит — это они, конечно, здорово придумали. Спасибо, что не форчан.


    1. Boberto
      17.08.2016 23:43
      +2

      Прям такой Бендер из футурамы получится. С очень своеобразным чувством юмора, сарказмом и непробиваемым цинизмом.


  1. atomlib
    17.08.2016 20:51

    В принципе, уже есть /r/SubredditSimulator на цепях Маркова.


  1. Roboserv
    17.08.2016 21:36
    +1

    Прочитал диалоги из пейпера гугла (диалог про службу поддержки особенно) и стало как-то не по себе, хотя я всеми руками за ИИ. Через лет 5 такие ИИ будут везде и будут сносно разговаривать и отвечать на вопросы. Вот бы совместить Ватсона с нейронными сетями (как в пейпере). Выходит что работу будут терять сотни тысяч людей из службы поддержки, люди принимающие заказы, низкоквалифицированные консультанты и пр. И это хорошо :)

    Сам пейпер от гугла http://arxiv.org/pdf/1506.05869v3.pdf


    1. Mad__Max
      18.08.2016 04:43

      Да, неплохо сетка болтает.
      Меня правда наоборот разговоры на общие темы впечатлили — где ее тренировали на базе данных из субтитров к фильмам.
      По IT поддержке ее просто накормили узкоспециализированной базой, где персонал(живой) техподдержки общался с пользователями и одни и те же основном однотипные проблемы/вопросы тысячи раз решал лишь с небольшими вариациями — натренироваться на таких данных давать схожие с людьми ответы/советы не сложно. Тут вменяемое поведение очень даже ожидаемо — если за пределы темы не выходить.

      А они в свободный доступ не открывали ее пообщаться?


      1. Roboserv
        18.08.2016 18:30

        Не знаю, пейпер уже «старый» 2015 года и у меня не было времени поискать более новые на эту тему от гугла. По ссылки у них тут сотни статей — http://research.google.com/pubs/papers.html


  1. claymen
    17.08.2016 21:42

    А вот интересно, алгоритм будет открытым, но суть ИИ не только в алгоритме, а в его так сказать наполнении, его базы знаний… Как её проверить, о чём он думает...???
    Я так понимаю даже две копии одинакового алгоритма могут принять разные решения о судьбе человечества ....:))


    1. Mad__Max
      18.08.2016 03:55

      Тут о нейронных сетях говорят. В их случае алгоритм и его «база знаний» это одно и тоже и не отделимы друг от друга.
      А вот проверить как он «думает» почти невозможно будет — нет конкретной строчки кода или еще какой-то формального описания логики, которая отвечает за конкретное принятое решение. Только огромная куча связей и их весов между электронными нейрончиками.


  1. GreyhoundWeltall
    18.08.2016 09:16

    Вспоминается «бот» микрософта, который «обучался» силами аналогичного сообщества)