image
Рекламный постер для фильма «Терминатор: Генезис»

На прошлой неделе частная некоммерческая организация "Future of Life Institute" (FLI), расположенная в Бостоне (США), объявила о том, что получила значительный раунд финансирования в размере $10 миллионов. Основную часть пожертвования в $7 миллионов сделал Илон Маск, остальная часть денег была передана другой некоммерческой организацией Open Philanthropy Project. Основное занятие FLI состоит в поиске специализированных исследовательских групп, которые работают в области искусственного интеллекта, и их финансировании. Одна из целей, которую ставят перед учёными, получающими гранты от FLI, это разработка безопасного для человечества «компьютерного разума», который не привёл бы в будущем к глобальной катастрофе.

Миллионы долларов от главы SpaceX и группы Open Philanthropy Project разделят между собой 37 исследовательских групп, которые работают в хорошо известных университетах и хорошо себя зарекомендовали. BusinessInsider перечисляет некоторые из таких научных проектов. К примеру, объединённая группа из учёных университетов Беркли и Окфорда занята созданием алгоритмов, которые обучаются человеческим предпочтениям, что в дальнейшем помогло бы искусственному интеллекту вести себя «как человеку». Сотрудники университета Дьюка (США, Северная Каролина) ставят перед собой более амбициозную цель: они хотят разработать систему искусственного интеллекта, которая могла бы выносить решения с учётом «человеческой морали». В университете Денвера работают фактически над способами противодействия «Скайнету», занимаясь вопросами возможной утраты контроля над роботизированным вооружением.

В конце ноября прошлого года Илон Маск отметился в публичной дискуссии в интернете по поводу безопасности искусственного интеллекта. Судя по словам главы SpaceX, он с опаской относится к возможности компьютеров размышлять и прогнозирует появление «чего-то очень опасного в пределах 5-10 лет», подразумевая под этой опасностью как раз ИИ. По неизвестной причине комментарий Маска исчез через несколько минут после публикации, однако другие пользователи Edge.org успели его сохранить в виде скриншота. Пресс-секретарь Маска обещал в будущем представить официальное мнение своего шефа по этому вопросу, однако этого, судя по всему, пока что не произошло.

Нельзя не отметить, что Маск фактически придерживается мнения известного британского учёного Стивена Хокинга, который ещё ранее высказался следующим образом: «Все эти достижения [в разработке искусственного интеллекта] меркнут на фоне того, что нас ждет в ближайшие десятилетия. Успешное создание искусственного интеллекта станет самым большим событием в истории человечества. К сожалению, оно может оказаться последним, если мы не научимся избегать рисков». Хокинг считает, что исследованию безопасности ИИ посвящено слишком мало серьёзных научных работ и слишком мало существует научных организаций, которые могли бы этим заниматься. Интересно, что среди таких организаций Хокинг упомянул и FLI. Существует ли какая-либо связь между Стивеном Хокингом и Илоном Маском достоверно неизвестно.

Существует и альтернативная точка зрения от учёных, правда, не с таким громким именем как у профессора Хокинга. Они полагают, что вопрос выхода искусственного интеллекта из-под контроля — это скорее тема для научно-фантастических фильмов, чем для серьёзных опасений. Прочитать их контраргументы можно здесь.

Комментарии (19)


  1. rPman
    07.07.2015 17:45
    +1

    10 миллионов баксов!

    Все понятно. Для того, чтобы ответить на вопрос, опасен ли искусственный интеллект, необходимо сначала его создать, и посмотреть.

    Основное занятие FLI состоит в поиске специализированных исследовательских групп, которые работают в области искусственного интеллекта, и их финансировании.


    1. Unrul
      07.07.2015 18:24
      +5

      Скорее наоборот. Создание теории, которая строго обосновывает безопасность ИИ, скорее всего является ИИ-полной задачей. Аналогия из повседневности: чтобы починить автомобиль, нужно понимать, как он работает, иначе ремонт сведётся к протирке стёкол и пинанию колёс.


  1. norlin
    07.07.2015 17:55

    Интересно было бы почитать про методики оценки, сценарии тестов и т.д. и т.п. На крайний случай – хотя бы список возможных угроз (с обоснованиями).


    1. Unrul
      07.07.2015 18:02

      Рекомендую по этой теме книгу "Superintelligence: Paths, Dangers, Strategies". Так как раз обо всём этом говорится в понятном формате. Если поискать, то можно найти даже аудиоверсию.


  1. Kroid
    07.07.2015 21:29
    +1

    Как странно. Заходя под хабракат, ожидал увидеть в статье/комментариях про Элиезера Юдковски, но все молчат.


    1. bogolt
      08.07.2015 11:39
      +1

      Ну если вы просите:
      «ИИ не испытывает к вам ни любви ни ненависти но вы состоите из атомов, которые он может использовать как-нибудь иначе» Элизар Юдовский


  1. wormball
    08.07.2015 03:03
    +1

    В свете последних событий (ну например academ.info/news/32302?print=1) я всё больше убеждаюсь, что человечество ежели и не уничтожит себя, то загонит в средневековье. Так что единственный шанс на продолжение разумной жизни — это искусственный интеллект, даже ежели он не будет дружественным к кускам мяса.


    1. Unrul
      08.07.2015 09:57

      Говоря про разумную жизнь, мы обычно подразумеваем нечто, похожее на человека. Если не по форме, то по сути. Человек стал человеком в результате эволюционных процессов, что сильно повлияло на наше восприятие реальности. Совершенно не обязательно, что процесс мышлении у ИИ будет хоть как-то напоминать человеческий. В результате, можно получить результат не просто плохой, а унылый до невозможности. Вроде превращения большей части видимой вселенной в завод по производству скрепок.


      1. wormball
        08.07.2015 13:29

        > Совершенно не обязательно, что процесс мышлении у ИИ будет хоть как-то напоминать человеческий.

        В деталях, может быть, и не будет. С другой стороны, я не думаю, что будет принципиальная разница.

        > В результате, можно получить результат не просто плохой, а унылый до невозможности.

        Ну гарантии, конечно, нет. С другой стороны, нет гарантии, что и человечество не скатится в унылое говно (более того, уже вовсю катится). Зато «думающим машинам» будет не в пример проще осваивать космос, так что ежели на одной отдельно взятой планете произойдёт скатывание, её всегда можно будет заново заселить.

        > Вроде превращения большей части видимой вселенной в завод по производству скрепок.

        Зато у нас нынче пытаются превратить отдельно взятое государство (а в перспективе и планету) в завод по производству скреп. А вот дальше планеты с таким подходом вряд ли получится продвинуться.

        > Человек стал человеком в результате эволюционных процессов, что сильно повлияло на наше восприятие реальности.

        Лично я полагаю, что и сильный ИИ (то бишь такой, который победит человечество) должен также возникнуть благодаря дарвиновской эволюции. Ну то бишь на собственной шкуре прочувствовать, что такое борьба за существование, политические игры и т. п. Я не думаю, что можно вот так с кондачка запрограммировать завод по производству скрепок, который в погоне за своей целью походя победит человечество. А ежели будет дарвиновская эволюция — то будет и разнообразие (по крайней мере некоторое время). А ежели они начнут заселять космос прежде, чем разнообразие на отдельно взятой планете будет сведено к нулю — то, скорее всего, разнообразие не исчезнет до самой смерти вселенной.


  1. corvus
    08.07.2015 03:39
    +4

    Вести себя как человек? Руководствоваться человеческой моралью?

    Открываем наугад любую главу человеческой истории и получаем полное представление о человеческом поведении и морали — убийства, кражи, вымогательство, шантаж, насилие и предательство.

    Хороший, блин, ИИ получится, Уильям Гибсон обрадуется.


    1. Unrul
      08.07.2015 09:38

      То, что вы сейчас критикуете подобные вещи, и, я уверен, с этой критикой согласно большинство читающих Хабр, только подтверждает существование адекватных моральных принципов. Если бы морали не существовало, то вы бы просто не смогли сделать подобные суждения.


      1. wormball
        08.07.2015 13:38
        +4

        А кто сказал, что наши моральные принципы адекватны? И что значит адекватны? И кто сказал, что у ИИ не будет морали или она будет менее адекватна, нежели у нас? И какой толк в морали, ежели она не исполняется? Вам будет легче, ежели вас замочит ИИ, руководствующийся высокой моралью?

        Миссионер в пустыне встретился со львом. В ужасе он молится:
        — О, Великий Боже! Молю тебя, внуши этому льву христианские чувства!
        Лев поднимает глаза к небу и молвит:
        — Благослови, Господи, пищу, которую я сейчас приму.


      1. corvus
        10.07.2015 02:53
        +1

        Беда т.н. человеческой морали не в ее наличии или отсутствии.

        Беда в ее гибкости, ее способности оправдать абсолютно всё, от геноцида до полета в космос.

        Лично мне такой ИИ с такой вот гибкостью не просто не нужен, он меня пугает до усрачки.


        1. Unrul
          10.07.2015 08:44

          Вот и Маска он пугает по сходным причинам.

          Тем не менее, учёные понимают, что мораль — штука гибкая и изменчивая. Поэтому и разрабатываются альтернативные концепты, к примеру Coherent Extrapolated Volition.


  1. ServPonomarev
    08.07.2015 08:36
    +1

    Создавать искусственный интеллект на деньги противников искусственного интеллекта — это гениально!


    1. Unrul
      08.07.2015 09:48

      Макс не против ИИ, он против того, чтобы ИИ случайно всех уничтожил. Причём это, судя по всему, сценарий по умолчанию, если не предпринимать необходимых мер по обеспечению безопасности.


  1. Sketch_Turner
    08.07.2015 11:20
    -3

    Сильные мира сего очень не хотят, чтобы люди стали свободны и за них работу делали роботы. Они хотят, чтобы обычные люди продолжали быть рабами. Отсюда и все эти страшилки про ИИ, который взбунтуется.

    ИИ еще не создали, а Тайное Правительство уже начинает свою маркетинговую компанию, чтобы вбить людям в головы мысли о страшном ИИ. Сюжет Deus Ex во всей красе прям.


    1. Psionic
      08.07.2015 11:54

      До искуственого интеллекта пока только как до планеты Седна. Я не уверен что понятию «искуственый интеллект» есть даже законченное философское определение. Как техзадание на него писать если не совсем понятно что нужно.


    1. Lsh
      09.07.2015 14:42

      А сильным мира не без разницы, кто будет делать работу? Если на них будут работать роботы вместо людей, разве это не лучше? Роботом выходные не нужны и профсоюзы они не будут устраивать.