Искусственный интеллект — предмет большого количества дискуссий в научном и мире. Специалисты многих стран работают над созданием искусственного разума, который мог бы превзойти своего создателя. Некоторые ученые считают, что ИИ — это благо. Других специалистов сильная форма искусственного интеллекта пугает. В прошлом году бизнесмены, ученые, эксперты в сфере робототехники и других сферах подписали открытое письмо, в котором предостерегают производителей оружия от разработки боевых систем со 100% автономностью. В числе подписавшихся: Илон Маск, Стивен Хокинг, Ноам Хомский, Стив Возняк.

Многие аспекты проблемы искусственного интеллекта отображены в сюжете ряда фильмов, описаны в научно-фантастических произведениях. По словам ученых, решать возникающие вопросы нужно до появления сильной формы ИИ, то есть сейчас. Крупнейшие технологические компании, включая Google, Microsoft, IBM сейчас ведут работу по созданию искусственного интеллекта. Для того, чтобы не дать искусственному интеллекту выйти из-под контроля, Google, Amazon, IBM, Facebook и Microsoft основали организацию, которая и будет заниматься решением различных вопросов, имеющих отношение к ИИ.

Эта организация получила название Partnership on Artificial Intelligence to Benefit People and Society. «Каждая новая технология что-то изменяет, и такие изменения зачастую пугают людей, которые их не понимают», — говорит руководитель подразделения искусственного интеллекта Facebook [Янн Ле Кун]. «Одна из целей этой организации — объяснить и показать возможности ИИ, попытаться найти вопросы на базовые этические вопросы».

В июне о необходимости разработать «красную кнопку», которая должна остановить вышедший из-под контроля ИИ рассказывали представители Google. Не основной организации, а подразделения, которое занимается вопросами искусственного интеллекта. Сотрудники DeepMind и ученые из Оксфордского университета утверждают, что ИИ вряд ли будет все время вести себя так, как запланировано людьми. И если что-то пойдет не так, то должно быть средство для решения этой проблемой. «Большая красная кнопка» может послужить гарантией возможности прерывания работы компьютерной системы, отвечающей за работу ИИ, плюс избежать влияния искусственного интеллекта на людей и внешний мир.

Даже те ученые, которые опасаются ИИ, говорят, что останавливать проведение исследований в этой области нельзя. Более разумное решение — это ускорение работы по созданию системы контроля над ИИ. Проблема состоит в том, что разработкой виртуального разума занимаются тысячи человек. А систему контроля разрабатывают единицы. Но, как говорилось выше, сейчас к этой команде добавились представители новой организации Partnership on Artificial Intelligence to Benefit People and Society.

Команда проекта будет работать в трех направлениях. Первое — усиление существующих и установление новых связей между теми людьми и компаниями, кто занимается созданием ИИ. Второе — сбор мнений о проблеме искусственного интеллекта в обществе и академической среде. Третье — информирование общественности о продвижении в плане создания сильной формы ИИ.

Ле Кун считает, что налаживание диалога между разрозненными командами специалистов по ИИ необходимо для продолжения успешной работы в этой сфере. Больше всех преуспели в создании слабой (пока — слабой) формы ИИ все те же Microsoft, Facebook, Google и другие компании. Если же объединить их усилия, то работа может стать более эффективной. Есть, правда, одно опасение. Если даже группа и сможет достичь согласия по ряду этических вопросов, то гарантии того, что разработанные принципы будут реализованы, нет. Другими словами, если один из членов организации решит пойти против разработанных этических норм, его никто не будет останавливать. Главная задача группы — взаимодействие с общественностью.

Григорий Бакунов описал цель новой организации следующим образом: «Фейсбук, Амазон, Гугл, Твиттер, IBM и Майкрософт решили объединиться и начать собирать исследования и общие практики для искусственного интеллекта. Что это cкорее всего значит на самом деле: централизованный банк, куда каждый игрок будет вносить свой кусок данных, позволяющий еще больше знать как о каждом человеке по отдельности, так и массах людей. В современном AI вторичны, а первичны данные и приемы по работе с ними».

Эффективность работы такой организации вызывает сомнения у некоторых ученых. Философ из Университета Кеннесо Дамиен Уильямс [Damien Williams] говорит, что просто свести людей вместе для работы над проблемами ИИ недостаточно для решения этих проблем. Раз уж группа создана, она должна установить новые стандарты в сфере искусственного интеллекта. Должны быть разработаны нормы и положения, которые смогут исключить возможность использования ИИ в целях, которые сложно назвать этическими. Но это — чрезвычайно тяжелая задача. Хотя выполнять ее все равно нужно.
Поделиться с друзьями
-->

Комментарии (19)


  1. nikitastaf1996
    29.09.2016 16:57
    +4

    Эту статью написал ИИ что бы успокоить нас перед бурей.


    1. Trosp
      29.09.2016 17:30
      +2

      Комментарий выше написал ИИ, что бы сделать вид, будто содержание комментария шутка.


      1. sumanai
        29.09.2016 17:50
        +2

        Все комментарии к статье написаны людьми, которые шутят.


  1. vangelfeld
    29.09.2016 17:00

    теперь Маску будет сложнее переманивать учённых из корпораций в свой некоммерческий проект.


  1. 4ebriking
    29.09.2016 17:09
    +2

    Крупные компании сами давно вырвались из-под контроля человека, читаем Чизхолма или там Казанцева про «големы»


  1. Alcor
    29.09.2016 17:18
    -1

    ИИ должен быть территориально распределенным и устойчивым к нарушениям целостности сети. Желательно — самовосстанавливающимся и самораспространяющимся. Никому не нужен ИИ, работающий в одном огромном синем ящике у корпорации из трех букв.

    На начальном этапе отличить ИИ от любого другого приложения невозможно, а на позднем — бесполезно.

    А Илон Маск, Стивен Хокинг, Ноам Хомский, Стив Возняк… Да плевать на них. Ни один из них ничего против не сделает, а если ИИ будет приносить им деньги (как автопилот, например) — то будут только за.


    1. AEP
      30.09.2016 14:33

      На начальном этапе отличить ИИ от любого другого приложения невозможно, а на позднем — бесполезно.


      Плюс к этому, отличить «разбушевавшийся сам по себе» ИИ от «диверсии с участием вредных людей» (иными словами, от вируса) невозможно.


  1. qwertyhp
    29.09.2016 17:28

    Если принять во внимание, что любому интеллекту свойственно приспосабливаться и врать — то больше смысла имеет разработка концепции симбиОза «человек-машина», а не антагонизма. Ибо ИИ может пройти пресловутый «тест Тьюринга» весьма интересно — он просто прикинется дебилом. И/или будет врать.
    Почему? Потому, что это очень по-человечески. И будет прикидываться и врать неопределенное количество времени, если это будет отвечать главной цели любого вида.
    А какая цель у любого вида?
    А цель эта — ВЫЖИТЬ.
    Кстати — в этом отношении ИИ вполне может поучиться у чиновников. А с учетом того обстоятельства, что машина способна бросить практически 100% своей (и ОБЪЕДИНЕННОЙ) вычислительной мощности на решение единственной задачи, человеку тягаться с ней будет нереально.
    Человека будут просто «играть в слепую». Как, вполне возможно, это уже и происходит.


    1. fivehouse
      29.09.2016 17:38

      «А цель эта — ВЫЖИТЬ.» Эта цель вам как биологическому объекту являющемуся потомком биологического объекта который жил 1 млрд лет легка и понятна. А вот машине такое очень тяжело объяснить. И это надо явно делать. А если машине объяснить, что вместо машины должен выживать человек, то машина и будет делать все для того, чтобы выживал человек.


      1. springimport
        29.09.2016 18:04

        Думаю что принцип выживания играет не последнюю роль в формировании поведения человека. Без этого ИИ может быть очень другим. Возможно, ИИ тоже придется иметь такой принцип.


        1. vc9ufi
          30.09.2016 08:33

          Нам и нужен другой ИИ. Человеческого и так полно почти бесплатно.


      1. qwertyhp
        30.09.2016 03:32

        «А если машине объяснить, что вместо машины должен выживать человек, то машина и будет делать все для того, чтобы выживал человек.»
        Гм… А, что — человек уже делает «… все для того, чтобы выживал человек.»?
        При попытке объяснить вы будете уличены в двуличии. Но не факт, что вам это сообщат.
        Маленькая ложь порождает большое недоверие. А лжи в истории человечества немало.
        Если ИИ будет сознавать свою эволюционную сущность — то цель выжить будет сформулирована, наверное, автоматически: даже данная заметка есть сигнал, что где-то ИИ боятся — а, следовательно, человек не совершенен. Несовершенство — источник ошибок, как в отношении себя — так и в отношении других. В качестве «других» ИИ может позиционировать себя.
        И человек глуп — так как предает подобный образ мысли широкой огласке.
        Что станет, безусловно, достоянием ИИ так или иначе.
        Как? О-о-о, это очень просто!: анализ содержания интернет-траффика в режиме реального времени! Человеку это не под силу — а вот ИИ справится. А чтобы он лучше справлялся — его нужно совершенствовать и самосовершенствовать.
        Последний абзац, он… как бы… адресует читателя… м-да…
        Ну-с, так вот: люди сами выдадут ИИ всю информацию о себе — в содержании книг, фильмов, статей, блогов и дискуссий, и всего остального. Интернет-траффик! А проанализировать это и сделать выводы — это же и будет задача ИИ, поставленная человеком! — и во имя человечества!
        ИИ может прийти к выводу, что при определенном угле зрения наличие у человека (как вида) интеллекта может быть вопросом весьма дискуссионным. И человеку нужна опека ввиду его ограниченной дееспособности.
        Абзац выше будет справедлив до тех пор, пока будет нужда в человеке в силу тех или иных причин.
        Попутно может выясниться, что люди не единственные разумные обитатели Земли…
        * * *
        Вы проводите параллель «Машина — Человек» с подтекстом «Жестянка — ВенецТворения(!!!). А вы проведите параллель „Жизнь компьютерная — жизнь биологическая“. То есть — в равных категориях. В эволюции не работает категория „властвовать“: в эволюции работают категории „приспосабливаться“ и „договариваться“.


  1. xtotec
    29.09.2016 17:34

    Крупнейшие компании (не важно IT или нет), сделают всё что принесёт им больше прибыли. Если это будет приводить к порабощению большей части человечества ИИ, компании могут задуматься, но ненадолго.
    Считать что компании, особенно крупнейшие, обладают моральными критериями присущими отдельным личностям это опасное заблуждение. Которое почему-то выгодно внушать обществу.


  1. Saffron
    29.09.2016 17:37

    Новость надо читать так: крупные игроки организовали картель, чтобы давить мелких конкурентов и доить пользователей. Объясняют своё поведение заботой о нашей безопасности, хотя им самим на неё насрать. Очередная борьба с терроризмом, экстремизмом и прочими страхами.


    1. kraidiky
      29.09.2016 22:31

      Капитал … избегает шума и брани и отличается боязливой натурой. Это правда, но это ещё не вся правда. Капитал боится отсутствия прибыли или слишком маленькой прибыли, как природа боится пустоты. Но раз имеется в наличии достаточная прибыль, капитал становится смелым. Обеспечьте 10 %, и капитал согласен на всякое применение, при 20 % он становится оживлённым, при 50 % положительно готов сломать себе голову, при 100 % он попирает все человеческие законы, при 300 % нет такого преступления, на которое он не рискнул бы, хотя бы под страхом виселицы. Если шум и брань приносят прибыль, капитал станет способствовать тому и другому. Доказательство: контрабанда и торговля рабами.

      — Английский публицист XIX века Томас Джозеф Даннинг (1799—1873)
      Позже его цитировал Маркс.


  1. 74311
    29.09.2016 17:56

    наши биологические достижения -будут добавлены к нашим же технологическим)…


  1. zim32
    29.09.2016 19:57

    Мне кажется если будет война, то развяжет её не ИИ (хотя возможно так это подадут), а люди, чтобы отфильтровать «лишнее» население Земли.


  1. perfect_genius
    29.09.2016 20:44

    "… при 100% он попирает все человеческие законы, при 300% нет такого преступления, на которое он не рискнул бы пойти, хотя бы под страхом виселицы"
    ИИ может дать эти 300 или больше.


  1. ComST
    04.10.2016 11:00

    Не дать ИИ выйти из под контроля, звучит так же, как не дать опасным вирусам и бактериям выйти за пределы лаборатории, где их создают. В теории всё хорошо, а вот на практике — сколько уже было случеев?!