Steven Miller, flickr.com
Steven Miller, flickr.com

Группа исследователей искусственного интеллекта из Нантского университета озадачилась непростым вопросом. Является ли искусственный интеллект по-настоящему искусственным, или человеческий разум влияет на него больше, чем принято считать? Чтобы ответить на этот вопрос, они решили разобрать отношения Дарта Вейдера, Люка Скайуокера и робота R2-D2 из «Звездных войн».

Этот текст начинается с забавной истории. Или ошибки в хорошо прописанном сценарии. С парадокса, который вновь возвращает человеческий разум в центр того, что представляется — зачастую из-за неправильного использования слов — искусственным.

На этом парадоксе мы демонстрируем постоянное присутствие человеческого начала в искусственном интеллекте. Речь пойдет о несоответствии в позиции робота R2-D2 из космической саги «Звездные войны». Персонаж, с легкой руки сценаристов, всегда пребывал в здравой памяти. Но если RD-D2 никогда не страдал от амнезии, то почему не предупредил Люка Скайуокера о смертельной опасности, которую представлял его отец?

О каком парадоксе речь?

«Звездные войны», как и надлежит великому современному мифу, очаровывают нас соблазнительной непоследовательностью. Сага повествует о напряженных отношениях рыцаря-джедая Люка Скайуокера и его отца, Энакина Скайуокера, более известного как гениальный злодей Дарт Вейдер (о чем Люк не знал — прим.пер.). Именно в фильме 1980-го года «Империя наносит ответный удар» прозвучала знаменитая фраза «Люк, я твой отец». Ее говорит отец, Дарт Вейдер, своему сыну, Люку Скайуокеру, но в семейной сцене должен бы был участвовать вездесущий робот R2-D2.

Одна маленькая девочка несколько лет назад задала весьма колкий вопрос по этому поводу.

«R2-D2 присутствовал с самого начала истории, и его память никогда не стирали. Так почему робот просто не открыл Люку, что Вейдер был его отцом?»

Отец ребенка не нашелся, что ответить, а «просто стоял, ошеломленный, пожал плечами и ушел».

RD-D2 действительно посчастливилось постоянно полагаться на свои воспоминания, в то время как память его двуногого напарника, дроида C-3PO, была повреждена. Откуда у робота появились идея и возможность скрывать такую тайну? Почему милый и вездесущий робот не действовал в интересах своего хозяина, как полагается действовать правильному ИИ?

Как подойти к этому парадоксу?

В сети можно найти множество гипотез, объясняющих поведение R2-D2. Все они ведут к идее о некой его «человечности». Перечислим только 6 из них.

  • Гипотеза 1: R2-D2 не хотел разбивать сердце Люка.

  • Гипотеза 2: R2-D2 не мог предположить, что Люк был сыном его бывшего спутника-человека, поскольку фамилия «Скайуокер» часто встречается на его родной планете Татуин.

  • Гипотеза 3: R2-D2 хотел, чтобы Люк сам узнал свою судьбу.

  • Гипотеза 4: R2-D2 воздержался от того, чтобы неуклюже испортить реплику Дарта Вейдера.

  • Гипотеза 5: R2-D2 очарован демоническим Дартом Вейдером и предпочитает его Люку, которого находит скучным.

  • Гипотеза 6: Робота никто не спрашивал.

Во всех шести случаях R2-D2 ведет себя совершенно не так, как робот, чья миссия — защищать «хозяина».

Парадоксально, но наиболее вероятная версия — это оплошность сценаристов. Эта гипотеза еще и самая приятная: не бывает искусственного интеллекта без (ошибочного) человеческого вмешательства!

Нет интеллекта без обучения

Искусственный интеллект в том виде, в котором как мы его сейчас понимаем, учится, руководствуясь непосредственно логикой обучения людей. Но при этом он сам же меняет нашу жизнь. Он действует на основе классических когнитивных функций: естественного языка, зрения, памяти, счета, анализа, сравнения, повторения, перевода, игры и так далее.

Пересечение искусственного интеллекта с когнитивной психологией и когнитивной наукой объясняет «человеческую» часть ИИ — а, следовательно, человеческую часть робота R2-D2 — и черпает вдохновение из биологического интеллекта и механизмов развития наших знаний.

Можно отметить, что обучение путем наблюдения является общим для людей и машин, и мы дополняем друг друга. Контролируемое машинное обучение позволяет ИИ учиться и даже совершенствоваться за счет человеческих ошибок и обратной связи, чтобы лучше сортировать входные данные. Такой подход повышает точность и надежность данных на выходе. Отметим также, что ИИ способен обучаться без контроля. Это автономное обучение, при котором не требуется сигнал ошибки для коррекции. В случае человека мы обращаемся к закону Хебба, чтобы понять, как работают когнитивные функции. Например, как работает память — нейроны активируются вместе и соединяются друг с другом, образуя связи, которые со временем становятся прочнее.

Робот Boston Dynamics
Робот Boston Dynamics

Также упомянем обучение с помощью подкрепления, которое относится к обучению с помощью вознаграждения и наказания (метод пряника и кнута). Опять же, люди и умные машины близки. Награда связана с целью, заданной программистами. ИИ предпринимает множество попыток и изучает все возможности для достижения этой цели — и, следовательно, награды. Наконец, глубокое обучение также является типом обучения. Этот тип вдохновлен работой человеческого мозга и поэтому использует искусственные нейронные сети и алгоритмы. Технология нейронных сетей в сочетании с «большими данными» уже развернута во многих секторах, включая оборонный, промышленный и медицинский.

Не бывает искусственного без человеческого

На данном этапе развития ИИ важно выделить 4 общих момента между искусственным и человеческим интеллектом:

  • оба опираются на знания, получаемые от окружающих

  • оба учитывают прошлый опыт

  • производят выводы в зависимости от входных данных

  • сомневаются и выявляют когнитивные искажения

Возвращаясь к R2-D2 и его «человечности», отметим, что этические ограничения также присутствуют в так называемых «умных» машинах. Машина не может — не должна? – в одиночестве принимать решение о смерти человека, например. Мы считаем нежелательным, чтобы машина могла стать полностью автономным оружием.

Поэтому люди не должны исключать себя из процессов принятия решений машинами. Мы должны сохранять контроль, особенно когда используется специфический язык эмоций, ненависти, юмора, иронии, провокации, метафоры. В такой ситуации умная машина когда  не обязательно может понять смысл слов, изображения или контекста.

Нет автономии без человеческого контроля

Человек учится приспосабливаться и выживать. Он узнает от родителей и окружающих первые слова в четко определенных контекстах, после чего пытается их понять и контекстуализировать. «Умная» машина учится воспроизводить товар или услугу. С первых экспериментов в 1955 году она опирается на обширную базу данных, значение которой она не понимает. Цель — попытаться идентифицировать корреляции, охарактеризовать сходство и попытаться сформировать ответ на языке, понятном человеку или другой машине. Понимание, решения и обратная связь искусственного интеллекта носят статистический, логический и математический характер. Именно поэтому Европейская комиссия недавно опубликовала «согласованные правила в области искусственного интеллекта», регулирующие использование ИИ.

Тем не менее, в экстремальных ситуациях часто сложно объяснить решения, принимаемые ИИ. Черный ящик, который предлагает нам выходные данные, не в состоянии объяснить предшествующую логику — за исключением логики, подобной логике Хоара.

Парадокс R2-D2, подверженного ошибкам больше, чем следовало бы машине, это хорошая новость. Это доказательство того, что за невидимым сценарием действительно стоит человек!

Комментарии (10)


  1. NecroRomnt
    20.01.2022 19:48
    +2

    Тут бы дать хоть сколь-нибудь внятное определение, что такое интеллект. Без этого определения сложно понять, где человеческий интеллект, где обезьяний интеллект, где муравьиный интеллект, где искусственный интеллект и можно ли хоть чему-то дать такое определение.


  1. Exchan-ge
    21.01.2022 01:57
    +3

    Парадокс R2-D2, подверженного ошибкам больше, чем следовало бы машине, это хорошая новость. Это доказательство того, что за невидимым сценарием действительно стоит человек!


    ИИ R2-D2 отличен от интеллекта человека и не обязан работать по его принципам.
    Поэтому Гипотеза 6: Робота никто не спрашивал и есть самая правильная.


    1. saboteur_kiev
      21.01.2022 04:35
      +1

      Парадокс R2-D2, подверженного ошибкам больше, чем следовало бы машине, это хорошая новость. Это доказательство того, что за невидимым сценарием действительно стоит человек!

      Какое доказательство?
      Это фильм, фантастика, где есть путешествия быстрее скорости света, где есть звук в космосе, где роботы имеют собственные хотелки и просто слушаются законов (и то не все). Это вселенная, где в конце концов есть СИЛА.
      Зачем приводить примеры из вымышленной франшизи и применять к ней земную науку?

      Вдобавок, если уж приводить примеры, то стоило покопаться в истории франшизы, чем C-3PO отличается от других протокольных дроидов (создан Анакином, возможно подсознательное применение силы повлияло на робота).Ну и память C-3PO не была повреждена, она была умышленна стерта, чтобы он не мог выдать местоположение детей Анакина.

      И чем этот R2-D2 отличается от других, и кому он на самом деле служит и почему (семейству Набу).
      Вдобавок не следует забывать, что оба этих персонажа были изначально созданы несколько комичными. И их поступки зачастую вызывают улыбку а не напряжение.
      Это далеко не ошибка сценаристов, а прямая задумка.


    1. Vitter
      21.01.2022 18:40
      +1

      R2-D2 имел "неполноценный" интеллект (из-за огриниченности целей работы), поэтому скорее всего
      Гипотеза 7: Робота никогда и не интересовало кто кому отец, брат,..


      1. Exchan-ge
        21.01.2022 19:25

        Робота никогда и не интересовало кто кому отец, брат,..


        Не факт, что его вообще что-то интересовало :)
        Девайс выполнял заложенные в нем программы, а ИИ ему был нужен для поиска наилучших путей их выполнения…


  1. AlchemistDark
    21.01.2022 05:54

    R2D2 мог ведь и не знать, что Люк Скайуокер и Дарт Вейдер один и тот же человек.


    1. agershun
      21.01.2022 05:59
      +3

      Люк Скайуокер и Дарт Вейдер (Анакин Скайуокер) - уж точно разные люди ))


      1. AlchemistDark
        21.01.2022 06:57
        +1

        Чёрт! Так опечататься…
        Вредно писать комментарии ночью, когда нормальные люди спят…
        ????


  1. cheburen
    21.01.2022 10:59

    Надо вопрос поставить по другому, как робот R2-D2 вообще мог знать что "погибший" на вулканической планете Энакин и закованый в броню Дарт Вейдер один и тот-же человек.


    1. Exchan-ge
      21.01.2022 19:22

      как робот R2-D2 вообще мог знать что «погибший» на вулканической планете Энакин и закованый в броню Дарт Вейдер один и тот-же человек.


      Элементарно, Ватсон (с) — R2D2 по фильмам постоянно хакал базы данных и системы управления.
      Он знал всё :)