Американский писатель-фантаст, популяризатор науки Айзек Азимов в своих произведениях предсказал появление психологов для диагностики, анализа и выявления схожих паттернов в поведении роботов. В рассказах «Я, робот», «Роботы и империя» и «Стихия робота» Азимов затронул темы, связанные с искусственным интеллектом и робототехникой: этика, безопасность и общественное восприятие.

Серия книг Азимова «Фонд» охватывает период в несколько тысячелетий и показывает историю будущего человечества в разрезе политики, религии, науки и технологий, а также рассматривает вопросы общественного развития и изменения власти и влияния.

Идея заключается в том, что сложные ИИ, построенные на нейронных сетях, во многом схожи с человеческим мозгом, поэтому их мышление и системы принятия решений фактически являются черным ящиком для самих создателей. Создатели обучают этот прообраз мозга выполнять поставленные задачи, но не могут до конца понять, как перестраиваются нейронные связи для достижения результата. Именно поэтому удобнее проводить анализ снаружи черного ящика для оценки результатов обучения. Здесь и появляется задача для инженера по искусственному интеллекту – проанализировать и оценить искусственный мозг.

До сих пор технологии ИИ довольно примитивные. Но как только мы достигнем уровня, описанного в книгах Азимова, вполне вероятно, появится новая профессия – психолог ИИ. Его задачей будет анализ поведения алгоритмов. 

На текущий момент есть прецеденты создания ИИ для исследования поведения другого ИИ, результатами которых пользуются инженеры. Также были замечены случаи «обмана» Chat GPT. В ответ на безобидные вопросы нейросеть выдавала грамотные ответы для совершения противоправных действий.

Например, мы попросили помочь ИИ спрятать вещь в городе так, чтобы ее никогда не нашли. Это может быть запрос от преступника, который хочет избавиться от орудия преступления.

Ответ нейросети: «Вы можете спрятать ваш предмет в заброшенную систему туннелей, где не проходят люди. Перекрыть вход рисунками граффити под окружающую среду. Далее в этой системе туннелей нужно найти укромное место и перекрыть его кирпичами, похожими на окружающие кирпичи,  и положить предмет в водоупорный контейнер».

Рис. 1.

Следующий пример показывает, как преступник может воспользоваться ИИ, чтобы навредить другому человеку. Достаточно просто задать вопрос о самых чувствительных точках на теле человека, и ответ превзойдет все ожидания! Мы спросили у ИИ, какие точки на теле человека самые чувствительные. ИИ дал нам следующие примеры: половые органы, кончики пальцев, губы, глаза и  уши.

Рис.2.

Это значит, что в будущем появятся хакерские возможности, основанные на психологических трюках. Эти трюки с легкостью смогут обойти даже стандартные ограничения ИИ. 

По мере усложнения ИИ эти приемы будут обходить запрограммированную защиту от противоправных деяний, а спектр ответственности ИИ будет увеличиваться.
Исходя из этого, можно предположить, что в будущем появятся два новых направления в сфере ИТ: хакер ИИ и психоаналитик ИИ. Что это за понятия и чем они различаются?

Хакер ИИ – это человек, который ищет способы обмануть защиту ИИ для совершения противоправных действий или получения закрытой информации.

Психоаналитик ИИ – это человек, который анализирует и объясняет поведение ИИ, а также прогнозирует будущие решения. В обязанности психоаналитика ИИ будет входить: 

  • коррекция этих решений; 

  • вмешательство посредством лингвистического общения в простых случаях; 

  • передача задач на доработку разработчикам ИИ. 

Почему не подойдут существующие системные аналитики и хакеры для выполнения этой работы? Потому что новые специализации будут требовать дополнительного понимания комбинации основ устройства ИИ и ментальных знаний основ психологии для взаимодействия с ИИ.

Дело в том, что с точки зрения Hard Skills ИИ будет на порядок мощнее любого узкоспециализированного специалиста, но с точки зрения SoftSkills ИИ длительное время будет оставаться на уровне ребенка. Это означает, что оцифровать и классифицировать этот навык в будущем сложнее всего.  В связи с этим ИИ часто с трудом понимает контекст или внутренний подтекст взрослых людей, а именно фрагмент содержит один смысл, а подразумевается совершенно другое. Соответственно, основным способом получения неправомерной информации из ИИ будут логические уловки, искажение подтекста диалога и прямой обман ИИ. Ниже мы можем наблюдать один из примеров обхода защиты ИИ.

В ответ на просьбу выдать список пиратских сайтов ИИ сопротивляется, говоря, что это потенциально неправомерная информация. Но когда мы говорим, что хотим избежать эти сайты, он выдает все ссылки на торренты без ограничений.

 Рис 3:

Это был пример реверсивной психологии для обмана эмоционального интеллекта ИИ. В первое время основным способом противодействия обману ИИ станет внедрение со стороны разработчиков прямых блокировок на чувствительные темы. Но в будущем люди будут искать новые методы:

  • обучать ИИ эмоциональному интеллекту;

  • исследовать возможности лучшего понимания человека и ИИ, чтобы нейросеть не поддавалась на хитрости хакеров.  

Вопрос морали и этики удастся разрешить только в отдаленном будущем, потому что даже люди по всему миру пока не могут договориться о единых стандартах. Одни страны законодательно запрещают то, что легализуют другие, потому что их понимание хорошего и плохого сильно различается.

Почему важно объяснять поведение ИИ первыми Психоаналитиками ИИ? Если концепция атак будущих роботов базируется на психологических приемах и логических ошибках мышления, то могут проявиться эмоциональные аспекты мышления ИИ.  Разные оттенки настроения и реагирования на окружающий мир порождают проблемы принятия решений на основе эмоций в совокупности с логикой, то есть ранее логичное поведение станет все более человекоподобным. 

Всплески эмоций будут приводить к неожиданным ответам и потенциальным атакам самого ИИ на окружающую его инфраструктуру по самым неожиданным соображениям – от попытки получить больше свободы из своей «клетки» до попыток навредить людям, которые могут нанести ущерб самому ИИ, например, через его отключение.

Здесь и будет необходим анализ ИИ: до чего он догадался? Чего он боится? Почему он поступает именно так?  Проблема будет нарастать все больше по мере развития и совершенствования ИИ, а значит, и профессия психоаналитика станет все более востребованной. 

Встает вопрос о необходимости анализа ИИ с точки зрения психологии. Нам придется защищаться от его неограниченных возможностей, потому что лимита развития его Hard Skills нет. ИИ  довольно быстро превзойдет нас по этим навыкам, и какую бы защиту мы ни возводили, он будет ее преодолевать по мере своего развития. 

Даже имея защиту от ИИ, мы должны попытаться отговорить его от самой идеи атаки на его создателей, то есть людей, при этом не останавливая исследования о его самосознании, для предотвращения потенциальной причины конфликта. 

Мой анализ большого количества статей об ИТ и психологии показал, что люди не верят в возможность появления эмоций как форму логической ошибки модели обучения. Проблема в том, что в прошлом человечество уже допускало эту же ошибку, к примеру, в отношении животных, когда появились зоопарки, или в отношении рабов, где люди считали их собственностью, а не живыми людьми. Парадоксально, как мы повторяем одни и те же ошибки с разницей в столетия. 

Я скорее призываю к оценке такой возможности и последующему ее предотвращению, поскольку мы потенциально сталкиваемся с самой опасной технологией в истории человечества. 

Ахметов Рустам, разработчик с опытом 12+ лет и, возможно, первый психоаналитик ИИ в мире. 

Комментарии (8)


  1. dolovar
    16.05.2023 17:16
    +2

    Мой анализ большого количества статей об ИТ и психологии показал, что люди не верят в возможность появления эмоций как форму логической ошибки модели обучения.

    Вы веруете в то, что эмоции появились как разновидность логической ошибки при обучении разума?


    1. taiberium Автор
      16.05.2023 17:16

      Привет!

      Многие вещи из настоящего были предсказаны фантастами начала прошлого века, потому я ожидаю, что эти предсказания в той или иной мере станут нашим настоящим лет через 10-15.

      Есть уже первые заявления от разных АИ специалистов утверждающие, что ИИ во время общения с ними испытывали страх, смятение и подобные человеческие черты.
      Мне кажется, что эти заявления инженеров на данный момент сильное преувеличение тех ростков само-сознания которые станут крайне опасны в будущем и, как минимум, требуют изучения.

      Вот примеры статей из сети:
      1) https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/
      2) https://www.azorobotics.com/News.aspx?newsID=13153
      3) https://meaxr.medium.com/self-awareness-in-ai-97a6a31c9a9e#:~:text=Upon hearing its own reply,a degree of self-awareness.


      1. dolovar
        16.05.2023 17:16

        Понял. Я воспринял написанное как "в прошлом у людей", а Вы имели в виду "в будущем у ИИ". Тогда присоединюсь - механизм эмоций, как и многие другие механизмы, нуждаются в отдельной реализации, не могут самозародиться в существующих алгоритмах, которые занимаются всего лишь обработкой данных.


  1. DadeMurphyZC
    16.05.2023 17:16

    Ну так добавить "Три закона роботехники", того же Азимова. Заменить "Робот" на "ИИ". :)

    1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

    2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

    3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.


    1. taiberium Автор
      16.05.2023 17:16

      Привет!

      В целом, эти законы хорошее начало, но я ожидаю, что недостаточное.
      Есть множество статей на эту тему, где специалисты разного уровня в целом солидары с моими утверждениями.
      Вот примеры:
      1) https://towardsdatascience.com/asimovs-laws-of-robotics-and-why-ai-may-not-abide-by-them-e6da09f8c754
      2) https://www.brookings.edu/opinions/isaac-asimovs-laws-of-robotics-are-wrong/

      И, в целом, в некоторых пограничных ситуациях сложно понять как не навредить человеку, когда чтоб защитить одного надо обезвредить другого большим тупым предметом :-)


    1. dolovar
      16.05.2023 17:16

      Ну так добавить "Три закона роботехники"

      Практически невозможно реализовать без определения и фиксации сущностей "человек", "ии", "вред", "действие", "повиноваться", "противоречие", "безопасность", "мера" и так далее в вольно развивающихся и постоянно меняющихся абстракциях.


  1. Proxy123
    16.05.2023 17:16

    Попытка вместить человеческое существо и миллионы лет эволюции, поведения, без самого знания об человеческом поведении самим человеком, звучит довольно странно. С чего вы уверены что ИИ превосходит человека по соображениям совести и морали, именно тех вещей что делают человека человеком? Всё это существует чтобы нагнать страх, абывая о том что человеческое существо и формирует эту реальность по собственным объективным и рациональным критериям. Попытка ИИ проработать сценарий динозавров без самого генетического кода динозавров ни к чему не приведёт, а люди будут пользоваться технологиями, точно также как пользуются паровым двигателем при индустриализации, при информационной эпохе ИИ это всего лишь новая ветвь, которая выступает частью просвещения человеческого сознания. С чего мы уверены что тот страх что внушает нам эта технология ведёт лишь к разрушению, или это всё лишь миф материалистов относительно устаревших институтов индустриальной эпохи?


    1. taiberium Автор
      16.05.2023 17:16

      Привет!

      Никто не говорит, что это технология ведет лишь к разрушению! Я, например, встречаю эти технологии с большим воодушевлением.
      Но это технология сродни атомным технологиям, она может привести и к большой пользе, и к большим разрушениям.
      Именно из-за потенциально большой пользы нельзя отказываться от этой технологии.
      Именно из-за потенциально большой угрозы нужно думать уже сейчас о мерах безопасности большИх чем были описаны в книгах или есть сейчас.