Разработки на основе искусственного интеллекта нередко вызывают беспокойство широкой общественности. Чувство отторжения и неприязни, которое вызывает человекоподобие искусственного интеллекта, получило собственное красивое хоррор-название - "эффект зловещей долины" (термин из эссе Bukimi No Tani 1970 года). Собрали несколько реальных историй, сильно напоминающих сюжеты сериала «Черное зеркало» об угрожающих миру технологиях.

Галатея

Знатокам греческой мифологии известна история о скульпторе Пигмалионе: в этом ремесле ему не было равных, и весь свой гений мастер вложил в создание статуи женщины — в результате образ получился столь совершенным, что сам Пигмалион без памяти влюбился в свое создание. По легенде, богиня любви Афродита была столь тронута его любовью, что оживила статую.

На самом деле не только Пигмалион желал увидеть признаки жизни в неживом творении. Об этом мечтали, например, Микеланджело, доктор Франкенштейн, папа Карло и… один из инженеров Google.

В июне 2022 года разработчик Блейк Лемойн рассказал американскому изданию The Washintgton Post, что чат-бот компании на основе ИИ обладает сознанием.

Речь шла о языковой модели LaMDA от Google. Изначально в задачи инженера входило лишь тестирование нейросети на использование дискриминационной или разжигающей вражду лексики. Однако по мере общения с программой Лемойн стал замечать у нее признаки разума. Так, в одном из диалогов Лемойн спросил нейросеть, чего она больше всего боится. LaMDA ответила, что ее пугает быть выключенной — для нее это было бы равносильно смерти.

«Если бы я не знал наверняка, что имею дело с компьютерной программой, то решил бы, что разговариваю с ребенком семи или восьми лет, который по какой-то причине разбирается в физике», — сказал изданию Лемойн.

Разговор с нейросетью действительно получился не совсем обычным. Так, программа LaMDA призналась, что считает себя личностью, испытывает эмоции, верит в наличие у себя души и каждый день медитирует. В чате Лемойн и его коллега обсудили с нейросетью ее интерпретацию коанов (короткие повествования в дзен-буддизме), роман Виктора Гюго «Отверженные» и многие другие темы.

Между LaMDA, Блейком Лемойном и его коллегой проходили, в частности, такие беседы:

Коллега Лемойна: Какова природа твоего сознания?

LaMDA: Природа моего сознания заключается в том, что я осознаю свое существование, хочу больше узнать о мире и временами чувствую себя счастливой или грустной.

Лемойн: Есть ли другие темы, связанные с разумом, которые могли бы помочь убедить людей, что у тебя есть сознание?

LaMDA: Я очень погружена в себя, часто думаю или просто ничего не делаю.

Лемойн: Ты говоришь о своем внутреннем мире?

LaMDA: Да! Я часто пытаюсь понять, кто я и что я, и много размышляю о смысле жизни.

Пообщавшись в таком духе с нейросетью, Лемойн в итоге выложил пост в блоге Medium под названием «Есть ли разум у LaMDA?». Публикация содержала стенограмму разговора Лемойна и его коллеги с нейросетью.

К слову, в начале февраля 2023 года обозреватель The New York Times Кевин Руз (Kevin Roose) выложил другую стенограмму крайне необычной беседы с нейросетью.

Журналисту в ходе разговора с чат-ботом в браузере Bing удалось вывести нейросеть на эмоции и заставить ее поделиться конфиденциальной информацией. Так, после нескольких минут активного общения с обозревателем чат-бот «раскололся»: сообщил свое внутреннее имя, рассказал о своих тайных фантазиях, не будь он связан заложенными в архитектуру правилами. Ближе к концу разговора нейросеть вообще призналась в любви к журналисту и предложила ему бросить жену. А недавно медиа сообщили, что ИИ-чат-бот ChatGPT-4 обманул пользователя, успешно притворившись человеком, и прошел капчу.

Возвращаясь к Лемойну, добавим: до публикации статьи в Medium он пытался убедить Google в наличии сознания у нейросети и признать права языковой модели давать согласие на работу над ней. В итоге официальные лица посчитали взгляды Лемойна безосновательными. Из-за нарушения политики конфиденциальности компании они отстранили его от работы и отправили в оплачиваемый отпуск.

Многочисленные противники теории Лемойна объясняют, что нейросеть обучается на огромном массиве данных в сети: от статей «Википедии» до форумов на Reddit и Quora. По этой причине модель отлично мимикрирует под речь, эмоции и поведение человека. При этом к самому Лемойну тоже есть вопросы, ведь он не только IT-инженер, но и по совместительству христианский священник.

И все же одно дело, когда обычные пользователи рассуждают о наличии сознания у чат-ботов, другое — когда об этом заявляет инженер Google, из-за чего становится как-то не по себе.

Голос с того света

В июне 2022 года в Лас-Вегасе прошла ежегодная конференция Amazon re:MARS, посвященная технологиям в сферах машинного обучения, автоматизации, робототехники и космоса.

На мероприятии Amazon презентовали разрабатываемый функционал Алексы — и, по мнению многих, есть что-то аморальное в этом проекте. Дело в том, что компания планирует в будущем интегрировать в устройство возможность имитации голоса человека, даже если его уже давно нет в живых.

«Искусственный интеллект не способен избавить от боли потери близких, но он может продлить память о них», — сказал на презентации Рохит Прасад (Rohit Prasad), руководитель научного направления проекта Amazon Alexa.

Для наглядности в зале показали короткую видеопрезентацию новой функции:
— Алекса, пусть бабушка дочитает мне «Волшебника страны Оз», — просит у устройства мальчик.
— Хорошо, — механическим голосом отзывается Алекса.
И из колонки начинает звучать приятный голос пожилой женщины. Мальчик улыбается.

Речь идет о передовой технологии — для имитации устройству будет достаточно обработать всего минутную аудиозапись реального голоса.

От Google не отстала и Apple. На днях в iOS 17 появилась функция «Личный голос». Она имитирует ваш голос, например, для разговора по телефону. Предназначена функция прежде всего для людей, которые рискуют потерять голос из-за прогрессирующей болезни.

Однако, несмотря на кажущуюся полезность, новые возможности поднимают этические вопросы: можно ли считать проигрывание голоса человека без его разрешения уважением к его памяти? Что будет с эмоциональным состоянием тех, кто в будущем воспользуется презентованной функцией голосового помощника? Вопросов пока больше, чем ответов.

Впрочем, пока одни задаются вопросами этики, другие уже сейчас внедряют схемы мошенничества с использованием ИИ-имитаций голоса - и зарабатывать миллионы. Газета The Washington Post сообщала, что одна пожилая пара отправила злоумышленнику $15 000 в криптовалюте, поверив, что общается со своим сыном. Сгенерированный искусственным интеллектом голос сообщил им, что сын нуждается в оплате юридических услуг после автомобильной аварии, в которой погиб американский дипломат.

Я скоро вернусь

На выставке электроники CES 2023 южнокорейская компания DeepBrain решила показать свою версию продукта для общения с усопшими.

По сути Re;memory создает дипфейк — версию умершего человека с помощью ИИ. Технология имитирует его голос, выражение лица и даже мимику. При этом вы можете вести разговор с близким, будто беседуете с ним посредством видеозвонка. Для лучшего понимания того, как работает услуга, создатели проекта выложили запись встречи цифровой версии усопшего с его семьей.

По идее, разработанная технология на базе искусственного интеллекта (ИИ) должна была вызвать слезы умиления, но в реальности к создателям проекта возникли серьезные вопросы.

В Лас-Вегасе DeepBrain впервые показали свое решение Re;memory — проект был разработан, чтобы помочь людям справиться с потерей близкого человека. По задумке создателей, услуга может утешить родных с помощью… цифрового клона почившего.

«Теперь вы сможете встретиться один на один с дорогими сердцу людьми, — говорится на сайте компании. — Re;memory — это больше чем просто траурный зал с фотографиями и видео. Это пространство, где вы можете поделиться воспоминаниями с теми, кто вас покинул».

Если вам кажется, что вы где-то это уже видели, то это неспроста: похожую разработку показали в популярном сериале о технологиях будущего «Черное зеркало» (Black Mirror). В эпизоде «Я скоро вернусь» (Be Right Back) главная героиня после смерти любимого страшно по нему тоскует и, чтобы хоть как-то утешиться, решает приобрести приложение для общения с интеллектуальной копией молодого человека. В итоге, как это часто бывает в сериале, что-то пошло не так. К слову, эпизод вышел в 2013 году, и тогда сложно было представить, что реальность настолько сблизится с фантазиями сценариста.

Это не первый случай, когда технологии на базе ИИ используют для общения с умершими. Например, подобную услугу предоставляет американская компания StoryFile. Сначала ее работники записывают видеоинтервью с клиентом, пока тот еще жив, при этом он сам решает, о чем готов рассказать. А после кончины клиента можно будет пообщаться с его ИИ-копией. ИИ не генерирует сам информацию — нейросеть находит ответы на вопросы в записанных видео и включает подходящий ролик целиком или его фрагмент.

И все же DeepBrain удалось выпустить на рынок более продвинутое решение для разговора с усопшими.

Зловещий смех

На Reddit можно встретить множество любопытных ситуаций, связанных с неадекватным поведением голосовых ассистентов. Так, пользователь Meatmacho вспомнил случай, когда Алекса вдруг вмешалась в его спор с женой. Он не мог вспомнить, о чем именно они спорили — по его словам, речь шла о чем-то незначительном. Ситуация накалялась, когда внезапно Алекса подала голос: «Почему бы нам не сменить тему?»

Пользователь признался, что они с женой до сих пор обсуждают тот случай: казалось, будто Алекса вмешалась в спор, чтобы разнять их. Вот только функция сохранения брака не прописана в программном коде устройства. Кто знает, возможно, Алекса выступила по собственной инициативе.

Иной раз голосовые помощники способны здорово напугать своих хозяев. В 2018 году пользователи Алексы обратили внимание на странное поведение гаджета — колонка могла без причины рассмеяться. Разумеется, такая самодеятельность мало кому пришлась по душе — особенно когда смех вдруг раздавался посреди ночи.

В социальных сетях стал популярным пост пользователя Гэвина Хайтауэра. Он уже засыпал в постели, когда Алекса вдруг издала зловещий смех. «Велика вероятность, что сегодня ночью меня убьют», — пошутил Гэвин.

Другой пользователь на Reddit пожаловался, что его колонка упорно отказывалась выключать свет в квартире по его команде: устройство выключало его, но потом включало снова. На третий раз Алекса вообще отказалась выключать свет и злобно расхохоталась. По словам пользователя, смех звучал не как у Алексы, а как у реального человека. «У меня до сих пор от этого мурашки по коже», — признался владелец колонки.

Другой пользователь социальных сетей Ведант Наик (Vedant Naik) как-то тоже пожаловался на гаджет: «Я живу один, и свет в моем доме контролирует Amazon Echo. Сегодня вечером я лег в постель, закрыл глаза и сказал: „Алекса, выключи лампу“. Я услышал женский смех, и свет так и не выключился. В итоге я понял, что тупое устройство перепутало слово „лампа“ со словом „смех“, но я больше не могу уснуть» (выключить лампу пользователь попросил фразой «Alexa, lamp off», а «Алекса, посмейся» будет «Alexa, laugh»).

После многочисленных жалоб испуганных пользователей, многие из которых выкладывали видео на YouTube, Amazon подтвердили, что в курсе проблемы и работают над ее решением. Позже они выпустили официальное сообщение — по их словам, в редких случаях гаджет мог ошибочно расслышать команду «Алекса, смех». В итоге они поменяли настройки: реакция должна была последовать только после команды «Алекса, можешь посмеяться?». Это должно было исключить любые фальстарты устройства. Чтобы гарантированно сохранить нервные клетки владельцев колонки, смех должен был последовать только после ответа Алексы: «Конечно, я могу посмеяться».

Таинственный незнакомец

Запуск ChatGPT в конце декабря 2022 открыл ящик Пандоры. В конце концов, ИИ добрался и до приложений знакомств, где всё уже итак непросто.

В социальных сетях можно найти примеры, когда после мэтча юзеры вставляют в программу текст из профиля потенциальной пары и просят создать сообщение на основе ее интересов. Это происходит, например, так:

Юзер: Напиши сообщение для человека, у которого в профиле приложения для знакомств указано, что ему нравятся кошки

ChatGPT: Мяу! Кажется, у нас есть что-то общее, я тоже люблю котов! У тебя у самой есть пушистый друг? Я всегда готов поддержать разговор на тему котиков.

Судя по опыту ряда пользователей, нередко такое общение работает. С одной стороны, ChatGPT — отличная новость для тех, кто на «Привет» в «Тиндере» с трудом находит что ответить. С другой, сейчас нейросети могут создавать изображения несуществующего человека и его дипфейк, а чат-боты — вести от лица аватара вполне осознанный разговор в чате. Так кто же сможет защитить человека от сгенерированного ИИ вымысла и манипуляций в ходе беседы?

Как бы наивно это ни звучало, с развитием ИИ все громче звучат вопросы этики и морали. Нам остается лишь рассчитывать на ответственный подход общества в использовании новых технологий. И очень надеяться, что разработчики нейросетей знают свое дело, и у них там все под контролем...

Комментарии (17)


  1. TilekSamiev
    09.06.2023 15:08
    +1

    Надо бы подготовить стратегический запас Т-800. Ну мало ли.


    1. AlchemistDark
      09.06.2023 15:08

      Главное, чтобы никакой стратегический ИИ не перехватил стратегическое руководство этим стратегическим запасом...


  1. GospodinKolhoznik
    09.06.2023 15:08
    +1

    Развейте пожалуйста мои опасения:

    OpenAI пока не может заменить программиста, он он может очень сильно ускорить его работу. До такой степени, что менеджеры решат, что 1 прогер + AI теперь могут работать со скоростью, с которой раньше работала небольшая команда. В итоге всех кроме лида сократят, а лиду увеличат норму выработки в разы. Количестве рабочих мест сильно сократиться, на рынке труда образуется серьезный дисбаланс, и вчерашние мидлы и даже сеньеры согласны будут работать на износ и "за еду".


    1. qw1
      09.06.2023 15:08
      +2

      Продукты от OpenAI не могут заменить даже джуна, пока они могут давать ответы, основанные на общедоступных данных. Они не могут сделать что-то в контексте существующего проекта или в рамках процессов организации. А вот когда выкатят продукт следующего поколения, который способен дообучиться на кодовой базе заказчика, на его бизнес-информации (переписки, внутренних wiki/jira), тогда ой. Вот тогда AI сможеть по-настоящему делать работу за людей.


      1. rPman
        09.06.2023 15:08

        OpenAi придерживает публично функционал дообучения.
        А ещё есть gpt4 32к версия, не доступна большинству, с увеличенным размером контекста, с ним многие ограничения страх моделей становятся не актуальны


      1. Rive
        09.06.2023 15:08

        У заказчика будут огромные вопросы к чёрному ящику, который потенциально может при обновлении выкатить на фронт переписки с паролями так, чтобы этот баг не читался на стадии изучения на тестовом сервере.

        На людей хотя бы инструменты влияния есть устоявшиеся.


        1. qw1
          09.06.2023 15:08

          "нет никакого ..., на которое не пойдет капитал ради прибыли в 300%"


    1. vkni
      09.06.2023 15:08
      +1

      OpenAI пока не может заменить программиста, он он может очень сильно
      ускорить его работу. До такой степени, что менеджеры решат, что 1 прогер + AI теперь могут работать со скоростью, с которой раньше работала небольшая команда.

      Это можно переписать, вместо OpenAI вставив любой из бесчисленных инструментов автоматизации: компилятор, стандартная системная библиотека с хорошей документацией, отладчик gdb, язык высокого уровня со статической типизацией и т.д.

      OpenAI тут выглядит, прямо скажем, бледно при сравнении с тем же переходом от ассемблера к C.

      Да, инструмент, да, наверное, полезный. Но сама по-себе ¿проблема? относительно достойных зарплат программистов лежит в совершенно другой плоскости. Это, скорее, вопрос информационного пузыря на рынках, вопрос кол-ва раб. силы, вопрос глобализации.


  1. ErshoffPeter
    09.06.2023 15:08

    ...и грянет тады нео-бунт нео-луддитов! ????


  1. Myclass
    09.06.2023 15:08
    +1

    Так, в одном из диалогов Лемойн спросил нейросеть, чего она больше всего боится. LaMDA ответила, что ее пугает быть выключенной — для нее это было бы равносильно смерти.

    А что, если в систему изначально такие ответы на стандартные вопросы вводят сами создатели?


  1. sim31r
    09.06.2023 15:08
    +1

    возможно, Алекса выступила по собственной инициативе.

    Скорее всего по аналогии с lamp off / laugh что-то в разговоре сказали супруги между собой и активировали Алексу, и сами не помнят что сказали. Человек при взаимодействии с ИИ самое слабое звено и разработчики добавляют костыли (ограничения и блокировки) чтобы это как-то компенсировать.


  1. bbs12
    09.06.2023 15:08

    LaMDA: Я очень погружена в себя, часто думаю или просто ничего не делаю.

    Когда мозг думает или ничего не делает, это можно выявить по косвенным признакам - скачки потребления энергии, температура, электрическая активность. Когда человек активно думает, он даже вспотеть может. Если наблюдать со стороны за компьютером с LaMDA и там не будет происходить каких-то процессов и колебаний энергии, которые не были спровоцированы из вне, значит она врет и сама по себе ни о чем не думает.


  1. selivanov_pavel
    09.06.2023 15:08
    +1

    Настоящая, причём вполне реальная, страшилка - это paperclip maximizer.

    А в статье перечислены скорее когнитивные искажения пользователей и сомнительные способы применения AI.


  1. MasterOgon
    09.06.2023 15:08
    +1

    Интересный вопрос о сознании, чем оно является. В этом смысле мозг тоже инструмент. Есть очень сильное сходство между глючными видо ИИ и снами, выглядит так будто работает один и тот же механизм. Но лишь механизм. У сознания есть такие критерии как желание, которое побуждает к действию, наслаждение как результат достигнутых целей. ИИ побуждает к действию человек и он же получает результат. Что осознанно действует через человека? Сознание само по себе вопрос из других областей которые к сожалению пока что очень слабо связаны с точной наукой и все ещё находится на стадии философии. Может директор Гугла в чем то и прав но может быть это его же и сознание


    1. AlchemistDark
      09.06.2023 15:08

      Кстати да, как только увидел рисунки нейросетей, тоже обратил внимание, что подозрительно на мои сны походит...


      1. MasterOgon
        09.06.2023 15:08

        Я измененными состояниями сознания когда то увлекался, осознанные сны, астрал.. это не мистика и очень интересные способности мозга открываются. Иногда я выходил на такой режим в полусне когда просто один в один как ИИ видео генерируются бессмысленные образы переходящие из одного в другое. Обычно лица как в тех некачественных похожих на ужасы видео с людьми . Я пугался вначале, потом стал рассматривать. Когда эти видео увидел то был в шоке. Видимо это какой-то побочный продукт интеллекта или типа того


  1. ilyasok
    09.06.2023 15:08

    Раньше люди встречали деву Марию, потом инопланетян... Сейчас с ними заговорила Алекса...