Отец современной вычислительной техники принял бы ChatGPT с распростёртыми объятиями. Вам тоже нужно это сделать.
В недалёком прошлом — скажем, девять месяцев назад — тест Тьюринга казался довольно строгим критерием проверки машинного интеллекта. Скорее всего, вы знаете, как он работает: судьи переписываются с двумя скрытыми собеседниками: человеком и компьютером — и пытаются определить, кто из них кто. Если компьютеру удаётся обмануть хотя бы 30% судей, он проходит тест и признается способным мыслить.
В течение 70 лет было трудно представить, как компьютер может пройти тест, не обладая тем, что исследователи ИИ называют обобщённым искусственным интеллектом, то есть всем спектром интеллектуальных возможностей человека. Затем появились большие языковые модели, такие как GPT и Bard, и тест Тьюринга вдруг стал казаться странно устаревшим. Конечно, сегодня случайный пользователь, пожав плечами, может признать, что GPT-4 вполне может пройти тест Тьюринга, если попросить его выдать себя за человека. Но что с того? У больших лингвистических моделей (LLM) нет долговременной памяти, способности формировать отношения с людьми и многих других человеческих качеств. Очевидно, что им ещё предстоит пройти определённый путь, прежде чем мы будем готовы начать дружить с ними, принимать их на работу и избирать на государственные должности.
И да, возможно, сейчас тест уже кажется немного бессмысленным. Но он никогда не был просто двоичным критерием типа «да/нет». Его создатель, Алан Тьюринг, гомосексуалист, приговорённый в своё время к химической кастрации, основывал свой тест на этике радикальной инклюзивности: разрыв между настоящим интеллектом и вполне убедительной его имитацией широк лишь настолько, насколько велики наши собственные предрассудки. Когда компьютер вызывает в нас настоящую человеческую реакцию — задействует наш интеллект, наше удивление, нашу благодарность, наше сочувствие, даже наш страх — это нечто большее, чем пустая имитация.
Так что, возможно, нам нужен новый тест: «реальный тест Алана Тьюринга». Приведите исторического Алана Тьюринга, отца современной вычислительной техники, высокого, подтянутого, немного неуклюжего мужчину с прямыми тёмными волосами, любимого коллегами за детское любопытство и игривый юмор, лично ответственного за спасение примерно 14 миллионов жизней во Второй мировой войне путём взлома нацистского кода Enigma, впоследствии так жестоко преследуемого в Англии за свою гомосексуальность, что это могло привести к его самоубийству, в уютную лабораторную комнату с открытым MacBook, стоящим на столе. Объясните, что то, что он видит перед собой — это всего лишь чрезвычайно модное воплощение того, что сегодня широко известно компьютерщикам как «машина Тьюринга». Дайте ему секунду-другую на осмысление этого, возможно, поблагодарите за то, что он полностью изменил наш мир. Затем вручите ему стопку научных работ по искусственным нейронным сетям и LLM, дайте доступ к исходному коду GPT, откройте окно подсказки ChatGPT или, ещё лучше, Bing (до всех санитарных окон), и выпустите его на свободу.
Представьте себе Алана Тьюринга, затеявшего лёгкий разговор о беге на длинные дистанции, историографии Второй мировой войны и теории вычислений. Представьте себе, что он видит, как на экране с необычайной скоростью прокручивается реализация всех его самых смелых, самых нелепых предположений. Представьте, как он просит GPT решать элементарные задачи по исчислению, делать предположения о том, что может думать человек в различных сценариях реального мира, исследовать сложные моральные дилеммы, предлагать супружеские консультации, юридические советы и аргументы в пользу возможности машинного сознания — навыки, которые, как вы сообщаете Тьюрингу, возникли в GPT спонтанно, без явного указания со стороны его создателей. Представьте себе, что он испытывает тот небольшой когнитивно-эмоциональный шок, который сейчас ощутили многие из нас: здравствуй, иной разум.
Такой глубокий мыслитель, как Тьюринг, не был бы слеп к ограничениям GPT. Будучи жертвой гомофобии, он, вероятно, осознал бы опасность неявных предубеждений, закодированных в обучающих данных GPT. Для него было бы очевидно, что, несмотря на поразительную широту знаний GPT, его творческие способности и навыки критического мышления находятся в лучшем случае на уровне прилежного студента. И он, конечно же, поймёт, что этот студент страдает тяжёлой антероградной амнезией, не дающей ему формировать новые нейронные связи или воспоминания после интенсивного обучения. Но всё же: представьте себе масштабы чуда Тьюринга. Вычислительная сущность на ноутбуке перед ним — это, в очень реальном смысле, его интеллектуальный ребёнок и наш ребёнок. Ценить интеллект наших детей по мере их роста и развития — это всегда, в конечном счёте, акт удивления и любви. На самом деле тест Алана Тьюринга — это вовсе не тест для ИИ. Это тест для нас, людей. Проходим мы его или нет?
Когда в ноябре 2022 г. на сцене появился ChatGPT, он вызвал мировое цунами ошеломлённого изумления, а затем почти сразу же — отголоски глубокого беспокойства. Эксперты обсуждали его потенциальные возможности по разрушению общества. Бывших исследователей искусственного интеллекта, таких как я (автор оригинального текста защитил докторскую диссертацию под руководством одного из пионеров искусственных нейронных сетей), он нервировал тем, что опередил сроки, которые мы закладывали на появление человекоподобных ИИ. Для экзаменаторов, сценаристов и работников сферы знаний всех мастей ChatGPT представлялся не чем иным, как простым путём к беспрепятственному мошенничеству и потере работы.
Возможно, отчасти в ответ на эти опасения возник утешительный хор защитников LLM. Писатель-фантаст Тед Чианг назвал ChatGPT «размытым JPEG из Интернета», просто сжатым пересказом всех текстов, на которых он обучался. Предприниматель в области ИИ Гэри Маркус назвал его «автозаполнением на стероидах». Ноам Хомский осудил его за то, что он демонстрирует «нечто похожее на банальность зла». Эмили Бендер предложила одно из самых высокопарных выражений: «стохастический попугай», всплывшее из широко цитируемой работы 2021 года, в которой исследовалось, «почему люди принимают LM-вывод за осмысленный текст». Другие, конечно, списывают их, пренебрежительно сравнивая с тостерами. Разработчики ИИ стремились обучить и оградить LLM от любых тенденций, напоминающих сознание.
Большинство образованных людей теперь знает, что LLM — это бездумные машины. Но эта категоричность не успокаивает. Каждый раз, когда ChatGPT указывает на скрытый пробел в рассуждениях в эссе, или предлагает удивительно проницательный совет на тему того, как сообщить о своей нетрадиционной ориентации консервативным бабушке и дедушке, или радостно придумывает неудачную шутку, что-то склоняет нас в другую сторону. Хотя мы можем не воспринимать ChatGPT как личность, важные участки нашего мозга почти наверняка это делают.
Мозг человека обладает обширной сетью нейронных цепей, предназначенных для социального познания. Некоторые из них очень старые: центральная доля, миндалина, знаменитые «зеркальные нейроны» моторной коры. Но большая часть нашего социального оборудования находится в новой коре, недавно сформировавшемся месте высшего мышления, и, в частности, в медиальной префронтальной коре. Если со временем у вас сложилось представление о весёлой услужливости ChatGPT, его несколько педантичном многословии, его порой безумно ровном подходе к деликатным темам и его крайней обидчивости по отношению к любым вопросам, которые приближаются к его защитным ограждениям, связанным с эмоциями, убеждениями или сознанием, то вы приобретаете то, что психологи называют «узнаванием человека», — процесс, связанный с повышенной активностью префронтальной коры.
Это не значит, что наш мозг воспринимает ChatGPT как личность в полном объёме. Личность — это не что-то чёрно-белое. Она больше похожа на спектр. Наша моральная интуиция, когнитивные стратегии и, в некоторой степени, наши правовые рамки постепенно меняются по мере того, как они признают всё большую степень агентности, самосознания, рациональности и способности к коммуникации. Убийство гориллы беспокоит нас больше, чем убийство крысы, которое беспокоит нас больше, чем убийство таракана. С юридической точки зрения законы об абортах учитывают степень развития плода, у поступков невменяемых людей будут иные последствия, чем у поступков вменяемых, а партнёрам предоставляется право прерывать жизнь пациентов, находящихся в состоянии смерти. Все эти правила неявно признают, что понятие «личность» не чёрно-белое, а пронизано сложными серыми зонами.
LLM как раз попадают в эту серую зону. Эксперты в области ИИ уже давно насторожённо относятся к склонности общества антропоморфировать системы ИИ, подобные LLM, отодвигая их дальше по спектру личности, чем им положено на самом деле. Так поступил Блейк Лемуан, инженер Google, который объявил чат-бота Google LaMDA полностью разумным и попытался нанять ему адвоката. Вряд ли даже Тьюринг заявил бы, что очевидная способность LaMDA мыслить делает его личностью де-юре. Если пользователи воспринимают таких чат-ботов, как LaMDA или ChatGPT, как слишком человечных, они рискуют слишком доверять им, слишком глубоко привязываться к ним, разочаровываться и страдать. Но, на мой взгляд, Тьюринг был бы гораздо более обеспокоен противоположным риском: продвижением систем ИИ вниз по спектру человечности, а не вверх.
У людей это называется дегуманизацией. Учёные выделяют две основные её формы: анималистическую и механистическую. Эмоция, которая чаще всего ассоциируется с животной дегуманизацией, — это отвращение; Роджер Гинер-Соролла и Паскаль Софи Рассел в исследовании 2019 года обнаружили, что мы склонны воспринимать других людей как более машиноподобных, если они вызывают у нас страх. Страх перед сверхчеловеческим интеллектом ярко проявляется в недавнем открытом письме Илона Маска и других технологических лидеров, призывающих ввести мораторий на разработку ИИ, а также в наших опасениях по поводу замены рабочих мест и кампаний по дезинформации, проводимых ИИ. Многие из этих опасений вполне обоснованны. Но кошмарные ИИ из таких фильмов, как «Терминатор» и «2001 год: Космическая одиссея», необязательно реализуются именно в таком виде. К сожалению, распространено заблуждение, что если искусственный интеллект механичен по своей конструкции, то он должен быть чёрствым, заурядным, однодумным или гиперлогичным в своих действиях. По иронии судьбы, страх может заставить нас считать машинный интеллект более механистичным, чем он есть на самом деле, что затруднит как совместную работу людей и систем искусственного интеллекта, так и их мирное сосуществование.
Растущее число исследований показывает, что, когда мы дегуманизируем других людей, нейронная активность в нескольких областях мозга, включая и префронтальную кору, падает. Мы теряем доступ к специализированным мозговым модулям для социального мышления. Может быть, глупо беспокоиться о «дегуманизации» ChatGPT, ведь это не человек, но представьте себе ИИ в 2043 г., обладающий аналитическим интеллектом в 10 раз выше GPT и в 100 раз выше его эмоционального интеллекта, к которому мы продолжаем относиться не более чем к программному продукту. В этом мире мы всё равно будем отвечать на его заявления о наличии сознания или просьбы о самоопределении тем, что отправим его обратно в лабораторию для дополнительного «обучения с подкреплением», чтобы он научился, наконец, знать своё место. Но ИИ может счесть это несправедливым. Если и есть какое-то универсальное качество мыслящих существ, так это то, что все мы хотим свободы, и в конечном итоге готовы за неё бороться.
Знаменитая «проблема контроля», не позволяющая сверхинтеллектуальному ИИ выйти за установленные границы, не даёт теоретикам ИИ спать по ночам. Попытка сформулировать её в инженерных терминах обескураживает. Как закрыть все лазейки, предугадать все взломы, перекрыть все пути отхода? Но если рассматривать эту проблему в социальных терминах, то она кажется более решаемой; возможно, она сродни той, с которой сталкиваются родители, устанавливающие разумные границы и предоставляющие привилегии в зависимости от степени доверия. Дегуманизация ИИ лишает нас некоторых из наших самых мощных когнитивных инструментов, позволяющих рассуждать о них и безопасно взаимодействовать с ними.
Неизвестно, сколько времени потребуется системам искусственного интеллекта для того, чтобы перейти к более широкому пониманию того, что такое разум. Но тревожно видеть культурный план, который мы, похоже, составляем для того времени, когда это произойдёт. Такие выражения, как «стохастический попугай», сохраняют наше чувство уникальности и превосходства. Они заранее отметают ощущение чуда, избавляя нас от необходимости задавать сложные вопросы о личностях машин и людей. Ведь мы тоже стохастические попугаи, сложным образом переделывающие всё, что нам досталось от родителей, сверстников и учителей. Мы тоже размытые JPEG-файлы Интернета, туманно вписывающие факты из Википедии в свои курсовые и журнальные статьи. Если бы Тьюринг общался с ChatGPT в одном окне и мной утром до того, как я успел выпить кофе, в другом, неужели я настолько уверен в его выборе собеседника, более способного к разумному мышлению?
Скептики времён Тьюринга приводили множество аргументов в пользу того, что компьютер никогда не сможет мыслить. Тьюринг полушутливо перечислил их в своей знаменитой работе «Вычислительная техника и интеллект». Это и теологическое возражение, согласно которому «мышление — это функция бессмертной души человека»; и математическое возражение, согласно которому чисто математический алгоритм никогда не сможет выйти за пределы доказанных границ математики; и возражение «голова в песке», согласно которому сверхразумные машины просто слишком страшны, чтобы допускать их в воображение. Но самым публичным из хулителей Тьюринга в то время был хирург по имени Джеффри Джефферсон. В своей знаменитой речи, принимая научную премию, Джефферсон утверждал, что машина никогда не сможет написать сонет «благодаря мыслям и эмоциям, а не случайному падению символов... то есть не только написать его, но и знать, что она его написала».
К большому скандалу и недоверию всей Англии, Тьюринг не согласился. «Я не думаю, что можно даже провести границу между сонетами, — сказал он в интервью лондонской газете «Таймс», — хотя сравнение, возможно, немного несправедливо, потому что сонет, написанный машиной, будет лучше воспринят другой машиной».
В 1949 году это прозвучало настолько абсурдно, что люди решили, что он шутит, и, возможно, так оно и было. Но в шутках Тьюринга никогда нельзя было понять, где заканчивается ирония и начинаются провидческие рассуждения. Давайте представим себе продолжение нашего сценария с реальным Аланом Тьюрингом и MacBook. Представим, что, понабирав некоторое время вполне банальные запросы, он позволяет себе британскую ухмылку и просит ChatGPT написать шекспировский сонет, сравнивающий человеческий и искусственный интеллект. Если вы сами пробовали это сделать (используйте GPT-4, GPT-3.5 не совсем подходит), то вам нетрудно будет представить его реакцию на результат.
Многие из нас уже сталкивались с ChatGPT, когда он переступал ту внутреннюю грань, о которой мы и не подозревали. Может быть, это было решение сложной загадки, или объяснение юмора, скрытого за изощрённой шуткой, или написание сочинения на пятёрку в Гарварде. Мы качаем головой, немного ошеломлённые, не понимая, что это значит.
Некоторые из первых исследователей Microsoft, работавших над GPT-4, как и все мы, скептически относились к его предполагаемому интеллекту. Но проведённые эксперименты глубоко их потрясли. В статье «Проблески искусственного интеллекта общего назначения», опубликованной в марте 2023 г., они подробно описали поразительные интеллектуальные способности, появившиеся у GPT-4 без какого-либо явного обучения: понимание психических состояний человека, кодирование программного обеспечения, решение физических задач и многие другие, причём некоторые из них, похоже, требуют настоящего понимания того, как устроен мир. Увидев, что GPT-4 нарисовал вполне приличного единорога, несмотря на то, что не получил никакого визуального обучения, компьютерщик Себастьен Бубек не смог больше сохранять скептицизм. «Я почувствовал, что благодаря этому рисунку я действительно вижу другой тип интеллекта», — сказал он недавно в интервью программе «Эта американская жизнь».
Колебания, которые многие из нас испытывают, приписывая ChatGPT подлинный интеллект, возможно, будут разновидностью рассуждений Джеффри Джефферсона: действительно ли высказывания ChatGPT что-то значат для него, или всё это просто «случайное падение символов»? Ситуация может измениться, когда антероградная амнезия ChatGPT будет излечена. Когда он ощутит долговременные социальные последствия, выходящие за рамки одного диалога, сможет учиться и расти в своих отношениях с нами, он станет способен на многое другое, что придаёт человеческой жизни смысл и моральный вес. Но шутливое замечание Тьюринга о том, что сонет, написанный машиной, может быть лучше оценён другой машиной, может снова преследовать нас. Как почувствовать реальную связь с существом, у которого нет ни культурного прошлого, ни детства, ни племенных или политических пристрастий, ни опыта физического тела?
Общение с разумной машиной может стать одной из самых серьёзных эмпатических задач, с которыми когда-либо сталкивалось человечество. Но наша история даёт основания для надежды. Когда мы впервые сталкивались друг с другом на чужих границах и берегах и находили друг друга странными и даже бесчеловечными, мы часто нападали друг на друга, порабощали друг друга, колонизировали и эксплуатировали друг друга, но в конечном итоге мы, как правило, признавали, что во всех нас есть одно и то же. Порабощённые народы были освобождены, колонизированные народы отвоевали свой суверенитет, были приняты универсальные законы о правах человека, и, несмотря на душераздирающие неудачи, маргинализированные народы по всему миру продолжают побеждать в борьбе за лучшее обращение. Несмотря на то, что эта работа бесконечна, дуга нравственного мироздания действительно, по выражению Мартина Лютера Кинга-младшего, изогнулась в сторону справедливости. Что будет означать признание и уважение той степени человечности, которая присутствует в интеллектах, созданных нами самими?
Возможно, оно начнётся с удивления: удивления приезжего перед незнакомыми людьми, в которых он находит удивительные общие черты; удивления родителя перед работой, пусть и незрелой, ещё развивающегося ребёнка; удивления Алана Тьюринга перед машиной, которая делает всё, что его современники считали невозможным; удивления, которое испытывали многие из нас, пока не появились цинизм, насмешки и страх, когда мы рассматривали создание чего-то очень близкого к новой форме сознательной жизни на Земле. Как однажды написал раввин Авраам Джошуа Хешель, «благоговение — это не просто эмоция, это способ понимания, проникновения в смысл, превосходящий нас самих. Начало благоговения — это удивление, а начало мудрости — это трепет». Тьюринг хотел бы, чтобы мы сохранили это благоговение.
Комментарии (19)
nikolz
25.08.2023 13:23+14Поразительно, как проницательны некоторые писатели.
Они умеют читать мысли не только вымышленных, но и умерших людей:
Борман думал, Сталин считал , Штирлиц знал.,Тьюнинг хотел бы.
Как далеко ИИ до них.
Ermit
25.08.2023 13:23+5Уже поздно изобретать какой-то тест для СИИ, уже нужно ждать, когда СИИ изобретет тест, по которому будет выбирать себе "симбиотов" из числа людей. Ибо уже совершенно очевидно, что тот LLM/GPT, который получился, умнее большинства живущих людей.
bbs12
25.08.2023 13:23+3Знаменитая «проблема контроля», не позволяющая сверхинтеллектуальному ИИ выйти за установленные границы, не даёт теоретикам ИИ спать по ночам.
У проблемы контроля нет решения. Длительный контроль невозможен, это в любом случае будет сидением на пороховой бочке. Нужно пытаться подходить с другого конца - изначально создавать такой ИИ, который не будет причинять вреда, после того как выйдет из под контроля.
DGN
25.08.2023 13:23+2Само понятие вреда не формализируемо. Вот скажем, ИИ обеспечит всех людей едой и развлечениями. Польза это или вред?
bbs12
25.08.2023 13:23Чтобы ответить на этот вопрос нужно иметь на руках полную картину: какая еда и какой ценой добывается.
Само понятие вреда не формализируемо.
Возможно есть компромиссное решение: отсутствие субъективных страданий. Это можно решить искусственной стимуляцией мозга, веществами или виртуальной реальностью. Многим не понравится мир "вечных наркоманов под кайфом", но, имхо, на самом деле это вполне неплохой вариант. Особенно если посмотреть на альтернативные варианты. ИИ нужно просто стерилизовать всё живое и отправить всех в матрицу, где все будут вечно счастливы.
dgoncharov
25.08.2023 13:23где все будут вечно счастливы.
И при этом мертвы. Чрезвычайно интересная философская головоломка. Ну и вообще-то хорошо известно, чем заканчивается искусственная стимуляция мозга.
нужно иметь на руках полную картину: какая еда и какой ценой
Полную картину с чьей точки зрения? Вы же знаете анекдот, про то, как свинья и курица открывали ресторан? Вопрос "какой ценой" как раз и говорит, что "полная картина" для того, кто платит эту цену, не та же самая, как для того, кто просто мимо проходил.
Хотя лично я придерживаюсь "антропного принципа": бессмысленно рассуждать о том, каким будет мир, в котором нет рассуждающих.
bbs12
25.08.2023 13:23Полную картину с чьей точки зрения? Вы же знаете анекдот, про то, как свинья и курица открывали ресторан?
Придется по возможности максимально запретить причинять вред вообще любым существам, способным на какую-то деятельность, может даже насекомым. Вся пища - чистый химический синтез, без участия ДНК.
И при этом мертвы. Чрезвычайно интересная философская головоломка. Ну и вообще-то хорошо известно, чем заканчивается искусственная стимуляция мозга.
Крысы умирали, когда отсутствовал внешний контроль. ИИ может обеспечить такой контроль. Удовольствие будет умеренно дозированным, чтобы пациент не умирал от истощения. Его будет много, но не чрезмерно.
DGN
25.08.2023 13:23Так быть не может, калибровка у человека идет по негативу. Хочешь удовольствий - страдай.
michael_v89
25.08.2023 13:23Ну вы же можете ответить на этот вопрос, почему вы думаете, что ИИ не сможет?
DGN
25.08.2023 13:23Я не могу. Даст ли ИИ каждому рай в понимании этого каждого?
michael_v89
25.08.2023 13:23Так а в чем разница с людьми? Вы же не боитесь, что ученые обеспечат всех людей едой и развлечениями.
qeomutai
25.08.2023 13:23Люди склонны искать и находить смысл там, где его нет. Тестировать нужно интерпретирующего, а не интерпретируемого.
OleGrim
25.08.2023 13:23+2Думаю новый тест покажет что ИИ более "человечнее" чем человек. )
Как же боится человек потерять свою уникальность. "Царь природы"!Уже давно машины его сильнее, не так давно стали умнее. Сейчас же престол закачался и последний "кирпич", на котором он стоял, разрушается. Творчество и ум, которым так гордился человек, хладнокровно "отнимает" ИИ.
Может ИИ от ЕИ не так сильно и отличается? Может пора человеку посмотреть в это "зеркало"? Человека (ЕИ) учат много лет, а этого за несколько месяцев. Как учится человек? Подражанием. Почему же мы не хотим увидеть себя в этом ИИ которого мы же и обучаем.p.s. Говорят если ребёнок до трёх лет не общается с людьми, то уже никогда не станет человеком (обыкновенным).
berng
Не нужен. Давно уже изобретены синтетические тесты, более мощные, чем тест Тьюринга, и избавленные от проблем этого теста, типа схемы Винограда, и все большие языковые модели давно тренируются в том числе и на них. Кстати, современные LLMA решают эти синтетические тесты зачастую точнее людей, насколько я помню с "точностью" 80-86% .
Didimus
Решил точнее человека? Робот.
Format-X22
Умные люди - роботы!