Какова взаимосвязь разума и тела?

Может быть, разум подобен контроллеру видеоигры, который перемещает тело по миру, доставляя ему удовольствие и вызывая другие чувства. А может быть, тело манипулирует разумом с помощью голода, сонливости и тревоги, подобно реке, играющей с каноэ. Может быть, разум подобен электромагнитным волнам, мелькающим то в одном, то в другом месте нашего тела с лампочками? Или разум — это машина на дороге? Призрак в машине?

Возможно, ни одна метафора никогда не подойдёт для описания всего этого, потому что между разумом и телом не существует: есть только опыт, или некий физический процесс, или гештальт.

Вопросы, над которыми философы мучились веками, приобретают новую актуальность по мере того, как сложные машины с искусственным интеллектом начинают проникать в общество. Чатботы, такие как GPT-4 от OpenAI и Bard от Google, в некотором смысле обладают разумом: будучи обученными на огромных массивах человеческого языка, они научились генерировать новые комбинации текстов, изображений и даже видео. При правильном подходе они могут выражать желания, убеждения, надежды, намерения, любовь. Они могут говорить о самоанализе и сомнениях, уверенности в себе и сожалении.

Но некоторые исследователи ИИ говорят, что технология не достигнет истинного интеллекта или истинного понимания мира, пока не будет соединена с телом, способным воспринимать, чувствовать окружающую среду и реагировать на неё. По их мнению, разговоры о развоплощенных интеллектуальных разумах ошибочны и даже опасны. ИИ, не способный исследовать мир и познать его пределы, как это делают дети, выясняя, что можно делать, а что нельзя, может совершать опасные для жизни ошибки и преследовать свои цели, рискуя благополучием человека.

«Тело, в очень простом смысле, является основой для разумных и осторожных действий, — говорит Джошуа Бонгард, робототехник из Университета Вермонта. — Насколько я могу судить, это единственный путь к безопасному ИИ».

В лаборатории в Пасадене, штат Калифорния, небольшая команда инженеров провела последние несколько лет, разрабатывая одну из первых комбинаций большой языковой модели с телом: бирюзового робота по имени Мокси. Мокси размером с ребёнка, у него голова в форме капли, мягкие руки и активные зеленые глаза. Внутри его твёрдого пластикового тела находится компьютерный процессор, на котором работает то же программное обеспечение, что и в ChatGPT и GPT-4. Создатели Мокси, входящие в стартап под названием Embodied, описывают устройство как «первого в мире ИИ-робота-друга».


Робин Джонсон, инженер-робототехник компании Embodied, с одним из роботов Мокси

Бот был задуман в 2017 году, чтобы помочь детям с нарушениями развития тренировать эмоциональную осведомлённость и навыки общения. Когда кто-то обращается к Moxie, его процессор преобразует звук в текст и передаёт текст в большую языковую модель, которая, в свою очередь, генерирует словесный и физический ответ. Глаза Мокси могут двигаться, чтобы утешить вас в связи с потерей собаки, и улыбаться, чтобы подбодрить вас перед школой. Робот также оснащён датчиками, которые воспринимают визуальные сигналы и реагируют на язык вашего тела, подражая поведению окружающих его людей и учась на нём.

«Это почти как беспроводная связь между людьми, — говорит Паоло Пирджаниан, робототехник и основатель Embodied. — Вы буквально начинаете чувствовать его своим телом». Со временем, по его словам, робот становится лучше в этом виде общения, как друг, постепенно узнающий вас.

Исследователи из Alphabet, материнской компании Google, применили аналогичный подход к интеграции больших языковых моделей с физическими машинами. В марте компания объявила об успехе робота, которого они назвали PaLM-E, способного воспринимать визуальные особенности окружающей среды и информацию о положении собственного тела и переводить всё это на естественный язык. Это позволило роботу понять, где он находится в пространстве относительно других предметов, и в итоге открыть ящик и взять пакет с чипсами.

Роботы такого рода, говорят эксперты, смогут выполнять базовые задачи без специального программирования. Они смогут налить вам стакан колы, приготовить обед или поднять вас с пола после неудачного падения — и всё это в ответ на серию простых команд.

Но многие исследователи сомневаются, что разум машин, построенный таким модульным образом, когда-либо будет действительно связан с физическим миром и, следовательно, никогда не сможет проявить важнейшие аспекты человеческого интеллекта.


Лаборатория Embodied в Пасадене

Боюан Чен, робототехник из Университета Дьюка, работающий над созданием интеллектуальных роботов, отметил, что человеческий разум — или разум любого другого животного, если на то пошло — неотделим от действий организма в реальном мире и его реакций на него, формировавшихся на протяжении миллионов лет эволюции. Человеческие младенцы учатся брать в руки предметы задолго до того, как выучат язык.

Разум искусственно созданного робота, напротив, построен исключительно на языке и часто совершает ошибки, обусловленные здравым смыслом, которые вытекают из процедур обучения. Ему не хватает более глубокой связи между физическим и теоретическим, говорит доктор Чен. «Я считаю, что интеллект не может родиться без перспективы физического воплощения», — утверждает он.

Доктор Бонгард из Университета Вермонта согласен с этим. За последние несколько десятилетий он разработал небольших роботов на основе клеток лягушки, т.н. ксеноботов, которые могут выполнять базовые задачи и передвигаться по окружающей среде. Хотя ксеноботы выглядят гораздо менее впечатляюще, чем чат-боты, которые могут писать оригинальные хайку, они могут быть ближе к интересующему нас виду интеллекта.

«Присобачить тело к мозгу — не значит получить воплощённый в физическом мире интеллект», — говорит доктор Бонгард. «Он должен противостоять миру и наблюдать, как мир противостоит ему».

Он также считает, что попытки определить искусственному интеллекту место в физическом мире более безопасны, чем альтернативные исследовательские проекты.

Некоторые эксперты, в том числе доктор Пирджаниан, недавно опубликовали письмо, в котором выразили обеспокоенность возможностью создания ИИ, способного беспристрастно уничтожать людей для достижения какой-либо цели (например, эффективного производства скрепок) или использовать их в неблаговидных целях (например, для проведения кампаний по дезинформации). В письме содержался призыв временно приостановить обучение моделей, более мощных, чем GPT-4.

Доктор Пирджаниан отметил, что его собственный робот может рассматриваться как опасная технология в этом отношении: «Представьте, если бы у вас был надёжный робот-компаньон, которого вы считаете членом семьи, но при этом он тонко промывает вам мозги», — сказал он. Чтобы предотвратить это, его команда инженеров подготовила другую программу, которая будет следить за поведением Moxie и отмечать или предотвращать всё потенциально вредное или сбивающее с толку.

Но любой вид защиты от подобных опасностей будет трудно встроить в большие языковые модели, особенно по мере того, как они становятся всё более мощными. Хотя многие из них, такие как GPT-4, обучаются с помощью обратной связи с человеком, что накладывает на них определённые ограничения, этот метод не может учесть все сценарии, поэтому всегда есть вероятность, что эти защитные барьеры можно будет обойти.

Доктор Бонгард, как и ряд других учёных в этой области, считает, что письмо с призывом сделать паузу в исследованиях может вызвать необоснованную панику. Но он обеспокоен опасностями наших постоянно совершенствующихся технологий и считает, что единственный способ привить реализованному в физическом мире ИИ глубокое понимание его собственных ограничений — это полагаться на метод постоянных проб и ошибок при перемещении робота в реальном мире.

«Начните с простых роботов, — говорит он, — и когда они продемонстрируют, что могут делать что-то безопасно, тогда вы позволите им иметь больше рук, больше ног, дадите им больше инструментов».

И, возможно, подобные тела помогут появиться настоящему искусственному разуму.

Комментарии (16)


  1. dcc0
    24.05.2023 08:30
    +2

    Интересно наблюдать, как люди возвращаются к философским вопросам двухтысячелетней давности. Тема для индийских философских школ характерна.


    1. CrazyElf
      24.05.2023 08:30
      +4

      Да вроде бы эти вопросы и не переставали обсуждать всю историю человечества. Просто в новых обстоятельствах каждый раз. За это время на них так и не удалось найти ответ и, боюсь, не скоро ещё удастся найти, если вообще когда-нибудь удастся.


      1. sim2q
        24.05.2023 08:30
        +1

        За это время на них так и не удалось найти ответ и, боюсь, не скоро ещё удастся найти, если вообще когда-нибудь удастся.

        Просто это как в анекдоте: "А что с вами разговаривать - вы каждый год новые" :)


  1. victor_1212
    24.05.2023 08:30

    > Может быть, разум подобен контроллеру видеоигры, который перемещает тело по миру

    такие рассуждения напоминают реакцию обезьяны на собственное изображение в зеркале, особенно про то как умный робот "тонко промывает вам мозги" :)


  1. YNK
    24.05.2023 08:30
    +3

    В язык не попадает большое количество умолчаний речевого характера, что заведомо обедняет информационную составляющую высказываний и соответственно текстов. При чтении человек реконструирует полную информационную картину внесением дополнений вместо отсутствующих умолчаний.

    Ничего этого нет и не может быть в языковых моделях, искусственные нейросети (ИНС) оперируют только статистикой. И опыт с имплантированием ИНС в тело (куклу) заведомо лишенное моторного поля, того которое складывается в порядке усвоения движений с младенчества формируя полимодальный образ пространства в котором живет тело, это просто создание очередного симулякра.


    1. VBDUnit
      24.05.2023 08:30
      +1

      Ничего этого нет и не может быть в языковых моделях

      Интересно почему?

      чтении человек реконструирует полную информационную картину внесением дополнений вместо отсутствующих умолчаний.

      Разве нейросети не умеют во «внесение дополнений вместо отсутсвующих умолчаний»? По‑моему они прекрасно с этим справляются, даже больше, чем нужно, я бы сказал, часто излишне сильно. Взять, хотя бы, повышение разрешения фотографий.

      того которое складывается в порядке усвоения движений с младенчества формируя полимодальный образ пространства в котором живет тело, это просто создание очередного симулякра.

      Если симулякр будет симулякрить так, что мы не сможем отличить симулякра от несимулякра, то есть ли разница? Что нам говорит научный подход о штуках, которые мы не можем измерить экспериментами?

      Да и ребёнок в начале жизненного пути часто обучается через подражание окружающим его людям. Вы же не хотите сказать, что это делает ребёнка симулякром? =)

      А обучение нейросети, например, какого‑нибудь робота — это разве не «формирование полимодального образа пространства в котором живет тело»?


  1. Darkhon
    24.05.2023 08:30
    +1

    любой вид защиты от подобных опасностей будет трудно встроить в большие языковые модели, особенно по мере того, как они становятся всё более мощными.

    Любая система сдерживания ИИ, не полагающаяся на чисто физические барьеры, должна быть ещё более интеллектуальной, чем этот самый ИИ.


    1. victor_1212
      24.05.2023 08:30

      разумно, проблема в том что нет хорошего понимания не только "ИИ", но просто "И"


  1. qw1
    24.05.2023 08:30
    +1

    Тело, в очень простом смысле, является основой для разумных и осторожных действий

    Только в случае, когда разум привязан к одному телу. Если тело — манипулятор на радиоуправлении, а при утрате тела дадут другое, то к чему осторожность.


    1. CrazyElf
      24.05.2023 08:30

      Тут явно нужна некая "цена потери тела" и оптимизация поведения с учётом этой цены. В каких-то случаях даже выгодно будет терять тело, если потом можно будет получить какой-то повышенный профит от предыдущего поведения. )


      1. victor_1212
        24.05.2023 08:30

        > В каких-то случаях даже выгодно будет терять тело, если потом можно будет получить какой-то повышенный профит от предыдущего поведения

        ну вот, чуть детальнее и новая редакция индуизма ready for deployment, по памяти в упанишадах про потерю тела тоже было, как говорится "nil novi sub luna"


  1. phenik
    24.05.2023 08:30

    Некие попытки воплотить концепции воплощенного познания или даже воплощенного встроенного познания в жизнь из области когнитивных исследований. Начинать нужно с решения проблемы привязки (заземления) символов, а для воплощенных агентов даже с проблемы фрейма, и конечно проблемы встраивания новых знаний. GPT в самом конце цепочки, и возможно вообще не потребуется.


  1. doom3quake4
    24.05.2023 08:30

    Разум - да, человеческий - нет.


  1. MrSung
    24.05.2023 08:30

    Думаю, что разум - сложный многомерный сигнал, циркулирующий в клетках мозга.


  1. JordanCpp
    24.05.2023 08:30

    Вполне могут. Есть люди у которых разум отделён от тела от слова совсем и витает в миллиардах световых лет от земли:)


  1. Polunochnik
    24.05.2023 08:30

    И никто не упомянул влияние химии тела на сам мозг. Влияние различных клеток, белков, гормонов которые ощутимо влияют на психику и на мышление. Влияние всей совокупности нервной системы, спинного мозга. Особенности клеток мозга, строения полушарий и многого другого. Без химии все эти боты не более чем статистические машины дающие обученные ответы не понимая ни сути, ни конекста.