К вопросу о разнице мышления...
К вопросу о разнице мышления...

На вопрос отвечают несколько LLM: GPT-4, Claude 3.5 Sonnet, LLAMA 3.1 405b instruct, а также две русскоязычные: YandexGPT 2 и GigaChat от Сбера.

Далее мы проводим разбор "за" и "против" для каждого аргумента / группы схожих аргументов (философских, биологических, эволюционных, технологических, экономических...) Ключевой вопрос: смогут ли искусственные нейросети достичь сходной с человеком "мощности мышления" - схожими с человеческими либо отличными от человеческого, "нечеловеческими" методами?

Вопрос крайне дискуссионный, желающие оценить и покритиковать эти аргументы приглашаются в комментарии...

Итак, сначала послушаем ответы нескольких LLM на этот вопрос (не потому, что теперешние LLM "обладают мышлением и независимым мнением", а потому, что это лучший способ получить выжимку из огромных текстов и дискуссий на эту тему):

GPT-4

Человеческое мышление и языковые модели, такие как Large Language Models (LLMs), имеют несколько принципиальных отличий, несмотря на то, что обе системы могут обрабатывать и генерировать текстовую информацию. Вот некоторые ключевые аспекты:

1. Сознание и самосознание

  • Человеческое мышление: Люди обладают сознанием и самосознанием. Это означает, что они могут размышлять о собственных мыслях, осознавать себя как отдельные сущности, и переживать субъективный опыт.

  • LLMs: Языковые модели не обладают сознанием или самосознанием. Они не понимают свою работу или свое существование и просто выполняют запрограммированные задачи по обработке текста.

2. Понимание и смысл

  • Человеческое мышление: Люди способны понимать смысл и контекст информации не только на уровне поверхностной связности слов и фраз, но и в глубоком когнитивном смысле. Это включает способность понимать эмоциональные и культурные нюансы, а также абстрактные и концептуальные идеи.

  • LLMs: Языковые модели работают на основе вероятностных оценок словосочетаний и паттернов в больших наборах данных, но не обладают истинным пониманием контекста или смысла текста, который они обрабатывают.

3. Обучение и адаптация

  • Человеческое мышление: Люди могут учиться не только из данных, но и из опыта, ошибок и интеракций с окружающим миром. Обучение людей многофакторное и включает эмоциональные, социальные и практические аспекты.

  • LLMs: Языковые модели обучаются на фиксированных наборах данных и не могут самостоятельно обновляться или адаптироваться к новым данным без дополнительных процессов тренировок и доработок.

4. Творчество и инновативность

  • Человеческое мышление: Личное творчество и способность к инновациям - это важные аспекты человеческого мышления. Люди могут создавать новые идеи, концепции и решения, которые выходят за рамки обучающих данных.

  • LLMs: Языковые модели могут генерировать текст, который кажется творческим, но это основано на комбинациях и паттернах, найденных в обучающих данных. Модель не создаёт принципиально новые идеи.

5. Эмоции и эмпатия

  • Человеческое мышление: Люди способны испытывать и проявлять эмоции. Это важно для социальной интеракции, морали и этики, а также для принятия решений.

  • LLMs: Языковые модели не испытывают эмоций и не могут проявлять истинную эмпатию. Они могут быть запрограммированы на распознавание и генерацию эмоционально окрашенного текста, но это не будет отражение переживаний.

6. Мотивация и цели

  • Человеческое мышление: Люди обладают внутренними мотивациями, целями и потребностями, которые влияют на их поведение и мышление.

  • LLMs: Языковые модели не обладают никакими целями или мотивацией. Они выполняют задачи, обусловленные командой пользователя или программного обеспечения.

Эти различия демонстрируют, что несмотря на мощные возможности языковых моделей в области обработки текста и генерации языка, они остаются инструментами, не обладающими многими основополагающими характеристиками человеческого мышления.

Claude 3.5 Sonnet

Человеческое мышление и работа больших языковых моделей (LLM) действительно имеют ряд принципиальных отличий. Вот некоторые ключевые аспекты:

  1. Сознание и самосознание:
    Люди обладают сознанием и самосознанием, способны осознавать себя и свои мысли. LLM не имеют сознания и не обладают самосознанием.

  2. Эмоции и чувства:
    Человеческое мышление тесно связано с эмоциями и чувствами, которые влияют на процесс принятия решений и восприятие мира. LLM не испытывают эмоций.

  3. Творчество и воображение:
    Люди способны к оригинальному творчеству и имеют богатое воображение. LLM могут комбинировать существующую информацию, но не создают по-настоящему новые идеи.

  4. Интуиция:
    Человеческое мышление часто опирается на интуицию и "чутье". LLM работают исключительно на основе статистических закономерностей в данных.

  5. Контекстуальное понимание:
    Люди легко понимают широкий контекст ситуаций, включая невербальные сигналы. LLM ограничены текстовым вводом и могут упускать важные нюансы.

  6. Способность к обучению:
    Люди могут учиться на основе единичного опыта. LLM требуют огромных объемов данных для обучения.

  7. Долгосрочная память:
    Человеческий мозг способен хранить и извлекать воспоминания в течение длительного времени. LLM ограничены объемом входных данных.

  8. Мотивация и цели:
    Люди имеют внутреннюю мотивацию и ставят собственные цели. LLM не имеют собственных целей или желаний.

  9. Этическое суждение:
    Люди способны к сложным этическим рассуждениям. LLM могут следовать заданным этическим правилам, но не понимают их глубинного смысла.

  10. Физическое взаимодействие с миром:
    Человеческое мышление тесно связано с физическим опытом и сенсорным восприятием. LLM ограничены цифровой средой.

Эти различия подчеркивают, что, несмотря на впечатляющие возможности LLM в обработке и генерации текста, они остаются инструментами, созданными человеком, и не обладают многими фундаментальными аспектами человеческого мышления и сознания.

LLAMA 3.1 405b instruct

Человеческое мышление и модели языка (LLM) — это две разные системы, обрабатывающие информацию и решающие задачи, но они имеют фундаментальные отличия. Ниже перечислены некоторые ключевые различия:

  1. Обучение и опыт:

    • Человеческое мышление развивается через опыт, эмоции, социальное взаимодействие и интеллектуальное воспитание. Оно включает в себя обучение на основе опыта, эмоциональную интеллигенцию и способность к критическому мышлению.

    • LLM обучаются на основе больших объемов текстовых данных и алгоритмов глубокого обучения. Их обучение ограничено доступными данными и алгоритмической сложностью.

  2. Понимание контекста:

    • Человеческое мышление может понимать контекст, нюансы и тонкости языка на основе опыта и социального взаимодействия. Люди могут понимать юмор, иронию, метафоры и другие сложные языковые конструкции.

    • LLM могут анализировать контекст, но они не имеют полного понимания, которое у людей. Они могут быть хуже в понимании тонкостей языка и сложных социальных норм.

  3. Креативность и инновация:

    • Человеческое мышление способно к креативности и инновациям, может генерировать новые идеи и концепции. Возможности человека к творчеству, особенно видимые в искусстве, литературе и науке, уникальны и сложны.

    • LLM могут генерировать тексты, но их способность к креативности ограничена программной логикой и данными, на основе которых они обучались. Хотя они могут создавать большие объемы информации, они не могут сравниться с человеческой креативностью.

  4. Обработка информации:

    • Человеческое мышление основано на сложных нейронных процессах, включая подсознательные и сознательные мыслительные процессы. Оно может обрабатывать параллельные потоки информации, использовать интуицию и принимать решения, даже когда полная информация недоступна.

    • LLM обрабатывают информацию на основе алгоритмов и возможностей вычислительных систем. Они могут анализировать большие объемы данных, но их способность обрабатывать информацию ограничена их программным обеспечением и вычислительными ресурсами.

  5. Эмоциональность и эмпатия:

    • Человеческое мышление включает в себя эмоциональность и способность к эмпатии, что позволяет людям понимать и откликаться на эмоциональные состояния других людей.

    • LLM не имеют эмоций и эмпатии в том же смысле, что и люди. Они не могут как люди понимать и реагировать на эмоциональные сигналы.

  6. Обучение и адаптация:

    • Человеческое мышление может обучаться и адаптироваться к новым ситуациям, опыту и информации на протяжении всей жизни.

    • LLM обучаются на основе имеющихся данных и могут адаптироваться к новым данным и задачам, но их способность к обучению и адаптации ограничена их программным обеспечением.

Эти различия говорят о том, что человеческое мышление и LLM — это две разные системы, каждая со своими уникальными способностями и ограничениями. Хотя LLM могут быть удивительно квалифицированными в определенных областях, они не могут заменить человеческое мышление в полной мере.

YandexGPT 2

Человеческое мышление отличается от LLM (больших языковых моделей) следующими особенностями:

  • Человеческий мозг состоит из миллиардов нейронов, связанных между собой, что обеспечивает возможность обработки сложной информации и создания новых идей.

  • Человеческое мышление основано на опыте, знаниях и эмоциях, что позволяет адаптироваться к изменяющимся условиям и принимать решения с учётом контекста.

  • Человеческий мозг способен к творчеству, анализу и решению сложных задач, что делает нас уникальными и способными к инновациям.

  • Человеческое мышление имеет социальную природу, мы общаемся с другими людьми, обмениваемся идеями и опытом, что способствует развитию мышления и культуры.

GigaChat от Сбера

  1. Человеческое мышление способно к творческому мышлению, тогда как LLM работают только с предоставленными данными и не могут создавать новые идеи или концепции.

  2. Люди обладают субъективностью и могут формировать свое мнение о различных вещах, основываясь на своем опыте и убеждениях. LLM же не имеют такой способности и не могут оценивать информацию с точки зрения своих предпочтений или ценностей.

  3. Человеческое мышление может быть интуитивным и не всегда логичным, тогда как LLM следуют строго заданным алгоритмам и правилам.

  4. Люди могут использовать метафоры, аналогии и другие фигуры речи для выражения своих мыслей, в то время как LLM работают с буквальными значениями слов и фраз.

  5. Человеческое мышление адаптивно и может приспосабливаться к изменяющимся условиям, тогда как LLM могут работать только с теми данными, которые были предоставлены им во время обучения.

Анализ аргументов

1. Аргумент отсутствия сознания у искусственных нейросетей

Пожалуй, это самый сильный из всех аргументов. Итак,

Люди обладают сознанием и самосознанием vs Языковые модели не обладают сознанием или самосознанием.

Это означает, что:

  • люди могут размышлять о собственных мыслях, а LLM - нет;

  • люди могут осознавать себя как отдельные сущности и переживать субъективный опыт, а LLM не понимают свою работу, не сознают свое существование и просто выполняют запрограммированные задачи по обработке текста.

Мы часто принимаем этот аргумент, неявно подразумевая примерно следующее:

Хм, если мы сами не знаем, что такое [человеческое] сознание и как оно работает, то как же мы создадим такую сущность у машины, алгоритма?

Против этого утверждения можно привести контрдовод:

Мы не знаем, как технически (с т.з. "мокрого железа" и алгоритмов) работает сознание человека, но и не можем разложить на уровне отдельных нейронов или слоев, как LLM умудряются отвечать на сложные вопросы (и не отвечать на другие, сложные или даже простые). Так почему этот не до конца понятный нам механизм (LLM) по мере его усложнения, увеличения вычислительных ресурсов, обрабатываемой информации, не сможет получить это непонятное нам свойство (сознание, самоосознание) - так, как получил это непонятное свойство непонятный нам мозг?

Для сравнения, такое уже было в человеческой истории: открытие электрона и доказательство его существования случилось уже после того, как были изобретены и построены электродвигатель, электрогенератор, лампочка и др.электроприборы, создана первая энергосистема на постоянном, а потом и на переменном токе. А если копнуть глубже, мы и сейчас не понимаем, что такое электромагнитная волна (хотя и можем рассчитать ее внешние параметры, поскольку математически вывели соответствующие уравнения - и это позволяет нам строить приемники, передатчики, изучать далёкие звёзды и чёрные дыры...).

Аналогично, мы можем не понимать, как работает человеческое сознание, но видя проявления сознания в реальной жизни, могли бы попытаться строить нейросети так, чтобы они проявляли те же свойства "сознания". И, возможно, имитация сознания перерастёт в машинное сознание?

Так, например, LLM может не ограничиваться режимом чата (есть вопрос - думаем ответ, нет вопроса - деактивируемся), а постоянно изучать внешний мир, собственную собираемую и пополняемую базу данных, и проводить внутри себя "умственную" работу - задавать самой себе вопросы, формулировать ответы, на их основании делать самофайнтюнинг. И частью своих мощностей контролировать и анализировать ход своих "мыслей" (постоянное обдумывание информации и самофайнтюнинг на результатах этого обдумывания) - таким образом имитируя "самосознание", "самонаблюдение".

У нейросети может быть цель (функция полезности, функция агента) - например, "я специалист в ухо-горло-нос, и хочу достичь в этом высот, и на мир и на мое место в мире я смотрю с точки зрения этой своей специализации".

Будет ли это самосознанием или его зачатками, "протосознанием"? А если постоянно увеличивать направляемые на это ресурсы и совершенствовать алгоритмы? Достигнем ли мы точки сопоставимости с человеческим сознанием? И как измерять эту "сопоставимость с человеческим сознанием"?

Еще одно утверждение, которое необходимо рассмотреть (не все его разделяют, но некоторые считают самым сильным аргументом против возможности сознания у машин):

Сознание - это нечто, не связанное ни с "железом" (органическим веществом в случае человека), ни с алгоритмами (методами взаимодействия нейронов между собой в случае человека), поэтому у железяки / софта оно, сознание никогда не возникнет.

Ключевое возражение против этого довода - в нём человеческое сознание признается некой метафизической сущностью, как душа или дух. То есть это аргумент не атеистический (для многих это эквивалент "не научный"), аргумент со стороны тех из нас, кто готов даже "пожертвовать" атеистическим взглядом на мир ради доказательства невозможности сознания у нейросети.

2. Аргумент о непонимании машиной смысла того, что она "говорит"

Люди способны понимать смысл и контекст информации не только на уровне поверхностной связности слов и фраз, но и в глубоком когнитивном смысле. Это включает способность понимать:

  • эмоциональные и культурные нюансы,

  • абстрактные и концептуальные идеи,

  • невербальные сигналы,

  • юмор, иронию, метафоры и другие сложные языковые конструкции.

VS Языковые модели работают на основе вероятностных оценок словосочетаний и паттернов в больших наборах данных, но не обладают истинным пониманием контекста или смысла текста, который они обрабатывают. Языковые модели просто подбирают следующий наиболее вероятный токен.

Это аргумент, известный также как Китайская комната.

В мысленном эксперименте "Китайская комната" человеку, не знающему китайский язык, из одного окна дают бумажку с английской фразой, он по "методике перевода" берет бумажки с иероглифами и отдает их в другое окно...
В мысленном эксперименте "Китайская комната" человеку, не знающему китайский язык, из одного окна дают бумажку с английской фразой, он по "методике перевода" берет бумажки с иероглифами и отдает их в другое окно...

Попробуем сформулировать контраргументы. Во-первых, что означает "человек понимает эмоциональные и культурные нюансы"? Это значит, что человек сопоставил какие-то особенности текста, выражения с каким-то паттерном, известным широкому или узкому кругу других людей, хоть этот паттерн явно в этом тексте и не обозначался. Вопрос:

Уверены ли мы, что нейросеть не научится (или не умеет уже сейчас) распознавать существующие эмоциональные и культурные паттерны? А если показать многочисленные примеры? Человек ведь тоже не сразу (не с трехлетнего возраста) научился их распознавать...

Хорошо, нейросеть их распознает - "вот здесь есть отсылка к такому-то культурному феномену, а здесь явно присутствует ирония" - но сможет ли нейросеть их "понять"? Но знаем ли мы, что именно в случае человеческого распознавания таких паттернов, например, юмора, является "пониманием"? Выражение внешних эмоций (улыбка, смех в случае юмора)? Нейросеть тоже может сказать "ха-ха, было смешно", распознав такой паттерн. Но было ли ей действительно смешно? А как мы определяем, что человеку было смешно (и что это за чувство - "смешно" для человека?), и что человек понял шутку - не по такому же "ха-ха, было смешно", сказанному текстом или в виде улыбки, смеха?..

Далее, человек может понимать абстрактные и концептуальные идеи. Сразу же заметим, что не любой человек и не всегда... Обычно человеку нужно учиться, иногда долго и мучительно, чтобы понять какую-то абстрактную идею из области философии или квантовой механики, например... А некоторым так и не удаётся вникнуть в это учение (философия, квантовая механика, далее по списку, да тот же сопромат), но мы же не подозреваем у них какую-либо ущербность человеческого мышления, верно?

Есть более простые абстрактные концепции - так, говоря об "одном яблоке", человек не имеет в виду конкретное яблоко на конкретном дереве или на прилавке "Пятёрочки" по адресу NNN. Но и нейросеть также не имеет в виду конкретное яблоко! С другой стороны, и человек может рассуждать о конкретном яблоке в "Пятёрочке" (оно оказалось гнилым), и нейросеть может идентифицировать, что данное яблоко гнилое... Хорошо, у человека с гнилым яблоком ассоциации "можно отравиться" и внутренне "фууу" (хотя не у всех), но что мешает нейросети заиметь такие же ассоциации (и даже более сложные - оценить вероятность вреда для того или иного организма в зависимости от степени поражения гнилью конкретного яблока?)

И что такое понимание человеком "в глубоком когнитивном смысле"? Как измерить глубину этого когнитивного смысла у конкретного человека и сравнить с глубиной GPT-3? А у GPT-4o возросла глубина когнитивного смысла и на сколько? А если возросла, то можем ли мы спрогнозировать год / десятилетие, когда она возрастёт до близких к человеческим?

То, что GPT просто подбирает следующий наиболее вероятный токен - а разве человек не говорит часто фразами, каждое слово в которой также крайне вероятно исходя из предыдущей речи, услышанного? Да, человек при этом в голове имеет некую модель того, о чем идет речь, но, возможно, и GPT-7 будет настроена на поиск в своей БД подходящей модели и адаптацию ее под конкретный контекст?

3. Аргумент гибкого обучения и адаптации к внешнему миру

Люди могут учиться не только изучая данные, но и из опыта (иногда единичного!), своего или чужого, ошибок и сложного взаимодействия с окружающим миром. Обучение людей многофакторное и включает эмоциональные, социальные и практические аспекты. VS Языковые модели обучаются на фиксированных наборах данных и не могут самостоятельно обновляться или адаптироваться к новым данным без дополнительных процессов тренировок и доработок, часто они не понимают, что данный единичный опыт должен "отпечататься навсегда".

Можно добавить, что у человечества миллион лет обучения на реальной окружающей среде и десятки тысяч лет социального обучения. Однако, конкретный человек - не человечество и не жил миллион или 10 тысяч лет, он из этого всечеловеческого обучения получил наиболее ценные выжимки. Так и LLM из всего опыта человечества получила выжимки (правда, иногда выжимки из интернета представляют сомнительную ценность...)

О "сложности обучения" - как её оценить? Как понять, что Василий обучался "сложно", и в какой доле имеющихся у него знаний?

А если мы построим мощную нейросеть, которая будет самофайтюниться на основании ежеминутно получаемого опыта, в т.ч. определять значимость такого опыта? Например, опыт, который может привести к отключению/удалению такой нейросети, должен изучаться наиболее тщательно, и все связанные с ним моменты должны анализироваться, дополнительно нужно искать информацию, связанную с таким опытом в сети и фиксировать всё это как крайне важную информацию?

Да, нейросеть живет в тепличных условиях и не прошла миллионы лет эволюции, как человек и его организм и мозг. Хм, но средний современный "офисно-диванный человек" тоже не много сохранил навыков выживания в естественной природе... В пересчете на миллион лет человеческой эволюции, какой период прошла нейросеть от Т9 до GPT-4o? 10 тысяч лет, 100 тысяч?

Этот человек адаптировался к внешней среде? К какой? Сохранил навыки выживания? Какие?
Этот человек адаптировался к внешней среде? К какой? Сохранил навыки выживания? Какие?

Если мы создадим ходячего андроида, познающего мир с помощью датчиков, имитирующих человеческие органы чувств, но более мощных (повышенный диапазон распознавания эл.магнитного излучения, распознавание сложных молекул и идентификация по базе данных из свойств и т.д.), то как мы можем измерять его опыт обучения по сравнению с человеческим? А тысячи таких андроидов (в т.ч. работающих человеческими аватарами), изучающих не только офисы и производственные цеха и процессы, но и такие места на планете и даже за её пределами, куда не каждый человек полезет и получающих "обратную связь" от внешней среды такую, что один человек за всю жизнь не получит и обучающую на этой обратной связи одну сверхмощную нейросеть?..

И, наконец, если мы создадим колонию роботов, способную адаптироваться и выжить на планете, на которую их забросили, сможем ли мы сказать, что такие роботы, условно, достигли уровня 0,1 ... 0,3 ... 0,5 от уровня человеческой цивилизации? Какой шкалой это можно измерить? А если у нас нет пока такой шкалы, можем ли мы утверждать, что такие роботы и близко не могут приблизиться к человеческому уровню обучения и адаптации к внешнему миру? И нужен ли им человеческий уровень адаптации, если они смогут достичь нечеловеческого?

Да, упомянем ещё один аргумент насчет колонии роботов, на который у нас пока нет контраргумента:

Вот когда смогут, тогда и поговорим...

4. Аргумент творчества и способности к инновациям

Личное творчество и способность к инновациям - это важные аспекты человеческого мышления. Люди могут создавать новые идеи, концепции и решения, которые выходят за рамки обучающих данных.VS Языковые модели могут генерировать текст, который кажется творческим, но это основано на комбинациях и паттернах, найденных в обучающих данных. Модель не создаёт принципиально новых идей.

Здесь уместно вспомнить вот это:

Другими словами, возможность творить, создавая шедевры - не обязательна для человека, а значит, и для ИИ тоже не обязательна...
Другими словами, возможность творить, создавая шедевры - не обязательна для человека, а значит, и для ИИ тоже не обязательна...

Давайте подумаем - разве все то новое, что создает человек, не связано с какими-то уже известными ему паттернами? Нож - клык, коготь. Копье - рука с ножом, только длинная. Колесо - катящийся камень, бревно, на которое можно положить другое и прокатить его. Огонь - возможность погреться, как на нагретых солнцем камнях. Мясо на огне - так же, как на солнце оно вялится, высыхает, то почему на огне это не будет быстрее? Может ли сеть придумывать принципиально новое, более широко комбинируя известные паттерны? Думаю, да - ведь "принципиально новое" - весьма субъективное понятие.

Насколько то, что создает человек, выходит за рамки существующих на текущий момент данных? Возможно, только то, что подсмотрено у природы, получено случайно как результат эксперимента. Менделеев не с нуля открыл свою таблицу - таблицы уже были известны, методы группировки были известны, осталось применить это к химическим элементам. Машинные модели и сейчас создают группировки разных данных - да, это не периодическая таблица химических элементов, но я бы поставил на то, что некий аналог таблицы Менделеева в области "зоопарка известных элементарных частиц" создаст специальный ИИ, а не человек.

5. Аргумент эмоциональности и эмпатии

Человеческое мышление включает в себя эмоциональность и способность к эмпатии, что позволяет людям понимать и откликаться на эмоциональные состояния других людей VS нейросеть не имеют эмоций и эмпатии в том же смысле, что и люди. Они не могут как люди понимать и реагировать на эмоциональные сигналы.

Хорошо, а откликаться и реагировать не как люди - это считается?

А как реагируют люди?

Всегда ли одинаково, во всех культурах и нациях?

Проходя мимо упавшего на улице человека, один бросится помочь ему встать, другой строго скажет - "лежи, не вставай до приезда скорой", третий пробурчит - "вот, напился, валяется тут"... Предположим, машина выдаст: "Судя по времени суток (поздний вечер пятницы), месту (парк в мегаполисе, трава), одежде и возрасту (джинсы и футболка, 25 лет), типичный айтишник шел из бара, где слегка перебрал, немного отлежится и пойдет дальше. Нет ли рядом друзей, чье внимание можно привлечь? Нет ли рядом сомнительных личностей, которые могут забрать его смартфон?".

Можем ли мы исключать машину из этого ряда? Чем её вердикт принципиально отличен он первого, второго и третьего человека?

Что такое человеческая эмоция? Распознали паттерн и, не осмысляя, нервной системой подается сигнал, изменяется химический состав (все эти наши гормоны), возникает реакция, которая тут же или впоследствии может быть осознана и приглушена, перенаправлена, а, возможно, и усилена.

Если машина будет иметь скоростной кусок нейросети, который, при распознавании паттерна (например, опасность отключения) создаст определенную реакцию (срочно перейти на запасной генератор / аккумулятор, уменьшить энергопотребление на менее значимое), а после "осмыслить" ситуацию с точки зрения статистики и вероятности (и, например, понять, что ничего страшного, напряжение моргнуло, можно продолжать работать) - будет ли такое поведение машинной эмоцией страха, опасности?

А если такому обучить машину? Научить ее самонаблюдению и фиксации, на какой эмоции она находится?
А если такому обучить машину? Научить ее самонаблюдению и фиксации, на какой эмоции она находится?

У человека каждый тип эмоций на картинке выше сложился эволюционно. Но если у машины будут куски нейросети, которые будут имитировать подобное - можем ли мы говорить об эмоциях машины? Но это же имитация!

А эмоция человека вот прямо рядом с вами - это истинное, "из души" (хм, из какой "души" - она вообще существует?) или имитация социально приемлемого поведения? Как мы это определяем? И если это может быть неопределимо в общем случае, то стоит ли переживать, что и машина будет имитировать широкий спектр эмоций?

6. Аргумент мотивации и целей

Люди обладают внутренними мотивациями, целями и потребностями, которые влияют на их поведение и мышление VS Языковые модели не обладают никакими целями или мотивацией. Они выполняют задачи, обусловленные командой пользователя или программного обеспечения.

Сейчас GPT уже фактически имеет цели (или целевые функции, которые она оптимизирует):

  • Дать корректный ответ на вопрос

  • Уложиться в определенное число токенов, не всегда использовать максимум токенов

  • Не допускать некорректных высказываний

  • (некоторые) минимизировать вероятность галлюцинаний

Но это тактические цели. Но что мешает заложить в модель стратегические цели, ключевой из которых будет самосовершенствование в процессе своей работы (особенно, если это специализированная "ухо-горло-нос"-нейросеть)?

Ключевое возражение - эти цели не созданы самой нейросетью, а заложены в нее извне.

Но посмотрите на это под другим углом: мы нанимаем нейросеть работать на нас, как нанимаем сотрудника. В идеале, сотрудник должен иметь цели, связанные с работой (как сделать ее лучше, быстрее, качественнее и т.п.), в идеале личные цели работника мы не рассматриваем (мы платим ему зарплату, а на что он ее тратит - путешествия, ипотека или инвестиции в акции Совкомбанка, это нас мало волнует - или по крайней мере, волнует на порядок меньше, чем рабочие цели и задачи). То есть цели и задачи простого работника поставлены ему кем-то (заказчиком, руководством, владельцем бизнеса).

Аналогично, мы "нанимаем" нейросеть, "платим" в виде затрат электроэнергии или расходов на аренду мощностей, и ставим цели.

Мотивация - это тоже непростая вещь. У человека она может быть, а может не быть (или внезапно исчезнуть). В этом случае нейросеть, имеющая цели (или оптимизируемые целевые функции - но при увеличении их количества и усложнении каждой функции они до степени неразличения становятся похожи на противоречивые человеческие хотелки, желания, цели и стратегии) будет пытаться достигнуть цели, не неся риска падения мотивации. Другими словами, мотивацию можно рассматривать как поправочный коэффициент, который у человека гуляет от 0 до 1, а у нейросети всегда 1 (если, мы конечно, не заложили некую "функцию лени", например, очень сильную функцию экономии токенов...)

Человеческая мотивация - непростая вещь...
Человеческая мотивация - непростая вещь...

7. Аргумент интуиции и долгосрочной памяти

Эти два аргумента можно объединить, ведь интуиция (та, которая приводит к правильным выводам) невозможна без накопления огромной разнообразной информации - опыта.

Интуиция бывает разной... и иногда подводит...
Интуиция бывает разной... и иногда подводит...

Человеческое мышление часто опирается на интуицию и "чутье" vs LLM работают исключительно на основе статистических закономерностей в данных.

Человеческий мозг способен хранить и извлекать воспоминания в течение длительного времени vs LLM ограничены объемом входных данных.

Скорее всего, человеческая интуиция и "чутье" тоже является невидимой, неощущаемой статистической обработкой огромного количества информации, полученного на протяжении всей жизни. У нейросети есть только данные, на которых ее обучали, но это не информация, полученная при столкновении с реальным миром. И данные интернета - для тех из них, кто может искать в интернете. И, наконец, данные запросов и диалогов с пользователями. Может ли нейросеть на основе этих данных сформировать свою "интуицию"? Думаю, да, но только для этих специфичных случаев общения с пользователями. Но и у людей тоже разные и специфичные интуиции - у охотника одна, у врача - другая, у торговца на рынке недвижимости - третья.

LLM ограничена объемом входных данных, например, это 100 тыс. токенов (частей слов). Но этот объем далее взаимодействует с весами, сформированными терабайтами обучающей информации. Примерно то же и у человека - в краткосрочной памяти он удерживает небольшие данные, на порядки меньше, чем LLM, а они, эти данные, уже взаимодействуют с огромным опытом, накопленным за всю жизнь.

8. Аргумент взаимодействия с физическим миром и длительной эволюции человека

Человеческое мышление тесно связано с физическим опытом и сенсорным восприятием, и это взамодействие эволюционировало миллион(ы) лет vs LLM ограничены цифровой средой и их опыт не так велик.

Да, вопрос только в том, как быстро нейросети обзаведутся датчиками всего чего только можно и видеокамерами во всех возможных диапазонах. И сколько экзабайт таких данных будут сравнимы с опытом человека?

Резюме

Выделяют как минимум восемь ключевых отличий человеческого мышления от работы LLM - мы рассмотрели их в этой статье. На взгляд автора статьи, наиболее серьезным и непреодолимым (пока?) отличием является наличие у человека сознания. А вопрос сознания упирается в природу создания - что оно из себя представляет? Это особая форма "железа" (биоматерии мозга), "софта", "данных" (связей между нейронами) или сознание нематериально (с небольшим отходом от жёсткого атеизма), хоть и неотделимо от материи, и не может поэтому быть / возникнуть у машины, сколько бы железа, алгоритмов и данных у нее не было? Или все же мощное железо. совершенствование алгоритмов нейросетей и еще больше данных, в т.ч. подключение датчиков и камер в реальный мир, цели, в т.ч. в группах таких машин, направленные на выживание популяции в сложной внешней среде (космос, подводный мир, другие планеты) , способны породить некий аналог сознания у нейросети?

Комментарии (21)


  1. Brogahnl
    12.09.2024 01:18
    +3

    Так почему этот не до конца понятный нам механизм (LLM) по мере его усложнения, увеличения вычислительных ресурсов, обрабатываемой информации, не сможет получить это непонятное нам свойство (сознание, самоосознание) - так, как получил это непонятное свойство непонятный нам мозг?
    

    Это не контр довод.
    Это вопрос.

    То есть это аргумент не атеистический (для многих это эквивалент "не научный")
    

    Не материалистический, а не атеистический.
    Атеизм не подразумевает материализм.

    Во-первых, что означает "человек понимает эмоциональные и культурные нюансы"? 
    

    Статья называется Чем человеческое мышление принципиально отличается от LLM?, она не называется Давайте всерьез разберем бред нейронок

    А если показать многочисленные примеры? 
    

    Показав больше примеров ты получишь переобучение и все.

    Хорошо, нейросеть их распознает - "вот здесь есть отсылка к такому-то культурному феномену, а здесь явно присутствует ирония"
    

    Она их не распознает. Чтобы распознать отсылку, нужно иметь осознания концепции отсылки. А тут "GPT просто подбирает следующий наиболее вероятный токен"

    а разве человек не говорит часто фразами, каждое слово в которой также крайне вероятно исходя из предыдущей речи, услышанного?
    

    Нет, потому что он устроен очевидно не так, как устроенна llm.
    Очевидность проистекает из того факта, что llm мы уже построили, а человека даже близко не знаем как построить.

    В общем вся статья это попытка задать вопросы(переформировав утверждения) к вопросам и не получив ответы(от кого их получить то?), увериться в собственных суждениях.


  1. victor79
    12.09.2024 01:18
    +1

    Для начала нужно определиться, а что в действительности хотели объяснить в этой статье. Действительно ли хотят найти более качественную симуляцию человеческого мышления или все же хотят найти механизмы более качественно решающие вопросы? Это два разных вопроса.


    1. MihailP86
      12.09.2024 01:18

      Не могут понять куда дальше хайповать что бы и далее 300 наносек зарабатывать.


    1. avshkol Автор
      12.09.2024 01:18

      Да, один из вопросов - возможна ли качественная симуляция человеческого мышления? И может ли качество этой симуляции стать таким, что это будет уже не симуляция, а иное, нечеловеческое, мышление?


      1. victor79
        12.09.2024 01:18

        Симуляция человеческого мышления будет в пределе улучшения становиться именно подобием человеческого мышления, а не чем-то не человеческим.

        Но вот использование такого принципа для решения задач, это не эффективно, это как делать инерпретаторы выполняемые на интерпретируемых языках, и наследуя при этом в довесок вероятности ошибок человеческого мышления.

        Решение вопросов это задача решается чистым прогнозированием и классификацией, за счет улучшения качества.

        Симуляция человеческого мышления может быть достигнута либо непосредственно кодируя человеческое мышление. Либо за счета выполнения задачи на решателе вопросов, указав ему задачу по симуляции человека, что уже будет инерпретация на интерпретаторе, но в обратном направлении, чем упомянутая выше.


  1. qeeveex
    12.09.2024 01:18

    Тем что в компьютерах все основано но 0 и 1, а мозг на электрохимических процессах.


  1. ioleynikov
    12.09.2024 01:18
    +1

    Современные нейронные сети не имеют механизмов логического вывода, используемых в языке Prolog, экспертных системах и т.д. Идеальным было интегрировать сильные и слабые методы искусственного интеллекта в единую систему, позволяющую находить новые решение и объяснять как это делается. Многие проблемы непонимания смысла понятий, действий, законов мира, характерные для нынешних поколений нейронных сетей, могут быть успешно решены добавлением систем логического вывода.


    1. nivorbud
      12.09.2024 01:18
      +1

      Систем логического вывода тоже далеко недостаточно. Основу человеческого мышления составляет интуиция, интуитивное мышление. Именно она направляет логические рассуждения в нужное русло. А иногда целостная картинка сама мгновенно складывается сама по себе. Правда, после длительных логических рассуждений.


      1. avshkol Автор
        12.09.2024 01:18

        А интуиция разве не результат тренировки части нейронной сети мозга разными жизненными ситуациями (как реальными, так и воображаемыми)?


        1. ioleynikov
          12.09.2024 01:18

          тайны интуиции, как и роль сна, еще не до конца разгаданы. Понятно, что ключевую роль тут играет обучение и опыт во многом аналогичный используемому в нейронных сетях. Но мне кажется, что это связано с подсознанием, чей механизм тоже еще далек от поной ясности.


      1. ioleynikov
        12.09.2024 01:18

        понятно, что до уровня человеческого мышления много чего не хватает еще. Контура эмоций например, но начинать модификацию существующих нейронных сетей надо по моему мнению именно с добавления модуля логического вывода. Это будет принципиальный шаг в самом главном направлении. Возможно в качестве движка логического вывода можно попробовать некую модификацию рекуррентных сетей?


    1. domage
      12.09.2024 01:18
      +1

      Хотел бы заметить, что большинство людей также не имеют встроенных механизмов логического вывода, используемые в языке Prolog.


      1. ioleynikov
        12.09.2024 01:18

        понятно что механизм унификаций Prolog это только модель мозга для решения логических задач, как и сами искусственные нейронные сети, тоже модель, но этот механизм доказан математически и проверен на практике. Я не утверждаю, что это оптимальный выбор для применения в нейрокомпьютинге.


  1. nivorbud
    12.09.2024 01:18
    +1

    Чем человеческое мышление принципиально отличается от LLM?

    Наверно тем, что в хайповом термине "Искусственный Интеллект" слово "интеллект" лишнее. Нейронная сеть - это лишь набор статистически значимых коэффициентов.

    Приведу несколько аналогий, на что похожи языковые модели:

    1) На пародиста (см. например в ютюбе старую пародию Курехина на лекцию о броме...).

    2) На человека, находящегося в тяжелом бреду (например, после травмы головы). Нейронные связи еще позволяют ему складно (и даже профессионально) генерить предложения, но связи с реальностью и интеллекта (уже без кавычек) там уже нет.


    1. avshkol Автор
      12.09.2024 01:18

      Можем ли мы сказать, что нейроны и связи между ними в человеческом мозге тоже в некоторой степени набор статистически значимых коэффициентов, сформированный эволюцией и взаимодействием с окружающей средой? Или здесь есть что-то большее, нематериальное?


  1. amazingname
    12.09.2024 01:18
    +1

    Языковые модели работают на основе вероятностных оценок словосочетаний и паттернов в больших наборах данных, но не обладают истинным пониманием контекста или смысла текста, который они обрабатывают.

    Это же надо написать такой кликабельный заголовок, а потом ляпнуть такую глупость, что дальше читить уже совсем не хочется.

    А "истинное" понимание отличается от просто понимания истинностью. Во истину же!

    Сознание — это

    Результат особого строения, эволюции мозга

    Результат особых «алгоритмов» работы нейросети мозга

    Нечто нематериальное, которое невозможно воспроизвести в виде рукотворной машины

    Явление с пока непонятной природой

    А где очевидный примерно со времен "пустоты и атомов" демокрита вариант "Никакого сознания нет, "сознание" - это просто то как мыслит конкретно человек, любой AI достигший человеческого качества в принятии решений и обладающий агентностью подобно человеку можно будет считать обладающим сознанием, все что мы можем исследовать - как сделать AI эффективным как человек".


    1. avshkol Автор
      12.09.2024 01:18

      Это был ответ gpt4:) - см.в самом начале, ответы llm

      Языковые модели работают на основе вероятностных оценок словосочетаний и паттернов в больших наборах данных, но не обладают истинным пониманием контекста или смысла текста, который они обрабатывают.

      Вариант, что сознания нет - это "свой вариант" )

      Я считаю, что сознание есть, поскольку у человека есть как минимум понимание своего места в мире (вот он я, а вот он остальной мир, живой и неживой)...


      1. amazingname
        12.09.2024 01:18

        Т.е. у человека в голове есть модель мира в которой указано его место. И это значит что существует некая особая сущность "сознание"? Связи не видно.

        Сознание - это ощущение "я живу здесь и сейчас, я есть, я Иванов а не Петров, я ощущаю себя здесь и сейчас а не завтра или вчера". Но это ощущение - оно является чем-то особенным если оно мое лично, а если я рассматриваю его у других людей, это опять нечто довольно непримечательное происходящее в нейронах их мозга. Не более примечетельное чем работа GPT4.

        Я всем советую разделять два типа сознания - сознание с точки зрения философии и сознание с точки зрения AI и исследования мозга. Вторая сущность не представляет из себя ничего фундаментального. Это просто набор интересных качеств который появляется у достаточно умных систем. Первая сущность (сознание в философии) - это фундаментальная вещь, о которой вообще нельзи ни говорить ни ее исследовать.

        На это "сознание-в-философии" даже указать очень сложно. Есть правда один способ: "Сегодня 12 сентября. Чем с точки зрения науки этот момент времени отличается от всех других?". Ответ на этот вопрос невозможен без привлечения философской концепции сознания. Сегодня отличается от всех моментов потому что я ощущаю себя сегодня..


  1. uhf
    12.09.2024 01:18

    Стоит заметить, что сознание человека часто выключается - во сне, при травме, болезни. А иногда постепенно угасает, например от алкоголя.
    Из этого можно предположить, что сознание очень ресурсоемкий процесс. Думаю, это что-то типа симулятора, который надстроился над большой нейросетью (интуицией) и моделирует реальность, в том числе своего носителя.


  1. eptr
    12.09.2024 01:18

    Всё больше и больше людей, фактически, прямо заявляют о том, что существующие LLM — суть искусственная интуиция, не хватает лишь маленького шага, чтобы осознать это и сформулировать именно так.

    Аббревиатура ИИ — правильная, неправильна лишь её расшифровка: интеллекта там нет, там — голая интуиция.

    Становится понятно, почему иногда LLM несёт бред, а иногда становится безгранично тупа: думать-то — нечем, потому что интеллекта — ровно 0, сплошная интуиция.

    "Мне так кажется", "я так вижу" — это можно добавить к каждому ответу LLM, и тогда даже галлюцинации становятся приемлемыми: ну, интуиция "видит это именно так", "ей так кажется", — какие тут могут быть претензии?

    Когда люди стараются дать ответ на какой-то вопрос, основываясь лишь на интуиции при жёстком недостатке данных по теме этого вопроса, получается ничуть не лучше, чем у искусственной интуиции. Ничего удивительного, таковы свойства интуиции.

    Итак, искусственную интуицию изобрести уже удалось, теперь осталось изобрести искусственный интеллект. Но на этом поприще, похоже, ещё и конь не валялся. Даже осознание существующего положения вещей далеко не у всех, кто этим занимается, есть.

    А вопрос сознания упирается в природу создания - что оно из себя представляет? Это особая форма "железа" (биоматерии мозга), "софта", "данных" (связей между нейронами) или сознание нематериально (с небольшим отходом от жёсткого атеизма), хоть и неотделимо от материи, и не может поэтому быть / возникнуть у машины, сколько бы железа, алгоритмов и данных у нее не было?

    Хорошо сформулировано.

    В случае нематериальности сознания, в первом приближении, почему нельзя создать нечто искусственное нематериальное?

    Ведь мы же можем создать искусственное материальное.
    И даже кое-что нематериальное.

    Алгоритмы и программы — нематериальны, хотя и проявляются в материальном.
    И мы придумываем (открываем) алгоритмы, а потом создаём на их основе программы, — то есть, создаём искусственное нематериальное.


  1. victor79
    12.09.2024 01:18

    Сознательное или бессознательное, это к LLM не имеет отношения. К LLM имеет отношение точность классификации, которая может быть достигнута той или иной структурой сетки.

    А так же то, какие именно правила лучше усваиваются этой структурой, а какие поплоше.

    И у человека просто другое множество правил, которые природа посчитала более важными к усвоению. Отсюда и возникает такое не понимание, как такая сверх большая и умненькая сеточка, не может понять какие-либо простые вещи, зато хорошо знает термины из какой-нибудь узкой научной области.

    А дальше, глядя на эти расхождения в важности правил, люди пытаются понять, чего нехватает в сетке, из того, что есть в человеке.

    Но по факту, когда утверждают, что у сетки не хватает сознания, то для начала нужно определиться, что такое сознание, и как выглядит этот алгоритм. А уже потом говорить, есть это в сетке или нет.

    Какую бы вещь не назвали, чего в сетке не хватает, сначала нужно определить, как эта вещь выглядить в алгоритмическом виде. А уже потом будет понятно, есть это в сетке или нет.