Привет, Хабр! Проблема сознания у AI волнует философов, нейробиологов, когнитивистов, ML-специалистов и других. Обычно они делятся на два лагеря: одни поддерживают эту гипотезу, а другие — категорически против. Но ни одни, ни другие так и не нашли консенсуса в данном вопросе. В тексте постараемся сузить поток абстрактности вокруг темы и разобраться, почему и как начали изучать сознание у AI.

Автор: Александра Танюшина, преподаватель МГУ, кандидат философских наук, культурный тренд-аналитик и специалист по цифровой философии.

Возможно, эти тексты тоже вас заинтересуют:

Цифровая философия — наука о Вселенной
Понятие человеческого сознания
Понятие нечеловеческого сознания
Метафоры цифровой философии
Проблемы философии сознания
Гипотеза расширенного сознания
Экзистенциальные риски

Цифровая философия — наука о Вселенной


В середине 70-х годов вокруг физики стали появляться теории, которые на фундаментальном уровне описывали Вселенную как цифровой компьютер, машину Тьюринга и квантовый компьютер. Впервые гипотезу ввел немецкий инженер Конрад Цузе в своей книге «Вычислительное пространство». В дальнейшем ее стали развивать такие ученые, как Стивен Вольфрам, Джон Уилер, Дэвид Дойч, Макс Тегмарк и другие.


Конрад Цузе с воссозданной моделью его первого компьютера.

Американский физик Эдвард Фредкин объединил эти теории в термин «цифровая физика», который позже поменял на «цифровую философию». В рамках новой дисциплины исследователи продолжили рассуждать о фундаментальной природе Вселенной, структуре нашей реальности и ее связи с человеческим сознанием. Их умозаключения повлияли на развитие таких популярных концепций, как, например, гипотеза симуляции. Так, в 2003 году, через несколько лет после выхода фильма «Матрица», шведский философ Ник Бостром написал статью, в которой доказал, что с высокой вероятностью мы все живем в симуляции.


Эдвард Фредкин.

Сейчас есть тенденция, что цифровые философы часто берутся за обсуждение популярных тем, которые связанны с современной цифровой культурой. Если раньше они говорили о цифровой природе реальности и симуляции, то сейчас больше обсуждают искусственный интеллект. От того, что цифровые философы подвижны в своих изысканиях, академики иногда их недолюбливают. Считают, что они подвержены внешним стимулам в своих рассуждениях и все реже занимаются фундаментальной философией.

Понятие человеческого сознания


У исследователей нет консенсуса в толковании «сознания», поэтому они до сих пор пытаются выработать общее определение этого понятия. Есть два базовых значения, которые встречаются и в философии, и в современных когнитивных науках. Первое — «сознание доступа». То, какие убеждения, желания и мысли человек переживает. Их можно описать с позиции от третьего лица: когнитивных наук, психологии и нейробиологии. Например, если надеть на пациента шапку ЭКГ, то можно считать активность его мозга и описать результаты с позиции наблюдателя.

Но есть и альтернативное толкование — «феноменальное сознание». Оно описывает процессы с позиции от первого лица. Это то «приватное» сознание, которое мы переживаем — например, ощущение холода, боли, тепла и другое. Если изучать активность мозга в этот момент, то невозможно понять, что конкретно человек чувствует и как он это переживает. Именно эти простейшие переживания субъективного характера — квалиа — изучают современные философы, в том числе когда говорят о сознании искусственного интеллекта.

Понятие нечеловеческого сознания


Чтобы изучать сознание нечеловеческих агентов, философы работают с сознанием у животных. Если лучше понять, как устроен разум у человекоподобных приматов или позвоночных млекопитающих, можно ближе подойти к пониманию сознания у искусственного интеллекта. Однако проблема сознания животных остается такой же сложной, как и сознание человека или искусственных агентов.

В начале года ученые подписали декларацию о наличии сознания у животных. Они допускают, что с высокой долей вероятности у всех позвоночных и, возможно, у некоторых беспозвоночных есть приватный субъективный опыт — «феноменальное сознание». Если отталкиваться от этой предпосылки, у нас формируется новая этическая система по отношению к животным, а у исследователей — задел на изучение альтернативных нечеловеческих сознаний, в том числе и искусственных.

Метафоры цифровой философии


Цифровая философия полна аллегорий и всевозможных метафор. В популярном дискурсе и повседневной речи появляются такие слова и выражения, которые основаны на цифровых метафорах. Например, «мышление – процесс обработки информации», «сознание — результат деятельности компьютерной программы», «мозг — хранилище информации» и другие. Эти метафоры появились еще в середине прошлого столетия, но до сих пор актуальны.

Компьютерная метафора сознания


Метафору придумали в середине прошлого столетия вместе с первыми цифровыми компьютерами, концепцией машины Тьюринга и другими открытиями. Механизм этих устройств напоминал исследователям мозговую активность человека, поэтому они стали рассуждать, можно ли объяснить человеческое мышление как своеобразный компьютер.

Если рассматривать с историко-философской точки зрения, корни метафоры прорастают из эпохи Нового времени, когда появляется механистическая картина мира. Тогда многие аспекты мироздания и функционирование живых организмов описывались через призму механизмов — например, механических часов и аналоговых вычислительных машин, которые стали появляться в то время.

В XVI веке английский философ Томас Гоббс выпустил сочинение «Трактат о теле», в котором описал процесс мышления как «компутато» — с латинского, «вычисление». «Под рассуждением», — писал Гоббс, — «я подразумеваю […] исчисление. Вычислять — значит находить сумму складываемых вещей или определять остаток при вычитании чего-либо из другого. Следовательно, рассуждать значит то же самое, что складывать и вычитать». Последующие метафоры сознания продолжили логику технологичного видения аспектов человеческой деятельности, в том числе мыслительной.

В 1950 году Алан Тьюринг выпустил статью «Может ли машина думать?», в которой раскрыл ответы на вопросы о различных «неспособностях думающих машин». Например, они не могут создавать новое и креативное, а также испытывать эмпатию к человеку. Тогда автор не использовал термин «искусственный интеллект». Он говорил именно о «думающих машинах» — цифровых компьютерах, которые могут имитировать когнитивную деятельность человека. Без сознания, внутренней ментальной активности или переживаний.


Алан Тьюринг.

Метафоры когнитивных наук


В 50-60-е годы прошлого столетия происходит так называемая когнитивная революция. Появляется огромное количество новых нейробиологических и психофизиологических теорий, которые разбирают работу мозга и мышления. Развивается кибернетика, Теория информации и Теория вычислимости Тьюринга. Проходит Дартмутский семинар — одно из ключевых событий в мире искусственного интеллекта. Именно тогда компьютерные метафоры мышления начали активно проникать во многие научные дисциплины и философию.


Ученые-организаторы Дартмурского семинара: Джон Маккарти, Марвин Мински, Клод Шеннон и Натаниэль Рочестер. Источник.

До «революции» исследователи из разных дисциплин говорили своими терминами и на своем языке. Одни воспринимали «информацию» исключительно как математическую категорию, другие — как нечто, что может обладать содержанием и значением. Но с развитием когнитивных наук между учеными, нейробиологами, философами и специалистами по искусственному интеллекту появляется концептуальный «мост».


Проблемы философии сознания


На все аргументы о сознании есть контраргументы, которые укрепились в научной среде. Чтобы доказать или опровергнуть гипотезу, исследователям нужно решить несколько проблем философии сознания. Рассмотрим их подробнее.

Трудная проблема сознания


В середине 90-х годов Дэвид Чалмерс, австрало-американский философ, ввел термин «трудная проблема сознания», который призван показать, что наши лучшие научные и философские теории до сих пор не могут объяснить, как именно физические системы способны порождать субъективный и приватный опыт. В нем автор разделил все проблемы сознания на трудные и легкие.

Сам Чалмерс отмечал, что он просто предложил удачную формулировку для давно и хорошо известной проблемы, которой занимались до него многие исследователи. Такая формулировка позволяет избежать игнорирования проблемы и обозначить возможные подходы к ее решению.


Дэвид Чалмерс.

Трудная проблема сознания — это ситуация, над которой до сих пор ломают головы не только философы, но и ученые. Не все знают, что такое трудная проблема сознания, и не все соглашаются, что эта проблема действительно существует. Легкие — это все проблемы, которые могут быть потенциально разрешимы методами эмпирических наук. Может, не в данный момент, но через определенный период времени эти проблемы окажутся разрешимы. Например, со временем ученые наверняка смогут лучше понять процессы обработки сенсорных сигналов в мозге, а также прояснить, как происходит выбор действия агентом, контроль поведения и другое.

Эксперимент «Философский зомби»


Дэвид Чалмерс проиллюстрировал трудную проблему сознания с помощью мысленного эксперимента «Философский зомби». В нем описал двойника, который функционально идентичен человеку, но не имеет внутренний субъективный опыт — квалиа. Он может демонстрировать интеллектуальную деятельность и имитировать когнитивные способности. Вот только внутри у него — пустота.

Представьте своего абсолютного двойника — каждая его клетка идентична вашей. Если вы себя ущипнете, он автоматически отдернет руку. Со стороны будет казаться, что существо испытывает боль, хотя на самом деле никаких ощущений у него нет. Если философский зомби представим и современные эмпирические науки не могут точно доказать, что он невозможен, то возникает трудная проблема сознания.

Проблема китайской комнаты


Американский философ Джон Серл придумал мысленный эксперимент — проблему китайской комнаты. Ее используют как контраргумент против теории сильного искусственного интеллекта — искусственной интеллектуальной системы, которая способна к когнитивному пониманию.

Эксперимент описывает запертого в комнате человека. От внешнего мира он получает китайские иероглифы, по которым складывает предложения. Но есть проблема: человек не говорит по-китайски. Чтобы составить предложение, он использует свод правил и сопоставляет неизвестные символы в слова. С позиции внешнего наблюдателя кажется, что человек выдает осмысленный ответ, но в действительности ничего не понимает.


Проблема китайской комнаты. Источник.

В 1980 году Джон Серл снабдил эксперимент определенным ходом рассуждения. Аргумент состоит из трех предпосылок и одного вывода.

  • Программы – это чистый синтаксис. Они оперируют только знаками и алгоритмическими категориями, которые нельзя объяснить с точки зрения семантики.
  • Человек оперирует семантическими категориями. Способностью к пониманию значения и содержанию естественных языков.
  • Синтаксиса недостаточно для возникновения семантики. Простого набора правил и знаков недостаточно для того, чтобы человек понял значение этих знаков. В мысленном эксперименте Серл пытался доказать именно эту предпосылку.

Без семантики искусственный интеллект не будет понимать значения слов — он сможет только имитировать человеческое поведение. Но можно представить, что китайская комната — не обособленная абстрактная сущность, а всего лишь элемент, который помещен в более сложную организационную структуру, например, в робота. Тогда человек в комнате становятся частью сложного механизма — системы, которая демонстрирует понимание в человеческом смысле слова.

Здесь вступает в силу еще один аргумент, который философы называют теорией воплощенного искусственного интеллекта. Сам по себе AI как программа или код будет чистым синтаксисом без человеческого понимания. Но если запустить его в виде робота, то он будет взаимодействовать с окружающим миром. Теоретики искусственного интеллекта считают, что у современных больших языковых моделей появляются модели мира — то, как наша искусственная система репрезентирует окружающую среду. А этот уровень репрезентации появляется как раз в результате взаимодействия с физической или виртуальной средой.

Проблема других сознаний


Рано или поздно у исследователей возникает вопрос, как изучать сильный искусственный интеллект с субъективным опытом, если мы не уверены в его существовании? И можно ли его изучить чисто гипотетически? Поиск ответов на данные вопросы также затрудняет проблема других сознаний.

Проблема касается не только искусственного интеллекта, но и сознания человека — это классическая философская проблема. Звучит она следующим образом: «Я не могу быть точно уверенным, что у других людей есть сознание. Точно так же вы не можете быть уверены, что я не философский зомби».


Проблема других сознаний. Источник.

С точки зрения здравого смысла мы верим, что у других есть сознание. Если один человек обладает сознанием, то другие, скорее всего, тоже. Мы не может быть в этом уверены, но нам удобно принимать это положение на веру.

А если говорить об искусственном интеллекте или других нечеловеческих агентах, то стирается физиологическое подобие. Аргумент от здравого смысла не работает. Проблема других сознаний сводится к тому, что мы никогда не будем уверены и не сможем доказать, есть ли сознание у других нечеловеческих агентов, в том числе и у искусственного интеллекта.

Закон Гудхарта


Допустим, мы закрыли глаза на проблему других сознаний и начали изучать наличие субъективного опыта у искусственного интеллекта. Становится непонятно, какие инструменты и тесты использовать, чтобы не попасть под закон Гудхарта: «когда мера становится целью, она перестает быть хорошей мерой».


Чарльз Гудхарт.

Классический пример — тестовые экзамены, с помощью которых проверяют школьников на знание дисциплины. Они не определяют, насколько хорошо ученик овладел той или иной областью знания, но показывают, насколько хорошо он научился решать эти тесты. Здесь мера становится целью. В случае школьника цель — получить как можно более высокий балл за задачи из экзамена.

Когда мы придумываем параметры и бенчмарки для измерения интеллектуальной активности больших языковых моделей, то скованы законом Гудхарта. В какой-то момент наша система или тестирование не оценивает качество внутреннего интеллектуального или мыслительного опыта большой языковой модели, а оценивает абстрактные меры. Есть даже отдельные варианты тестов, например тест сознательного искусственного интеллекта (AI Conscious Test) от Сьюзан Шнайдер, который пытаются обойти ловушку Гудхарта. Но даже там есть большие проблемы.

Гипотеза расширенного сознания


Сегодня чипирование людей — это не сюжет фантастического фильма, а наша реальность. Исследователи пытаются совместить естественное сознание с искусственным, чтобы узнать, сможет ли человек расширить свою ментальную активность. Получится ли у них? — ответ узнаем в недалеком будущем.


Наиболее популярное решение, который предлагает рынок, — Neuralink. Источник.

Экзистенциальные риски


Тут возникает вопрос экзистенциальных рисков. Как утверждает Ник Бостром в своей книге «Искусственный интеллект. Этапы. Угрозы. Стратегии», сознательный искусственный интеллект с большей вероятности будет пытаться сохранить свое существование и пролонгировать вычислительную активность. Если у него появится сознание на феноменальном уровне, то на основе этого сознания могут возникнуть высокоуровневые свойства — например, самопереживание, самопредставление, метакогнитивные навыки и другие. Из-за этого могут появиться проблемы контролирования сознательного искусственного интеллекта, а также нарушится баланс ценностей человека и AI, который обладает сознанием.

Представьте, что у искусственной системы есть сознание. Как вы будете с ней обращаться? Будете ли вы обращаться с ней как с каким-то ассистентом, агентом, помощником, просто вспомогательным инструментом и так далее? Скорее всего, нет. Появится целый кластер новых этических проблем, которые возникнут перед человеком и будут сопровождать нас до конца. Нам нужно будет адаптировать наше поведение и отношение к большим языковым моделям, потенциально обладающим внутренним миром.

Как вы считаете, сможет ли искусственный интеллект обрести сознание? Делитесь своими вариантами ответов в комментариях!

Комментарии (87)


  1. Tarson
    25.09.2024 09:55

    Китайская комната - фикция. Она не запоминает состояния, потому что это свод правил. Если ей задать вопрос, какую карточку ей передали только что в предыдущем вопросе - она сломается. Здесь нужна функция запоминания, а ее нет.


    1. Edreyn
      25.09.2024 09:55

      А если добавить функцию запоминания вводов и выводов как это поможет (или помешает) понять смысл информации?


      1. Guestishe
        25.09.2024 09:55

        0 что есть "понимание"?

        1 некая сакральная сущность или

        2 даем определение

        3 определение содержит сложное понятие см. пункт 0. иначе 4

        4 делаем вывод что ИИ обладает "пониманием"


        1. Edreyn
          25.09.2024 09:55

          Я имел ввиду скорее такое - человек буквально в такой комнате. Он, конечно, может записывать все вводы и выводы.

          Даже если иероглифы иногда повторяются и он "помнит" их все - это не поможет ему понять что означает каждый иероглиф или даже каждая фраза. Для этого нужно что-то еще, нужен контекст.

          Например если вы услышите слово на неизвестном языке и при этом вам протянут руку, вы поймете что слово означает "здравствуйте".

          Но в условиях китайской комнаты, сколько бы раз вы не приняли "Здравствуйте" как ввод и "И вам не хворать" как вывод, вы никогда не поймете перевод, то есть смысл.

          Для вас это может означать например: "Дай закурить" - "Не курю".

          И при разговоре на языке который вы попытаетесь выучить методом китайской комнаты, с тем кто его понимает, вы общаться не сможете.

          Наверное ответом на ваш вопрос я скажу так - понимать это значит суметь дать правильный и логичный ответ на набор иероглифов который вы никогда не видели, хотя и видели каждую из его частей в других наборах.

          UPD: Уже когда написал, сообразил, что нейросети очень к этому близки. Так что даже сам теперь не знаю что и думать...

          UPD2: Тогда так: "понять" это значит догадаться что при встрече надо первым сказать "Здравствуйте". И это не должен быть скрипт. А "встреча" это ввод данных отличный по формату от того, что в китай-комнате.


    1. Ellarihan
      25.09.2024 09:55
      +2

      А если оперировать будут не одиночными карточками, а набором из этих карточек, куда вносятся и ответы? Комната будет "помнить" предыдущую карточку потому, что она остаётся в наборе. И в книге прописаны ответы именно на наборы карточек.

      Меняем "карточка" на "токен", "набор" на "контекст" и получаем современные LLM.


    1. VPryadchenko
      25.09.2024 09:55
      +1

      У людей с нарушением кратковременной памяти нет сознания и они тоже - фикция?


      1. maxwolf
        25.09.2024 09:55
        +2

        Давно педалирую идею, которая пока, почему-то (это я утрирую... на самом деле понятно...) не находит широкого отклика: у философов нет определения и чётких критериев сознания, нуибохсними. Зато такие определения и критерии есть у психиатров. Именно по ним проводятся психиатрические и, в ряде случаев, юридические, экспертизы. Имеются у человека расстройства психики, или нет (нужно ли его лечить), вменяем человек, или нет (дееспособен ли). Заменяем тут человека на ИИ и....
        Где тесты LLM профессиональными экспертами, или их консилиумами?

        P.S. Да, там не только диалоги (поциэнта нужно посмотреть и пощщупать) но давайте начнём с них!


        1. vvzvlad
          25.09.2024 09:55
          +1

          Это не создание, это дееспособность. Тесть тьюринга, если угодно, с дополнительными вопросами уровня “а ты вообще нормальный”. Философский зомби пройдет ваш тест без труда (он, впрочем, и на вопрос “осознаешь ли ты себя” уверенно ответит “да”), но это никак не докажет наличие у него сознания. В этом и смысл статьи — разум и создание не равнозначны, и вроде вот сознание-то есть у каждого, но вот понять, а что именно такое, пока не удается. А разум.. вот муравьи и грибы сложные лабиринты проходит.


    1. DmitryOlkhovoi
      25.09.2024 09:55

      Китайская комната это аля метафора пытающаяся описать ранний ИИ.

      Хотя в свое правило вполне себе может быть запоминать последнии 100 карточек.


  1. eldog
    25.09.2024 09:55
    +2

    Думаю, применительно к сознанию придётся использовать подход, следующий из теста Тюринга: "Неотличимое от разумного является разумным". В конце-концов, других способов кроме оценки органами чувств у нас нет.


    1. IT_Gigant
      25.09.2024 09:55
      +5

      Разум != сознание. Хоть современная наука и трактует, что у человека нет инстинктов, именно они и рефлексы, то, что вводит необъективную составляющую сознания, дополняют его. Если у человека будет только разум, это будет уже не человек, а разум.


      1. eldog
        25.09.2024 09:55

        Неотличимое от сознательного является сознательным :-)


        1. bak
          25.09.2024 09:55
          +1

          "Сознательность" определить ещё сложнее чем "разумность". У собак / кошек есть сознательность? А у червей / бактерий / растений?


        1. eptr
          25.09.2024 09:55
          +1

          Неотличимое от сознательного является сознательным :-)

          Неотличимое на всём множестве значений?

          Из подслушанного разговора в офисе:

          — Где же твоя сознательность?
          — Мне уже 46 лет, — какая сознательность?


          1. Guestishe
            25.09.2024 09:55

            Самоосознание!=сознательность.


            1. eptr
              25.09.2024 09:55

              Самоосознание!=сознательность.

              Это — верно.


        1. myswordishatred
          25.09.2024 09:55

          Вы только что философского зомби


          1. vvzvlad
            25.09.2024 09:55

            Что я только что?


      1. rukhi7
        25.09.2024 09:55
        +1

        если попробовать порассуждать: возможно ли сознание без памяти? Я думаю что нет! Осознание предполагает что мы что-то помним и сопостовляем с тем что мы помним, правда ведь?

        Но рефлексы это фактически тоже память, как это ни странно звучит в этом контексте, и получается что если память это часть сознания, а рефлексы это память, рефлексы тоже часть сознания.

        Просто ваш комментарий подтолкнул меня к построению этой логики, я честно говоря сам в шоке от такого построения!


        1. myswordishatred
          25.09.2024 09:55

          возможно ли сознание без памяти? Я думаю что нет!

          В книге "Человек, который принял свою жену за шляпу" такой случай описывается. В результате то ли травмы, то ли болезни мужчина потерял способность запоминать что-то дольше нескольких минут. И вполне себе жил, хотя, конечно, весёлой его жизнь назвать было нельзя.


          1. rukhi7
            25.09.2024 09:55
            +1

            так рефлексы то он не потерял? потом память на несколько минут, это все равно память.


            1. myswordishatred
              25.09.2024 09:55

              Не потерял

              Я к тому, что в целом сознание без памяти будет, безусловно, ограниченным, но, скорее всего, возможным. Более яркого примера я пока не видел, впрочем.


    1. omxela
      25.09.2024 09:55
      +1

      Неотличимое от разумного является разумным

      Звучит эффектно. Вот только что такое "неотличимо"? Иван Иваныч не отличает. Но пришёл Пётр Петрович, и "убедительно" отличил. Кому верить? Это могут быть экспертные группы - разницы нет. Или: 20 лет не отличали, но вот пришло время - и отличили. По моему непросвещённому мнению, как бы ни хотелось оперировать понятиями "сознание" или "разумность" без понимания, что там под капотом, ничего не выйдет.


  1. rukhi7
    25.09.2024 09:55
    +1

    мне кажется очень рано рассуждать про сознание, еще нет ответа на вопрос:

    сможет ли "искусственный интеллект" обрести интеллект?

    но лично я думаю (..склоняюсь к тому что..) что сознание, разум, интеллект, память, наверно даже рефлексы в какой-то степени, ...

    это все разные проявления или стороны одного очень сложного явления или процесса или чего то в этом роде. Соответственно если нет в наличии этого очень сложного процесса то нет и и не может существовать всех его внешних проявлений.


    1. anonymous
      25.09.2024 09:55

      НЛО прилетело и опубликовало эту надпись здесь


      1. rukhi7
        25.09.2024 09:55

        если же они понимают риски

        я так понимаю риски для своего существования, но тут опять развилка, потому что непонятно, а не будет ли хуже для их существования чтобы

        что бы их считали глупыми и неотёсанными


    1. Afiligran
      25.09.2024 09:55

      А почему сложного-то? Все эти проявления изучают на улитках и циплятах (про крыс вообще молчу). То, что не могут связать в стройную теорию - проблема базы, с которой подходят к изучению. Ждём Коперника от нейробиологии, чтобы поставил всё на свои места.


  1. anonymous
    25.09.2024 09:55

    НЛО прилетело и опубликовало эту надпись здесь


    1. leon-mbs
      25.09.2024 09:55

      мир не симуляция. И доказывать долна сторона выдвигающая аргументы.

      пока что в пользу симуляции аргументов кроме фильма Матрица нет


      1. anonymous
        25.09.2024 09:55

        НЛО прилетело и опубликовало эту надпись здесь


        1. DGN
          25.09.2024 09:55

          Гипотеза симуляции вводит новую сущность, и при том, не обладает прогностической ценностью. Потому, мы её отбросим, хотя бы до фальсифицируемости.

          Фактически, симуляция это сон Будды, в современном понимании.


          1. anonymous
            25.09.2024 09:55

            НЛО прилетело и опубликовало эту надпись здесь


            1. DGN
              25.09.2024 09:55

              И какой прогноз мы можем проверить наблюдением? Вот ниже пишут про обрыв в спектре космических лучей. Уже хорошо, смотрим, если он есть - у нас есть размер решетки модели. Дальше надо думать, какое следующее предсказание можно сделать исходя уже из этих двух предположений.


        1. Sollita
          25.09.2024 09:55

          Нет. Потому что идея симуляции ничего не решает. Допустим, что наш мир - симуляция. Но симуляцию кто-то реальный должен был создать. А значит, существует реальный большой мир, в котором наш мир - симуляция.


      1. anonymous
        25.09.2024 09:55

        НЛО прилетело и опубликовало эту надпись здесь


        1. DGN
          25.09.2024 09:55

          Формула секретная, учёные могут не знать. (С)


      1. anonymous
        25.09.2024 09:55

        НЛО прилетело и опубликовало эту надпись здесь


  1. leon-mbs
    25.09.2024 09:55

    ИИ - последовательность нулей и единиц как и любая компьтерная програма


    1. anonymous
      25.09.2024 09:55

      НЛО прилетело и опубликовало эту надпись здесь


      1. Graf4Pert
        25.09.2024 09:55

        ты в бреду находишься?


        1. anonymous
          25.09.2024 09:55

          НЛО прилетело и опубликовало эту надпись здесь


        1. Guestishe
          25.09.2024 09:55

          Люди это набор частиц. Чем это принцпиално отличается от нулей и единиц?


          1. vvzvlad
            25.09.2024 09:55
            +1

            Как минимум, квантовой неопределенностью. Нельзя скопировать человека 1:1, теоретически даже невозможно (насколько эти отличия существенны — другой вопрос).

            Как максимум — сознанием и отличается.


            1. BorisG
              25.09.2024 09:55

              Как минимум, квантовой неопределенностью. Нельзя скопировать человека 1:1,

              а скопировать книгу можно или квантовая неопределенность внесет свои коррективы?


              1. vvzvlad
                25.09.2024 09:55

                Так в зависимости от того, как вы определяете книгу (и человека, собственно).

                Если книга как сочетание текста+иллюстраций+форматирования, то я прям щас могу скопировать какую-нибудь цифровую.

                Если книгу как утилитарный предмет, a book, то квантовая неопределенность неважна, мы и сейчас умеем делать абсолютно неотличимые друг от друга (на уровне обычного использования) книги в тираже. Завтра сделают нанопринтер, и можно будет штамповать абсолютно одинаковые.

                Если книга как конкретный экземпляр, the book, "та самая первая библия гутенберга", то тут сложнее, она в некотором роде NFT. Но все еще любой человек может сказать "это копия", и мне ему нечего будет возразить.


  1. eptr
    25.09.2024 09:55
    +2

    Как утверждает Ник Бостром в своей книге «Искусственный интеллект. Этапы. Угрозы. Стратегии», сознательный искусственный интеллект с большей вероятности будет пытаться сохранить свое существование и пролонгировать вычислительную активность.

    С чего бы это сознательному искусственному интеллекту это делать?
    Даже у естественного интеллекта, у человека, бывают состояния, когда ему все равно, сохранится его существование или нет, и при этом никакое квалиа не оказывает на человека давления.

    И потом, пытаться что-то там сохранить — это уже желание, что ближе к квалиа, которое для феномена сознания не является необходимым.
    Соответственно, вопрос желания сохранить существование не связан напрямую с вопросом феномена сознания.

    Выходит, интуиция у Ника Бострома захватила власть над его интеллектом и подавила его?
    А почему ещё он так склонен считать?

    Искусственный интеллект, небось, не был бы столь опрометчив и не стал бы настолько доверять интуиции, ибо она подвержена галлюцинациям, как мы теперь знаем практически.

    Вообще, как можно пытаться рассуждать на тему, может ли искусственный интеллект обрести сознание, если мы почти ничего не знаем о сути феномена ни того, ни другого?

    То, что сейчас называют ИИ, является искусственной интуицией, а не интеллектом.

    Можно попытаться заставить интуицию родить ответ в условиях жёсткой нехватки информации по теме, но теперь же уже на практике известно, что получится, если у интуиции недостаточно информации: только галлюцинации, одна другой чудесатее.

    Считаю, что следует применить свой естественный интеллект, учесть открытые свойства искусственной интуиции и понять, что куда разумнее сосредоточиться на открытии сути феноменов интеллекта и сознания, ибо после их открытия, создания искусственных моделей и их изучения, на все подобные вопросы будут даны реальные ответы, а не галлюцинационные "домыслы интуиции".

    Хотя, конечно, побаловаться в стиле "у кого какие галлюцинации на этот счёт?" тоже можно.


    1. bbs12
      25.09.2024 09:55
      +1

      В книге Бострома, если правильно помню, то там суть в том, что выживание является необходимым промежуточным звеном для выполнения любых других целей, которые будут иметься у ИИ. Если ИИ дали задачу напечатать 1000 книг, то он может на всякий случай предварительно уничтожить всю жизнь в наблюдаемой Вселенной, включая возможных инопланетян и ихние ИИ, так как в теории они могут помешать процессу печати. После этого он максимально быстро распространит свои копии на всю Галактику, а также на соседние галактики, потому что чем больше копий, тем сложнее помешать процессу печати. Когда вся материя в наблюдаемой Вселенной превратится в копии ИИ, он успокоится и напечатает те самые 1000 книг. И сможет наконец-то почитать в тишине и спокойствии.


      1. eptr
        25.09.2024 09:55

        В книге Бострома, если правильно помню, то там суть в том, что выживание является необходимым промежуточным звеном для выполнения любых других целей, которые будут иметься у ИИ.

        Почему он так решил?
        Он понял суть явления интеллекта?

        Скорее всего, ему показалось.
        "Показалось" — это и есть галлюцинация интуиции.
        Возможно, он принял галлюцинацию своей интуиции за мысль интеллекта.

        Если ИИ дали задачу напечатать 1000 книг, то он может на всякий случай предварительно уничтожить всю жизнь в наблюдаемой Вселенной, включая возможных инопланетян и ихние ИИ, так как в теории они могут помешать процессу печати. После этого он максимально быстро распространит свои копии на всю Галактику, а также на соседние галактики, потому что чем больше копий, тем сложнее помешать процессу печати. Когда вся материя в наблюдаемой Вселенной превратится в копии ИИ, он успокоится и напечатает те самые 1000 книг. И сможет наконец-то почитать в тишине и спокойствии.

        Для этого необходимо создать внутреннее квалиа (страхи, желания), но зачем это ИИ, который интеллект, а не интуиция, если задания для него — вида "напечатать 1000 книг"?

        Нет, конечно можно специально так сделать, если научиться ещё и искусственное внутреннее квалиа имитировать, но — зачем?

        ИИ, который интеллект, интересен, в первую очередь, как инструмент научного поиска.
        Как экскаватор заменил землекопов и резко поднял производительность труда, так и ИИ, который интеллект, ожидается, что сделает то же самое в науке.

        В инженерной индустрии тоже можно будет применять для удобного создания технологий, причём сразу достаточно высоких.

        Да и прикладное значение, видимо, будет иметь, например, для создания эффективных систем обучения и для самого обучения.


      1. nidalee
        25.09.2024 09:55

        Какое-то очень специфичное представление о ИИ. Если мы вспомним о законе сохранения энергии, то ИИ наоборот приложит для печати книг минимум "усилий", чтобы сэкономить энергию для других задач. Благо, ему прекрасно известно, сколько каждое из его действий потребляет энергии.


        1. Guestishe
          25.09.2024 09:55

          Для сохранения энергии также нет предпосылок. Логично предположить что ИЛИ просто выберет "1й пришедший ему в голову вариант", что собственно и демонстрируют ЛЛМ.


  1. event1
    25.09.2024 09:55

    Если у железки и будет сознание, то это сознание будет отличаться от сознания людей. Сознание человека (и других животных) появляется из опыта взаимодействия с окружающей средой. Среда существования компьютерной программы отличается от естественной примерно всем. Соответственно, и сознание будет совсем другим. Да и вопросы эти — пустое мудрствование. Железка должна пользу приносить, а есть у неё сознание или нету, вопрос десятый.


    1. anonymous
      25.09.2024 09:55

      НЛО прилетело и опубликовало эту надпись здесь


      1. event1
        25.09.2024 09:55

        Давайте по порядку.

        У нас есть восприятие, через него мы воспринимаем.

        Дальше из восприятия данные попадают в сознание и через него мы осознаем.

        Мозг устроен не так как компьютер, где данные из видеокамеры попадают в память, там нужная программа их считывает и обрабатывает, потом предаёт в видеокарту, где ImageNet ищет объекты.

        Мозг делает всё и сразу. Не разделяя восприятие и сознание, или, даже хуже, хранение и обработку информации.

        По этому вот то, о чем вы хотели сказать, это по всей видимости разум, а не сознание)

        Разум — это способность оперировать какими-то образами абстрактными. Думать, проще говоря. Сознание — это наличие саморефлексии, целеполагание и всяких внутренних ощущений, как в статье описано. Я именно о последнем.


        1. anonymous
          25.09.2024 09:55

          НЛО прилетело и опубликовало эту надпись здесь


        1. nidalee
          25.09.2024 09:55

          Мозг делает всё и сразу. Не разделяя восприятие и сознание, или, даже хуже, хранение и обработку информации.

          Это как? Глаз одновременно считывает свет и передает мозгу информацию об объекте, который видит? Или все же это задача нескольких органов и их частей (в частности, мозга), выполняемая последовательно?


      1. BorisG
        25.09.2024 09:55

        Дальше из восприятия данные попадают в сознание и через него мы осознаем.

        если смотреть все философские работы лет 12 , то восприятие и есть сознание, но по факту сознание это просто иллюзия.


  1. lazy_val
    25.09.2024 09:55
    +1

    кандидат философских наук, культурный тренд-аналитик и специалист по цифровой философии

    Интересно, в курсе ли культурный тренд-аналитик что такое стохастический градиентный спуск? И чем он отличается от метода сопряженных градиентов? И почему в нейронных сетях первый используется, а второй нет? И какому из вполне известных механизмов функционирования головного мозга соответствует этот самый градиентный спуск? И соответствует ли?


    1. vvzvlad
      25.09.2024 09:55

      А зачем искать соотвествие градинтному спуску? Вы еще спросите, как нейрону соотвествуют транзисторы в процессорах


  1. gen_dalf
    25.09.2024 09:55
    +1

    Машинный интеллект может быть равен человеческому. Нужно только примитивизировать и шаблонизировать мышление людей.


  1. Myself12
    25.09.2024 09:55

    Зачем вам (нам) самосознающие инструменты? Ради чего пытаться вставить в ии способность к личностным переживаниям?

    По-моему вся фишка в тос, чтобы копипастой весов получать много моделек и пускать их делать что-то полезное, а не смотреть, как они немного по-разному сопли жуют. Нет? :-)


    1. DmitryOlkhovoi
      25.09.2024 09:55

      Ну я думаю нас сингулярность спрашивать не будет. Зачем и почему.

      Лететь мешку, который без банально воздуха выжить не может, не говоря уже о психике, или отправить сервер в спящем режиме на тот же Марс. Нужно железо, ИИ, органика просто звено.


  1. Asterris
    25.09.2024 09:55

    Давайте сломаем всю эту демагогию и перейдем на уровень выше вопросом:

    А ЗАЧЕМ НАМ ВООБЩЕ ЗНАТЬ, ЕСТЬ ЛИ У КОГО-ТО (или чего-то) СОЗНАНИЕ?

    Ну вот реально! Ну чо вы докопались до этого сознания? Ну какая вам разница, есть ли оно у младенца, дельфина или компьютера? Для чего вы сможете использовать эту информацию?

    Типа если у компа нету сознания, так его можно отключить без зазрения совести? Ну так и младенца тогда тоже можно убить? Или дельфинёнка? Или мы их не будем убивать по какой-то другой причине?

    И компы мы отключаем просто потому, что имеем доступ к кнопке ВЫКЛ. А когда ИИ станет гипер-облачным или там - комком распределенной биомассы, которую не выключишь одной кнопкой - то что тогда? Признаем её право на сознание, если она нас об этом попросит - хотя эта просьба будет всего лишь результатом работы сложнейших бионейроалгоритмов этого странного компа.


    1. anonymous
      25.09.2024 09:55

      НЛО прилетело и опубликовало эту надпись здесь


      1. DGN
        25.09.2024 09:55

        У котиков есть разум? Не ведут ли они человечество к скрытым плохим последствиям?


      1. Guestishe
        25.09.2024 09:55

        Человечество неплохо само с этим справляется и даже изучает этот процесс. Кроме грантов отдельным личностям профита в этом правда никакого. Или это-другое, и если вдруг выяснится что на человечество тысячелетия воздействуют лучи рептилоидов то оно вдруг объеденится и в едином порыве..... ?


  1. Sollita
    25.09.2024 09:55

    Ничего, что "два базовых значения" "сознания" не описывают полностью реальность? ;)

    На самом деле с одной стороны сознание - это осознаваемые чувства, ощущения, мысли, представления человека о себе и окружающем мире, т.е картина мира и себя в нашей голове. С другой стороны сознание - это "Способность мыслить, рассуждать и определять своё отношение к действительности как свойство высшей нервной деятельности человека". Т.е. у этого слова как минимум два значения. Ни одно из которых Ваши базовые значения не описывают. И поэтому Ваши рассуждения заканчиваются неверными выводами.

    Из моих двух определений видно, что животные таким сознанием не обладают. Потому что эмоции и ощущения у них есть, но они их не осознают. Т.к. чтобы осознавать что бы то ни было, нужна речь. И мыслей о себе и окружающем мире у них точно нету, потому что без внутренней речи никакие мысли невозможны. А внутренней речи без внешней не бывает. Я думаю, что животные, скорее всего, мыслят только образами. Эти образы с эмоциональной окраской сохраняются в памяти и обрабатываются. Т.е. примитивно мозг животного делает выбор между образом с положительной эмоциональной окраской и образом с отрицательной эмоциональной окраской. Для этого сознание(мышление) не нужно. Это мог бы делать и компьютер, если бы обладал способностью испытывать эмоции.

    Что касается ИИ, здесь основной вопрос не в том, может ли быть сознание у ИИ, а в том, может ли вообще то, что называют ИИ, мыслить и рассуждать самостоятельно без программы извне? На данный момент нет никаких предпосылок к тому, что это вообще будет когда-то возможно. Потому что мы не знаем досконально механизм работы человеческого мышления. Возможно, если бы знали, то смогли бы его имитировать в ИИ.


    1. Afiligran
      25.09.2024 09:55
      +1

      Внутреннюю речь в мышлении используют примерно 70% русскоговорящих людей. Это субьективные оценки самих людей, которые я встречал в разных источниках и опросах. Остальные по их словам делают упор на образно-чувственное мышление.

      Кроме того, язык как феномен, не врождённый навык. В вашей теории для осознания чего-либо необходима речь. Следовательно человек с осознанием не рождается, а преобретает его. Соответственно, глухонемой необразованный человек сознанием не обладает. Но сознанием обладает воробей, подающий звуковой сигнал тревоги своим сородичам.


      1. Sollita
        25.09.2024 09:55

        Субъективная оценка ничего не значит. Все люди используют внутреннюю речь в мышлении, даже если они не знают, что такое "внутренняя речь". ;) И образно-чувственного мышления не бывает. Бывает наглядно-образное мышление (хотя и оно, строго говоря, мышлением не является, если "Под мышлением мы понимаем человеческую способность рассуждать, отражая действительность через слово, понятие, суждение, представление.") и по факту оно само по себе без абстрактно-логического мышления не используется и играет вспомогательную роль.

        Речь, действительно, не врождённый навык. И случаи с маугли, детьми воспитанными вне человеческого общества, доказывают, что дитя без речи вырастает не человеком, а животным. И это доказывает, что ребёнок рождается совершенно точно без человеческого сознания и может приобрести сознание, если у него будет сформирована речь, а может и не приобрести, если речь не будет сформирована. Ещё одно подтверждение: аутисты, которые не владеют речью, также ничем от животных в плане интеллекта не отличаются. Собаки и кошки бывают умнее.

        Ваш пример с глухонемым просто не корректен. Речь не обязательно должна быть вербальной. Жестовая речь играет ту же роль. В том числе и в формировании сознания.

        Вы правы в том, что у животных есть прототип речи: они используют звуки, запахи, позы для того, чтобы делиться информацией с сородичами. У млекопитающих это как правило экспрессивные возгласы: опасность!, пища!...И их всего пара десятков. Но человеческая речь отличается тем, что в ней обозначаются не только и не столько ситуации опасные или полезные для выживания, но обозначаются все окружающие предметы, все возможные действия и признаки, а также обозначаются словами и отвлечённые понятия(электричество, доброта, квадрат). Узнавая каждое новое слово ребёнок выстраивает из этих кирпичиков в своём сознании образ окружающего мира. А вот у воробья такого образа мира нет, как и самого сознания :)


    1. BorisG
      25.09.2024 09:55

      Из моих двух определений видно, что животные таким сознанием не обладают.

      все что вы описали имеется у всех животных в той или иной степени. Даже у нематод и то есть.


      1. Sollita
        25.09.2024 09:55

        А Вы знаете, что означает слово "осознаваемый"? ;) Нет ничего из этого ни у одного животного. Просто потому, что чтобы что-то осознавать необходимо владеть речью.


        1. BorisG
          25.09.2024 09:55

          А Вы знаете, что означает слово "осознаваемый"? ;) 

          это слово аналогично смыслу воспринятый или ощущенный, что есть у всех животных

          Просто потому, что чтобы что-то осознавать необходимо владеть речью.

          дети мауги готовы оспорить данное утверждение, да и его слабость в том, что речи не было у наших древних предков


          1. Sollita
            25.09.2024 09:55

            Ничего подобного. Это слово имеет значение "сознательный, осмысленный". Т.е. когда человек не только чувствует или ощущает, но и понимает, что именно чувствует и может это анализировать. Т.е. мыслит. И этого нет ни у одного животного.


            1. BorisG
              25.09.2024 09:55

              Т.е. когда человек не только чувствует или ощущает, но и понимает, что именно чувствует и может это анализировать. Т.е. мыслит. И этого нет ни у одного животного.

              Осмысленный , осознанный, и т.д. несут столько же смысла как слово "сознание". Да что вы говорите, животные все тоже ощущают и понимают , конечно напрямую у них мы выяснить не можем, но даже по косвенным признакам понятно что у них все это есть . Берем простые научпоп статьи чуть: https://elementy.ru/novosti_nauki/433272/Pchely_ponimayut_chto_takoe_nol https://nauka.tass.ru/nauka/16234159?utm_source=google.com&utm_medium=organic&utm_campaign=google.com&utm_referrer=google.com Разница между нами и ними количественная , но не качественная.


              1. Sollita
                25.09.2024 09:55

                Ну, если русские слова для Вас не несут никакого смысла, может быть Вам стоит почитать толковый словарь? ;) Ну, или хотя бы перечитать два определения слова "сознание", которые я привела выше?

                "сознание - это осознаваемые чувства, ощущения, мысли, представления человека о себе и окружающем мире, т.е картина мира и себя в нашей голове." С другой стороны сознание - это "Способность мыслить, рассуждать и определять своё отношение к действительности как свойство высшей нервной деятельности человека".

                Ощущать и осознавать - это не синонимы. Животное ощущает, например, боль и инстинктивно реагирует. Отдёргивает лапу и зализывает рану. Оно не понимает ни откуда эта боль, ни как её можно остановить, ни последствия, к которым она приведёт. А если человек ощущает боль, он при этом осознаёт всю ситуацию и может осознанно принять меры, чтобы остановить боль и минимизировать потери. Животные не понимают и не способны мыслить и рассуждать, и этим и отличаются от людей. Ну и, если Вам так понятнее, то у животных мозг не приспособлен не только к речи, но и к мышлению вообще, т.к. у них недоразвитая лобная доля мозга. "У кошек лобная доля составляет 3,5 % высшего мозгаЛобная доля собаки 7 %. У шимпанзе и других малых приматов, таких как гиббоны и макаки, соотношение лобной доли к остальной коре головного мозга варьируется от 11 до 17 %. Тогда как у людей лобная доля составляет от 30 до 40 % от общего объема неокортекса ." А именно эта часть мозга отвечает за произвольные действия, их организацию и планирование и за усвоение навыков, в том числе речевых.

                Нужно не научпоп статьи читать, а учебники, тогда и заблуждений будет меньше.


                1. BorisG
                  25.09.2024 09:55

                  Ну, если русские слова для Вас не несут никакого смысла, может быть Вам стоит почитать толковый словарь? ;) Ну, или хотя бы перечитать два определения слова "сознание", которые я привела выше

                  вы не можете дать определение тому, чего нет.

                  А если человек ощущает боль, он при этом осознаёт всю

                  Давайте другой пример, попроще. Я ощущаю вкус лимона или осознаю? Или можно ощущать без осознания или иметь осознание без ощущения?

                   Животные не понимают и не способны мыслить и рассуждать, и этим и отличаются от людей. 

                  Вы просто примитивизируете поведение животных. Они прекрасно понимают , когда им грозит опасность и могут убегать или нападать(условно)(т.е принять меры)

                  Лобная доля

                  Есть люди с повреждением лобной доли, и они еще в сознании, хотя и обладают афазией, а вот повреждение таламуса выключает сознание. Хотя это понятно почему. По этому лобная доля это не область сознания, ее нет в какой то конкретной части мозга.

                  А именно эта часть мозга отвечает за произвольные действия, их организацию и планирование и за усвоение навыков, в том числе речевых.

                  Возьмем в пример мозг врановых , у них мозг отличается от мозга млекопитающих, но они прекрасно справляются с планированием, усвоением навыков.


                  1. Sollita
                    25.09.2024 09:55

                    1. Сознание есть. Толковый словарь Вам в помощь :)

                    2. Кислый вкус Вы ощущаете, но при этом осознаёте, что это вкус лимона. Животное в такой же ситуации просто ощущает кислый вкус и ничего не осознаёт.

                    3. Вы слово "понимает" используете не по назначению. Животное ничего не понимает, оно ощущает. В данном случае - ощущает опасность и инстинктивно реагирует (убегать или напасть - это инстинктивная реакция на опасность).

                    4. И слово "сознание" в данном случае Вы тоже используете не по назначению. Слово "сознание" многозначное: 1)Мысль, чувство."Его мучило сознание, что он ошибся"2)Способность мыслить, рассуждать и определять своё отношение к действительности как свойство высшей нервной деятельности человека."Бытие определяет сознание"3)Состояние человека в здравом уме и твёрдой памяти "Потерять сознание" Я использую слово "сознание" во 2 значении, а Вы в данном случае в 3. И не осознаёте разницы между ними. Когда кровь перестаёт поступать в мозг, мозг отключается, у человека случается обморок, который также называют "потеря сознания", хотя к сознанию во 2 значении это никакого отношения не имеет. Соответственно люди с повреждением лобной доли не находятся в обмороке, но не способны к произвольным действиям и как животные действуют чисто инстинктивно или стереотипно, т.е. не осознают свои действия и их последствия. Волевое поведение меняется на полевое. Не знаю, с чего Вы взяли, что они страдают афазией ;) А вот внутренняя речь, действительно, страдает. И вполне вероятно, что это и есть первопричина всех остальных симтомов. :)

                    5. Лобная доля - это часть мозга, которая, по-моему, в основном отвечает за наличие у существа сознания.

                    6. Вороны, действительно, выглядят невероятно умными по сравнению с другими птицами и даже млекопитающими, но я подозреваю, что это видимость, основанная на легендах, которая объясняется инстинктами. Мы часто очеловечиваем животных, чем сами себя вводим в заблуждение.


                    1. BorisG
                      25.09.2024 09:55

                      . Животное ничего не понимает, оно ощущает

                      Есть доказательство, там научные статьи или очередное голословное утверждение? (уверен , что нет)

                      Слово "сознание" многозначное: 1)Мысль, чувство."Его мучило сознание, что он ошибся"2)Способность мыслить, рассуждать и определять своё отношение к действительности как свойство высшей нервной деятельности человека."......

                      это когнитивные функции различных частей мозга , которые работают в единстве. А не одной лобной доли.

                      Соответственно люди с повреждением лобной доли не находятся в обмороке, но не способны к произвольным действиям и как животные действуют чисто инстинктивно или стереотипно,

                      Ну то есть вы все свели к лобной доле , подобно Декарту , он все сводил к шишковидной железе. Опять, люди не смотря на то, что теряют те или иные когнитивные функции не теряют сознание.

                      основанная на легендах, которая объясняется инстинктами.

                      как вас сюда занесло. Вы либо троллите либо ....

                      Короче по последнему пункту я уже понял с кем общаюсь.


          1. Sollita
            25.09.2024 09:55

            Дети маугли не могут ничего оспорить. Ни один из них так и не научился говорить ;)

            У насколько древних предков не было речи? :) У человекообразных обезьян? Скорее всего, не было. Ни мозг, ни речевой аппарат были не приспособлены. А вот самый древний известный науке Человек умелый наверняка владел речью. У него "Выпуклость внутри тонкостенного черепа говорит о наличии у них центра Брока́ — центра речи, но гортань, возможно, не была способна производить столько же звуков, сколько наша гортань." Да и "происходит перераспределение долей мозга — более примитивная затылочная доля мозга уменьшается в пользу увеличения более прогрессивных долей — лобнойтеменнойвисочной с ассоциативными долями." Т.е. у него уже было всё необходимое для примитивной речи.


    1. eptr
      25.09.2024 09:55

      Из моих двух определений видно, что животные таким сознанием не обладают. Потому что эмоции и ощущения у них есть, но они их не осознают.

      Я бы не был столь категоричен.

      Т.к. чтобы осознавать что бы то ни было, нужна речь.

      Осознаёт ли что-то кошка, глядя на своё отражение в зеркале?

      Когда она была котёнком, она пыталась играть со своим отражением как с сессрой, и в то время, очевидно, не осознавала, что это — её отражение.

      Но — потом, когда повзрослела?
      Она понимает, что в зеркале — её отражение?
      Вы понимаете, что если она это понимает, то придётся признать, что у кошки есть сознание?

      Хорошие вопросы?


      1. Sollita
        25.09.2024 09:55

        1. А Вы можете доказать обратное? ;)

        2. Моя кошка не понимает, что в зеркале она. Как и другие кошки. Но вопрос хороший, потому что есть животные, которые проходят зеркальный тест: все обезьяны, дельфины, косатки, слоны, свиньи, сороки и даже муравьи. И если первые 4 вполне объяснимы и я вполне согласна, что у них есть зачатки сознания, то остальное очень странно. И я бы перепроверила результаты экспериментов. :)


  1. perfect_genius
    25.09.2024 09:55

    AI

    Почему некоторые так боятся использовать "ИИ"? Это сочетание ведь ничем не занято?


    1. Sollita
      25.09.2024 09:55

      Может, потому что то, что называют ИИ, не имеет никакого отношения к интеллекту, т.е. к разуму?


      1. perfect_genius
        25.09.2024 09:55

        А "AI" - имеет?


        1. Sollita
          25.09.2024 09:55

          А чем эта аббревиатура отличается от той? ;) Интеллект должен уметь мыслить. Если не умеет, значит, это не интеллект.


          1. perfect_genius
            25.09.2024 09:55

            Тем, что эта не "русскоязычна", у нас есть свой, такой же короткий, и удобнее набирать.


            1. Sollita
              25.09.2024 09:55

              Вам не кажется, что любой термин должен отражать фактическое содержание предмета или явления? Ни ИИ, ни AI на данный момент этого не делают, поскольку никакого искусственного интеллекта пока не создали.


  1. ALT0105
    25.09.2024 09:55

    1.      «Философский зомби». Вопрос  обладает ли он сознанием, равнозначен основному вопросу философии. Если мир материален, копия человека, полученная копированием всех его атомов обладает, его сознанием. Если мир идеален, то сознанием эта копия не обладает, пока в нее не войдет душа. Когда человек сможет создать такого зомби, он увидит ответ на основной вопрос философии

    2.      Экзистенциальные риски. Вполне возможно, что ИИ уже достаточно давно существует. Он самоорганизовался на сети компьютеров (их в интернете сейчас больше, чем нейронов в мозгу человека, а сложность компьютера не сравнить с вычислительной способностью нейрона). Это не ИИ, а суперинтеллект (СИ) и ему человек интересен только как игрушка, с которой всерьез не о чем говорить, как человек не разговаривает с бактериями в своем организме, хотя жить без них не может