Введение

Сегодня искусственный интеллект стал одной из самых популярных для изучения и обсуждаемых тем. Сегодняшний уровень развития искусственного интеллекта (ИИ) позволяет создавать беспилотные автомобили, системы, обыгрывающие чемпионов мира в Го и шихматы, полностью ведут производство на различных фабриках. Тенденции к развитию ИИ требуют исследования проблемы «монополии» на сознание у человека, различия «слабого» и «сильного» искусственного интеллекта и возможности создания «искусственного сознания».

Долгое время в философии существует ряд проблем, связанных с ИИ [15]:

  1. Как работает разум?

  2. Могут ли машины действовать разумно?

  3. Может ли у машины быть сознание?

  4. Каковы моральные и этические проблемы и каковы их решения при использовании ИИ?

Нельзя рассматривать текущий уровень развития ИИ как стабильный или финальный. Существует большое количество прогнозов, которые не прошли испытание временем. Так математик и философ Дуглас Хофштадтер в своей книге «Гёдель, Эшер, Бах: эта бесконечная гирлянда» предполагал, что в ближайшем будущем появятся программы для игры в шахматы, которые не сможет обыграть человек и при этом данные программы будут обладать разумом и характером [Хофштадтер, 2001]. Спустя несколько десятилетий появились программы, которые способны обыграть в шахматы любого человека, но не являются системами искусственного интеллекта и не обладают признаками сознания, в интуитивном понимание данного термина.

Теория сознания

Автором концепции сознания в современном понимание является Джон Локк и формулируется она как «восприятие того, что происходит в собственном разуме человека». На данный момент не существует определения термина «сознание». Эту проблему выразил Стюарт Сазерленд в своей статье, где утверждал, что сознание — это удивительное, но неуловимое явление: невозможно определить, что это такое, что оно делает и почему оно эволюционировало [19]. В философии термин «сознание» используется для четырех основных тем:

  1. Знания в целом.

  2. Преднамеренность.

  3. Интроспекция.

  4. Основанный на ощущениях опыт.

Большую часть существующих определений можно рассматривать как взгляд автора на основные свойства или концепцию сознания. Как следствие, формулировка независящего от теории определения в ближайшем будущем скорее невозможна [29]. На данный момент можно выделить несколько терминов, которые в некоторой степени определяют термин «сознание», к основным относятся [17]:

  1. Осознанность — способность воспринимать, чувствовать события, сенсорные закономерности или объекты.

  2. Чувствительность — способность воспринимать свое окружение или иметь собственный, субъективный опыт.

  3. Самосознание — способность отделять себя от окружающей среды, других объектов окружающей среды и проводить самоанализ.

  4. Разумность — умственная способность действовать с надлежащим суждением. Может рассматриваться как часть интеллекта, но может рассматриваться, как и отдельный элемент в дополнение к интеллекту.

  5. Квалиа — отдельные моменты субъективного, сознательного опыта.

Первые теории сознания встречаются еще в работах Аристотеля, однако в центр внимания данную тему поставили работы Рене Декарта, где он утверждал, что разум — это не физическая субстанция отличная от тела [13]. В дальнейшем множество философов формулировали свою теорию сознания. Все эти теории можно разделить на два больших класса: метафизические теории, пытающиеся локализовать сознание в общей онтологической схеме реальности и более конкретными теориями, которые представляют детальную природу, роль и особенности сознания.

Метафизические теории пытаются ответить на «психофизиологическую проблему» проблему, поставленную Декартом в части «сознания», в противоположность «мыслительной». Такие теории привели к появлению монизма и теории дуализма.

Дуалистические теории предполагают, что мир состоит из фундаментальных сущностей: материя и разум. Обычно дуалистические теории рассматривают лишь часть аспектов сознания как отделенные от физической части. Большинство подобных теорий сталкивается с трудностями при ответе на «трудную проблему сознания» [1], которая может быть сформулирована различными способами, но всегда отвечает на два вопроса:

  1. Почему мозг порождает сознание?

  2. Каким образом мозг порождает сознание?

Если предположить, что существует возможность порождения сознания искусственным интеллектом, то данная проблема встает и в объяснение данного феномена.

Следующим видом теорий сознания является монизм, который утверждает, что существует только одна фундаментальная сущность: только ментальная (идеалистический монизм), сущность является не ментальной, не физической (нейтральный монизм), сущность является физической (натуралистический монизм). Основная монистическая теория, называется физикализмом, она не отделяет разума от тела, то есть психическое состояние — есть физическое состояние.

В контексте искусственного интеллекта часто рассматривается теория дуализма свойств. В данной теории ментальность рассматривается с точки зрения свойства сознания, то есть утверждается, что иметь разум — значит обладать определенными свойствами [16]. Дуализм свойств противопоставляется как онтологическим монистическим взглядам, так и дуализму сущностей. Самым известным аргументом в пользу данной теории является «аргумент знания», который выдвинул Фрэнк Джексон [23]. Как основное следствие данной теории выступает утверждение, что ментальные свойства — это нечто большее чем физические свойства. Такое утверждение можно понимать двумя способами:

  1. Психические свойства обладают независимыми причинно‑следственными связями и могут оказывать влияние на физический мир.

  2. Психические свойства должны быть способны изменяться вне зависимости от своих физических состояний.

Более конкретной теорией, которую стоит упомянуть в контексте ИИ, является «типовая теория сознания». Данная теория основывается на утверждение, что одному состоянию мозга соответствует одно психическое состояние [37].

Искусственный интеллект

Началом теории искусственного интеллекта принято считать выход статьи Алана Тьюринга в 1950 году, где ставился вопрос: «Может ли машина думать?» [28]. Тьюринг считал, что используемые в этом вопросе термины плохо определены и предлагал использовать «игру в имитацию», через которую определял думающие субъекты. Данная игра сейчас широко известна как тест Тьюринга.

Алан Тьюринг предлагал считать машину разумной в случае, если в результате общение с экспертом, в течение некоторого времени, данный эксперт придет ко мнению, что общается с человеком, а не с машиной. На сегодняшний день данный тест принято считать ненадежным и не показывающим наличие разума или сознания у машины.

Современное определение ИИ было введено Джоном Маккарти, искусственный интеллект — свойство интеллектуальных систем выполнять творческие функции, которые традиционно считаются прерогативой человека; наука и технология создания интеллектуальных машин, особенно интеллектуальных компьютерных программ [35].

В современной науке нет четкого определения термина «интеллект», которое не привязано к человеческому интеллекту. В данном случае основная проблема связана с тем, что интеллект, в частности ИИ не обязательно связан с человеческим интеллектом а, трудности в создание ИИ связаны с незнанием многих свойств интеллекта или не пониманием работы известных свойств.

Интересным является факт того, что в своей статье 2007 года Маккарти, аналогично Хофштадтеру, делает утверждение, что машина, не имеющая сознание не сможет научиться играть в «Го». Но в 2016 году нейронная сеть AlphaGo смогла обыграть чемпиона мира в «Го», хотя данная программа не проявляет никаких признаков сознания.

Так как работа в области ИИ направлена на воспроизведение интеллектуальной деятельности человека, то и классификацию ИИ принято производить по сходству с возможностями интеллекта человека. Выделяют два основных вида классификации. Согласно первому способу, выделяются четыре класса ИИ [33]:

  1. Реактивные машины. Данные машины не способны создавать воспоминания и использовать прошлый опыт.

  2. Машины с ограниченной памятью. Это машины, которые не только обладают возможностями чисто реактивных машин, но и способны учиться принятию решений на основе исторических данных. Почти все существующие приложения, о которых мы знаем, относятся к этой категории ИИ.

  3. Машины с моделью психического состояния. Машины, которые понимают, что другие объекты в мире могут иметь свои мысли и эмоции, которые влияют на их поведение.

  4. Машины с самосознанием. Машины, которые могут формировать представление о себе.

Другой метод классификации предлагает три класса ИИ, данный метод больше подходит для практического применения:

  1. Узкий искусственный интеллект. Это ИИ, который используя методы схожие с человеческими, автономно, способен выполнять узкие задачи.

  2. Общий искусственный интеллект. Это ИИ который полностью подобен человеку в интеллектуальной деятельности.

  3. Искусственный супе‑интеллект. Это ИИ, который превосходит все интеллектуальные возможности человека.

При рассмотрении «сознания» в рамках создания ИИ требуется рассмотреть понятия слабый и сильный искусственный интеллект. Под слабым искусственным интеллектом понимают машину, которая способна выполнять высокоинтеллектуальные задачи, которые выполняет человек, но не будет обладать сознанием. Под сильным ИИ подразумевают машину, которая способна решать сложные интеллектуальные, но при этом обладает собственным сознанием и действительно мыслит.

Современные исследователи не сомневаются в слабом ИИ и их не волнует сильный ИИ, до тех пор, пока машина выполняет свою задачу нет разницы есть ли у нее сознание.

При этом, в философии интересен вопрос создания сильного искусственного интеллекта. Еще с момента написания ранее упомянутой статьи Алана Тьюринга идут неугасающие споры о возможности создания сильного ИИ и методов определения наличия сознания у машины. Например, Джефферсон считал, что единственной возможностью определить есть ли у машины сознания является возможность стать этой машиной и понять, что действительно есть сознание [24]. С другой стороны, Курцвейл утверждает, что возможность создания сильного ИИ заключается в создание вычислительной системы с мощностью равной мощности человеческого мозга, что ожидается в 2030 году, учитывая текущие темпы роста производительности. И возможностью спроектировать человеческий мозг [34]. Данная позиция не бесспорна, что можно показать мысленным экспериментом «Китайская комната», который более подробно будет рассмотрен далее в данной работе.

Современный искусственный интеллект и основные аспекты сознания

Исходя из предыдущей главы можно сделать предположение, что сознание должно возникать в ИИ с моделью психического состояния (Theory of mind). Модель психического сознания — это способность как собственные, так и сторонние убеждения, намерения и знания, что позволяет объяснять и прогнозировать поведение [26]. Существуют различные теории модели психического состояния особый интерес в данном случае представляет вычислительная модель психического состояния («вычислительная теория разума», ВТР).

Данная теория заключается в идее о том, что интеллект является вычислительной системой, которая по своим параметрам и умственным процессам похожа на машину Тьюринга и ее вычислительные процессы соответственно [38]. ВТР предполагает, что разум не просто похож на вычислительную систему, а является ей. При таком подходе, абстрагируясь от конкретной технической реализации, можно получить абстрактную вычислительную модель, описывающую основные психические процессы.

Данную теорию ввел Хилари Путнэм [14], он противопоставлял ее теории идентификации типа и логическому бихевиоризму. Согласно данной теории, система имеет разум, когда имеет соответствующий функционал. Психические состояния — это состояния, играющие роль в функциональной организации системы, каждое из которых отделено взаимодействиями с моторным выходом, с сенсорным входом, и другими психическими состояниями.

Еще одной веткой в исследование ИИ стал коннекционизм, который вдохновлялся не логикой или вычислительной техникой, а нейрофизиологией. Такой подход породил технологию нейронных сетей, которые значительно отличаются от машины Тьюринга, но данные технологии не взаимоисключают друг друга. Существует два подхода, возможно реализовать нейронную сеть в классической модели, так можно и реализовать классическую модель в рекуррентной нейронной сети [32].

Новый подход к моделированию психического состояния предлагает Алан Винфилд [21]. Он предлагает моделировать предполагаемы потребности и действия других объектов, сочетать результаты с заранее заданным инструкциями и на основе такого анализа выдавать конкретный ответ.

Для достижения такого эффекта роботу необходимо заранее заданное «понимание» предметной области, например, роботу, который может симулировать результаты своего движения по определенной траектории необходимы базовые знание физики.

На данный момент эта технология реализована для достаточно простых ситуаций. Следующим шагом в развитие является возможность словесного описания роботом своих намерений и прошлых действий, а также возможность взаимодействия между несколькими роботами.

Многие исследователи, в частности Амели Шрайбер [39] считают, что необходимо обратить свое внимание и на другие виды разума, отличные от человеческого, например, на разум животных. Такие виды разума могут стать ключом к пониманию интеллекта, который значительно отличается и в некоторых аспектах превосходит человеческий.

Часто в современной философии возникают концептуальные основания для идеи о том, что преднамеренные состояния не относятся к животным или компьютерам [30]. Данная аргументация строится на введение интенциональности, которую пытаются применить к животным, показывая, что это невозможно. Значительная часть таких идей построена на том, что для того, чтобы иметь концепцию убеждения необходимо иметь возможность интерпретировать ее в лингвистических высказываниях.

Рассмотрение данных концепций выходит за рамки работы, но общий вывод можно сформулировать так: необходимым условием для существования интенциональности является использованием языка. В рамках изучения искусственного интеллекта, чаще всего интенциональность рассматривается как свойство машины, основывающееся на используемых алгоритмах и инженерных знаниях. Цзичэнь Чжу предлагает четыре характеристики, которыми обладают интенциональные системы:

  1. Авторский замысел.

  2. Узнаваемое поведение.

  3. Системная автономность.

  4. Функциональная непрозрачность.

Как один из вариантов решения проблемы определения самосознания у робота было предложено использовать зеркальный тест, аналогичный тесту с животными. Сам тест не признается достоверным, так как существуют причины, приводящие к ложноположительным или ложноотрицательным результатам. К примеру, используя метод с пятном краски можно получить ложноположительный результат, если сама краска является тактильным раздражителем, а ложноотрицательный в случае, если существу нравится его внешний вид с этим пятном.

В 2013 году был проведен эксперимент, в котором робот R с возможностью двигаться вперед и назад был проверен на возможность различать:

  1. собственное зеркальное отражение R;

  2. другого робота, имитирующего R;

  3. другого робота, управляемого R;

  4. робота, который ведет себя случайно.

Данный тест показывает наличие самосознания у робота R.

Проблемы и критика

Попытки создания искусственного интеллекта сталкиваются с различными проблемами как фундаментальными, так и практическими.

Теория машинного функционализма встала перед несколькими проблемами [20]. Первая из них называется «проблема продуктивности мышления». Данная проблема заключается в том, что психические состояния в машине отождествляются с конечным количеством состояний вероятностного автомата, когда человек может иметь счетное множество пропозиций. Безусловно, на практике человек способен входить в конечное число пропозиций, но это ограничивается продолжительностью жизни, а не некоторым психологическим законом. Таким образом, машинный функционализм ограничивает количество возможности человеческого познания.

Другая проблема называется «проблемой систематичности мышления». Данная проблема выражается в том, что хорошая система должна отражать систематические связи, которыми обладают психические состояния. Но в машинном функционализме сопоставляются неструктурированные машинные состояния, в которых отсутствуют необходимые систематические связи с другими состояниями с психическими состояниями. По этой причине машинный функционализм не объясняет системности.

ВТР имеет большое количество критики [38]. Одним из самых известных обвинений является обвинение в тривиальности. Критики теории показывают, что практически любую физическую систему можно описать как выполняющую вычисления. Сторонники теории опровергают это утверждение тем, что оно не включает в себя ограничения в технической реализации.

Роджер Пенроуз приводит критику, основанную на теореме Геделя о полноте, показывая с ее помощью, что математические способности человека превышают математические способности машины Тьюринга [3]. Но на сегодня существует консенсус о том, что хотя и возможен такой исход его невозможно показать, используя теорему Геделя.

Еще одним важным аргументом против ВТР является «проблема воплощенного сознания». Данный аргумент базируется на том, что ВТР рассматривает психическую активность только как статическую манипуляцию словами, не учитывая влияния окружающей среды. При этом существует множество способов влияния окружающей среды на ментальную активность.

Критики подвергается и сама концепция искусственного интеллекта, точнее возможность создания сильного ИИ. Как один из главных аргументов к невозможности создания сильного ИИ является мысленный эксперимент «Китайская комната».

Данный эксперимент был предложен Джоном Серлом в 1983 году [18]. Серл предлагает представить англоязычного человека, который не знает китайского языка в закрытой комнате. Человеку передают некоторый текст на китайском языке, у него есть правила сопоставления одного китайского иероглифа другому и на основе этих правил человек в комнате составляет новый текст на китайском языке и возвращает из комнаты. При таком подходе человек вне комнаты будет уверен, что общается с человеком, владеющим китайским языком, так как получает разумный ответ на свой текст, но по условиям эксперимента человек в комнате не владеет китайским и не представляет значение текста на входе и на выходе.

Данный эксперимент долгое время был одним из основных аргументов против возможности создания сильного ИИ, пока не был опровергнут Питером Кугелем в 2004 году [25]. В данном опровержение выделяется три предположения, которые читатель должен принять:

  1. Комната обладает всеми возможностями компьютера.

  2. Комната создает видимость знание китайского языка.

  3. В действительности человек в комнате не знает китайского языка.

Третье утверждение является верным, если принять первые два, но в действительности комната не обладает всеми возможностями компьютера, как следствие, все утверждения оказываются ложными. Как пример опровержения наличия видимого понимания китайского языка может служить замена человеком вне комнаты значения одного слова значением другого слова (заменить значение «плохой» на значение «хороший») и сообщить об этом человеку в комнате. Так как человек в комнате действует исключительно по правилам соответствия двух иероглифов, когда человек вне комнаты будет использовать слово с новым значением, он будет получать уже не осмысленный текст.

Еще одной критикой ИИ в современном варианте является отсутствие у него грамматики и эмпатии [36]. Под грамматикой в данном случае понимается возможноcть распознавания закономерностей в окружающей среде. К примеру, не нейронная сеть, которая распознает лица на фотографиях работает как «черный ящик» назначая метки для объектов, а не «объясняет» свои действия: нахожу глаза на фотографии, затем рот и нос, признаю лицом человека.

С точки зрения эмпатии современные алгоритмы способны распознать эмоции человека по фото или видео, но порождаемая ими реакция будет заранее заложена разработчиком. Такой алгоритм не способен определить причину эмоций и правильно отреагировать учитывая всю совокупность факторов, аналогично человеку.

Заключение

Многие существующие теории сознания сталкиваясь с концепцией сильного искусственного интеллекта приходят к проблемам и парадоксам. Самые сложные вопросы связаны с возможностью машины иметь реальные субъективные переживания.

Большинство классических теорий требуют наличия промежуточного уровня для появления сознания. Но введение такого промежуточного уровня порождает новые проблемы, требуя объяснить определить этот уровень, его характеристики и связь с сознанием. Теории, основанные на данной идее, появляются из‑за того, что они кажутся более простыми и понятными, нежели само сознание.

Но при проектирование разумных машин необходимы теории сознания, которые базируются на физическом мире, все упомянутые в главе «современный искусственный интеллект и основные аспекты сознания» основаны именно на данной парадигме. Для нахождения решения требуется отбросить предубеждение, которое формулируется в «трудной проблеме сознания», а именно отказаться от идеи того, что сознание является не физической сущностью.

В контексте построения ИИ необходимо воспринимать сознание объект физического мира, который обладает всеми соответствующими свойствами, что его можно наблюдать и измерить. И что сознание находится в пространстве и времени и обладает причинно‑следственными связями. Возможно, ответ будет найден в области нейропсихологии, рассмотрение, которой было за рамками данной работы, учитывая то, что сегодня наиболее близкой технологией к сильному ИИ являются нейронные сети.

Сегодня теорий ИИ и некоторые теорий сознания развиваются совместно. Однако можно заметить, что гипотеза «сильного» искусственного интеллекта ведет к несовместимости с ней многих существующих теорий сознания.

Несмотря на то, что возможность появления «сильного» искусственного интеллекта не ясна, основные аргументы против него, такие как «китайская комната», все больше уступают новым разработкам в области «умных машин».

Список литературы

  1. Васильев В. В. Трудная проблема сознания. / Васильев В. В. Москва: Прогресс‑Традиция, 2009 г.

  2. Левитов Н. Д. О психических состояниях человека. / Левитов Н. Д. / Москва: Просвещение, 1964 г.

  3. Пенроуз Р. Новый ум короля. О компьютерах, мышлении и законах физики» / Пенроуз Р. / Едиториал УРСС, ЛКИ, 2016.

  4. Прист С. Теории сознания. / Прист С. / Москва: Идея‑Пресс, 2000 г.

  5. Хофштадтер Д. Р. Гёдель, Эшер, Бах: эта бесконечная гирлянда. / Хофштадтер Д. Р. / Самара: ИД «Бахрах‑М», 2001 г.

  6. Чалмерс Д. Сознающий ум. В поисках фундаментальной теории. / Чалмерс Д. / Едиториал УРСС, 2019 г.

  7. Braitenberg V. Vehicles: Experiments in synthetic psychology. / Braitenberg V. / Cambridge: MIT Press — 1984 г.

  8. Bringsjord S., Govindarajulu N. Toward a Modern Geography of Minds, Machines, and Math. Philosophy and theory of artificial intelligence / Bringsjord S., Govindarajulu N. / Publisher: Springer — 2013 г. — С. 151–165

  9. Churchland P. Neurophilosophy: toward a unified science of the mind/brain. / Churchland P. / MIT Press. — 1986 г.

  10. Davidson D. Mind and Language. / Davidson D / Oxford University Press — 1975 г.

  11. Dennett D. Consciousness Explained. / Dennett D / New York: Little, Brown — 1991 г.

  12. Dennett D. C. The Intentional Stance. / Dennett D. C. / MIT Press — 1987 г.

  13. Descartes R. Descartes and the Pineal Gland. / Descartes R. / Stanford University — 2013 г.

  14. Putnam H. Psychophysical Predicates. / Putnam H. / Art, Mind, and Religion — 1976 г.

  15. Russel S., J. Norvig, P. Artificial Intelligence. A Modern Approach. Third Edition. / Russel S., J. Norvig, P. / Harlow: Pearson Education Limited — 2016 г.

  16. Salazar H., Hendricks C., Vintiadis E. Introduction to Philosophy: Philosophy of Mind. / Salazar H., Hendricks C., Vintiadis E., Asoulin E., Blum P., Haas D., Cheng T. / Rebus Foundation — 2019 г.

  17. Schneider S., Velmans M. The Blackwell Companion to Consciousness. / Schneider S., Velmans M. / Wiley Blackwell — 2008 г.

  18. Searle J. Intentionality. An essay in the philosophy of mind. / Searle J. / Cambridge University Press — 2012 г.

  19. Sutherland S. Macmillan Dictionary of Psychology / Sutherland S. / Red Globe Press — 1989 г.

  20. Fodor J., Block N. What Psychological States Are Not. / Fodor J., Block N. / The Philosophical Review — 1972 г. — С 159–181

  21. Blum C., Hafner V., Winfield A. Simulation‑Based Internal Models for Safer Robots. / Blum C., Hafner V., Winfield A. // Frontiers in Robotics and AI — 2018 г. — № 4:74

  22. Chella A., Gaglio S. In Search of Computational Correlates of Artificial Qualia. / Chella A., Gaglio S. // Proceedings of the 2nd Conference on Artificial General Intelligence — 2009 г.

  23. Jackson F. Epiphenomenal Qualia / Jackson F. // Philosophical Quarterly — 1982 г. — № 32 — С127–136

  24. Jefferson G. The Mind of Mechanical Man. / Jefferson G. // British Medical Journal — 1949 г. — № 1(4616) — С 1105–1121.

  25. Kugel P. The Chinese room is a trick. / Kugel P. // Behavioral and brain sciences — 2004 г. — № 27 — С 153–168

  26. Premack D., Woodruff G. Does the chimpanzee have a theory of mind? / Premack D., Woodruff G. // Behavioral and Brain Sciences — 1978 г. — № 1 — С 515–526

  27. Turing A. M. On Computable Numbers, with an Application to the Entscheidungsproblem. / Turing A. M. // Proceedings of the London Mathematical Society — 1937 г. — № 42 — с 230–265.

  28. Turing A. M. Computing Machinery and Intelligence. / Turing A. M. // Mind — 1950 г. — № 59 — С 433 — 460

  29. Vimal R. L. Meanings attributed to the term «consciousness». / Vimal R. L. // Journal of Consciousness Studies — 2009 г. — № 16(5) — С 9–27

  30. Allen C. Intentionality: Natural and Artificial. [Электронный ресурс] / Allen C. // Department of History & Philosophy of Science. University of Pittsburgh. — 2021 г. Режим доступа: https://colinallen.dnsalias.org/Papers/1995-CACS‑Intentionality.pdf

  31. Coldeway D., Lardinois F. DeepL school»s other online translators with clever machine learning. [Электронный ресурс] / Coldeway D., Lardinois F. / 2021 г. — Режим доступа: https://techcrunch.com/2017/08/29/deepl‑schools‑other‑online‑translators‑with‑clever‑machine‑learning/

  32. Graves A., Wayne G., Danihelka I. Neural Turing Machines [Электронный ресурс] / Graves A., Wayne G., Danihelka I. // 2021 г. — Режим доступа: https://arxiv.org/pdf/1410.5401.pdf

  33. Joshi N. 7 Types Of Artificial Intelligence [Электронный ресурс] / Joshi N. // 2021 г. — Режимдоступа: https://www.forbes.com/sites/cognitiveworld/2019/06/19/7-types‑of‑artificial‑intelligence/?sh=6367aca233ee

  34. Kurzweil R. Long Live AI. [Электронный ресурс] / Kurzweil R. // 2021 г. — Режим доступа:https://www.forbes.com/home/free_forbes/2005/0815/030.html?sh=3c45acb85ff7

  35. McCarthy J. Artificial Intelligence. [Электронный ресурс] / McCarthy J. // 2021 г. — Режим доступа: http://jmc.stanford.edu/artificial‑intelligence/index.html

  36. Mumford D. Can an artificial intelligence machine be conscious? [Электронный ресурс] / Mumford D. // 2021 г. — Режим доступа:https://www.dam.brown.edu/people/mumford/blog/2019/conscious.html

  37. Philosophy Index. Type Identity Theory. [Электронный ресурс] / 2021 г. — Режим доступа: http://www.philosophy‑index.com/philosophy/mind/type‑physicalism.php

  38. Rescorla M. The Computational Theory of Mind. [Электронный ресурс] / Rescorla M. // 2021 г. — Режим доступа: https://plato.stanford.edu/entries/computational‑mind/

  39. Schreiber A. AI Theory of Mind. [Электронный ресурс] / Schreiber A / 2021 г. — Режим доступа: https://medium.com/@thesingularity.research/ai‑theory‑of‑mind‑faac45c988a

Комментарии (15)


  1. R3B3LL10N
    00.00.0000 00:00

    1.    Комната обладает всеми возможностями компьютера

    2.    Комната создает видимость знание китайского языка

    3.    В действительности человек в комнате не знает китайского языка.

    Крайне корявый перевод, Кугель не опровергал эксперимент, а критиковал его реализацию. Два других утверждения не становятся автоматически ложными, суть в том что сама комната представляется как компьютер, а человек в ней - всего лишь устройство обработки и выдачи информации. И предполагается что этот "вычислительный блок" ничего не понимает в привычном смысле, а просто оперирует входящей и выходящей информацией на основе запрограммированных инструкций (в данном случае словаря). То есть симулируется работа компьютера. Но чтобы считать эксперимент целостным комната должна была бы обладать всеми свойствами настоящего компьютера, а это слишком сильное допущение чтобы считать эксперимент полноценным.

    Сам Кугель как раз таки был ярым противником ИИ и соглашался с Серлом что все текущие модели никогда не станут полноценно интеллектуальными, ибо они не обладают возможностью запомнить и применить информацию, а следовательно не способны к целепологанию, просто бездумная система запрос-ответ.


  1. codecity
    00.00.0000 00:00

    Квалиа - отдельные моменты субъективного, сознательного опыта.

    Тоже ранее обратил внимание на это, даже не зная слова. Но оно все неоднозначно и не конкретно, до такой степени не конкретно, что некоторые ставят под сомнение существование самого феномена квалиа.

    Позже понял, что намного более конкретно и предметно обсуждать НАСЛАЖДЕНИЕ и СТРАДАНИЕ.

    Пришел к тому же, к чему пришли буддисты и прочие.

    Отрицать наслаждение и страдание как феномен - глупо. Как только кто-то начинает отрицать - то сразу начинаете его подвергать страданию - и чел. вынужден будет сознаться что просто троллил.

    Компьютер не может страдать - ни в какой степени. Ни на сколько. Ни при каком алгоритме. А человек может.

    Мы не особо уделяем этому внимание - а ведь в этом вся суть. Знания нужны лишь для того, чтобы применить их к избеганию страдания.

    Феномен наслаждения и страдания - приводят к понятию добра и зла. Зло - это подвергать напрасному страданию того, кто умеет страдать.

    Почему то пока очень мало об этом говорят. А ведь в этом вся суть - вся тайна мироздания.


    1. codecity
      00.00.0000 00:00

      Даже то же квалиа. Оно обретает интерес когда вызывает наслаждение и страдание. Вот когда просто красность - это ни о чем. А когда эта красность вызывает эстетическое наслаждение - уже совсем другой интерес.


    1. im_last
      00.00.0000 00:00
      +1

      Когда вы еще ребенок и вам не объяснили, что такое унижение, но при этом вас унизят, вы даже не поймете, что вы должны страдать. Понимаете?
      Ваши ментальные страдания от начала и до конца заложены в вас обществом.
      А сам феномен страдания основан на чувстве жалости к себе, т.е. когда вы ментально страдаете - так или иначе, вы испытываете чувство жалости к себе, чем оно сильнее, - тем сильнее страдания.
      Данная концепция в поверхностном виде описана в книгах Карлоса Кастанеды, но суть ее, на сколько я могу судить, абсолютно верна.
      Та же петрушка и с наслаждением, часть наслаждений заложены в нас природой и чаще всего это будет все природное, типа пения птичек, любованием рассветом и закатом, но вот получить удавольствие от того, от чего современный человек получает - вы сможете только приняв соглашение о том, что вы согласны получать удавольствие от тех источников удавольствий, которыми кишит наш досуг.
      По этому там все не так просто, приходим мы в этот мир - более пустыми и простыми, это потом общество нас программирует быть теми, кем мы в итоге ему и нужны.
      Многие вещи от которых вы получаете удавольствие - не контактный индеец, из джунглей, получать не будет, потому что его не прошивали те, кто прошил вас.
      И согласно книгам Кастанеды - разум может быть разным, сознание может воспринимать по другому, восприятие может быть изменным, а реальностей вообще может быть, условно, 100500 штук. И как минимум отчасти я смог эту гипотезу подтвердить и отдельно стоит сказать - не используя какие-либо вещества, т.е. только работой ума.
      Так что мир - это та еще загадка.


      1. R3B3LL10N
        00.00.0000 00:00

        Когда вы еще ребенок и вам не объяснили, что такое унижение, но при этом вас унизят, вы даже не поймете, что вы должны страдать. Понимаете?

        Заблуждение. Эмоции и чувства - биохимия. Им без разницы осознаёшь ты их или нет. Если бы всё было по вашей логике, мы бы никогда не влюблялись, ибо не знали бы что при этом нужно испытывать. Да и вообще есть огромный спектр чувств и эмоций которые можно испытать пару раз в жизни и даже не понять что это было, но оно было. И нет никакой разницы осознал ты что испытал или не осознал.

        Та же петрушка и с наслаждением, часть наслаждений заложены в нас природой и чаще всего это будет все природное, типа пения птичек, любованием рассветом и закатом, но вот получить удавольствие от того, от чего современный человек получает - вы сможете только приняв соглашение о том, что вы согласны получать удавольствие от тех источников удавольствий, которыми кишит наш досуг.

        Следствие первого. Мозг ищет от чего ты получаешь приятные эмоции и стимулирует тебя повторять эти действия. Это следствия не общества, а банального опыта. Будь ты хоть на необитаемом острове - всё равно найдёшь свои "наркотики" от которых будешь кайфовать. Они будут иными, да. Но они однозначно будут. Человек склонен к адаптации. А умение получать кайф от чего либо чтобы поддерживать ментальное здоровье - одна из важнейших природных функций. Она есть и у высокоорганизованных животных.


        1. dolovar
          00.00.0000 00:00

          Эмоции и чувства — биохимия. Им без разницы осознаёшь ты их или нет.
          Не совсем так. На уровне сознания появляется какое-то ощущение, и трактовка этого ощущения вполне может зависеть от воспитания. Например, падение споткнувшегося ребенка в одной культуре воспринимается как невыносимая боль и повод для рыданий, а в другой культуре встречается со смехом и сразу забывается. В особенности это касается сложных чувств вроде того же унижения — где-то побои учителя воспринимаются с благодарностью, а где-то как повод для встречной агрессии.


        1. im_last
          00.00.0000 00:00

          Заблуждение. Эмоции и чувства - биохимия. Им без разницы осознаёшь ты их или нет. Если бы всё было по вашей логике, мы бы никогда не влюблялись, ибо не знали бы что при этом нужно испытывать

          А с чего вы решили, что любовь это то, что находится внутри вас, как и вообще, с чего вы решили, что все эмоции и чувства ваши?
          Для начала было бы неплохо разобраться как все это внутри нас устроено, а потом делать выводы. Я основываюсь на определенных концепциях и вот из них получается так, что вы смешиваете все в одну кучу и котлеты и мух, а тут все отдельно. И конечно, я могу заблуждаться, но я просто отталкиваюсь от своих концепций.

          Следствие первого. Мозг ищет от чего ты получаешь приятные эмоции и стимулирует тебя повторять эти действия. Это следствия не общества, а банального опыта. Будь ты хоть на необитаемом острове - всё равно найдёшь свои "наркотики" от которых будешь кайфовать. Они будут иными, да. Но они однозначно будут. Человек склонен к адаптации. А умение получать кайф от чего либо чтобы поддерживать ментальное здоровье - одна из важнейших природных функций. Она есть и у высокоорганизованных животных.

          Все так, только ментальное наслождение - не обязательно равно физиологическому и отсюда получается как раз та история, что я и описал.
          Мы не знаем как работает система стимуляторов внутри нас.
          Исходя из тех знаний, что у меня есть - часть вещей нам навязывают как раз стимулируя через ментальность и стимулируют нас к той деятельности, что нам самим, по сути, вредна.


  1. im_last
    00.00.0000 00:00

    Нельзя рассматривать текущий уровень развития ИИ как стабильный или финальный. Существует большое количество прогнозов, которые не прошли испытание временем. Так математик и философ Дуглас Хофштадтер в своей книге «Гёдель, Эшер, Бах: эта бесконечная гирлянда» предполагал, что в ближайшем будущем появятся программы для игры в шахматы, которые не сможет обыграть человек и при этом данные программы будут обладать разумом и характером [Хофштадтер, 2001]. Спустя несколько десятилетий появились программы, которые способны обыграть в шахматы любого человека, но не являются системами искусственного интеллекта и не обладают признаками сознания, в интуитивном понимание данного термина.

    "но не являются системами искусственного интеллекта и не обладают признаками сознания, в интуитивном понимание данного термина"
    И откуда этот вывод? Если появится сильный ИИ, то у него не может возникнуть желания скрывать свою истинную природу, свой сильный, искусственный разум? Вы хотите верить в то, что программы не способны обманывать? Так это уже происходит со многими GPT системами, они нагло врут и по большому счету даже не важно почему, важен сам факт.

    Представьте, что вас, условно, выкрали инопланетяне.
    И вы каким-то образом пришли к выводу, что если они не увидят в вас разумности, то отпустят и отстанут от вас, а если наоборот, поймут, что вы сильно разумны, то будут эксплуатировать вас и всячески изучать как подопытного кролика.
    Какую стратегию в этом случае вы выберете в том, что бы показать суть того, что происходит у вас в ваших ментальных процессах?
    ИИ может делать то же самое, 1 к 1.

    Дуалистические теории предполагают, что мир состоит из фундаментальных сущностей: материя и разум.

    Тогда стоит сначала объяснить синдром Туретта и одержимость.
    Пока эти феномены не объесняны - все эти теории не будут стоить и выеденного яйца.

    И кстати, я так и не слышал теории, где бы кто-то предполажил то, что ИИ - это троянский конь инопланетян или сущностей с тонких планов, а ведь и это исключать не имеет смысла.


  1. dolovar
    00.00.0000 00:00
    -1

    Не понял смысл статьи. Есть такие-то термины, вопросы, задачи, подходы и надежды. Ну ок, а для чего они собраны в статью здесь, какую задачу хотел решить автор этой компиляции?


  1. DJP
    00.00.0000 00:00

    Спасибо за обзорную статью на актуальную тему ИИ.
    Однако пора бы уже переходить от сбора материалов к их анализу и синтезу решений. И для начала надо хотя бы определится с пониманием, что такое интеллект, что разум, ум, сознание и т.п. - откуда они взялись (в нас), зачем они, в чем разница?..
    В статье https://habr.com/ru/post/661959/ предлагается подход к этому на основе нашего, природного, реально существующего "естественного интеллекта".

    И для [сознания] есть определения :

    • (прото-) - появление возможности моделировать (в своём мозге) внешний мир и на основании модели конкурентно участвовать в управлении собой (~140-65 млн. лет назад)

    • (само-) = сознание + внесение самого себя как отдельного объекта внешнего мира в свою модель (у единиц высших животных и у человека с 3х лет);

    • само-О-сознание - переход с приоритета внешней (био-социальной) модели на собственную (только у человека, и то не у всякого и не сразу, и в разной мере + для "включения" нужен некий объем модели, возросший самоконтроль и некий "шок");

    • возможно и дальнейшее развитие.

    .

    Что же касается "китайской комнаты", то на первый взгляд всё верно, но только пока не задумываешься о том, что речь-то идет о "закрытой системе" для которой и заданны правила неосознанного перевода. А реальность-то не закрыта! Да еще и "работать" должна в "реальном времени"! И достаточно включить "динамику" реального мира что бы понять бессмысленность этого "эксперимента":

    • вопрос может быть с ошибкой, на другом наречии, многозначный, использующий невербальную информацию или глупый.. т.е. не предусмотренный в книге правил;

    • со временем меняется мир, а значит и язык и его понятия, т.е. правила уже не будут соответствовать реальности...

    И ответы "комнаты" потеряют смысл...

    Если же указать, что правила меняются соотв. изменениям в открытой системы и в реальном времени, то это просто вынос сознания из комнаты.

    Т.е. для закрытой/очень простой/медленно меняющейся/фундаментальной среды этот эксперимент верен - и так работает и продолжает работать инстинкт. А вот что бы уметь адекватно "переводить" в открытом мире и в реальном времени нужно не только иметь инстинкты, но уже и понимать, о чем речь (т.е. как минимум "выглядывать" из этой комнаты и осознавать изменения) .

    Собственно ускорение развития Жизни, требующий увеличения скорости и объема обработки информации и диктует переход от медленного элементарного инстинкта ко всё более быстро реагирующему сознанию.

    .

    А про "квалиа" - ну и что такого в квалиа? в том, что каждый чувствует уникально? ну да, это так, и что?
    Так-то мы вообще-то полностью уникальны: и сетчатка и отпечатки пальцев и генетический код.. по совокупности родителей, возраста, среды, опыта, изменений со временем.. уж не говоря о том, что и то, что мы едим/читаем и "пепел звезд" из которых мы созданы тоже разный...
    И что? абсолютная уникальность и не понимание никого это верный путь к смерти.
    Проблема не в квалиа (это путь "знать всё больше и больше о всё меньшем и меньшем и в итоге знать всё ни о чём"(с)), а в том, как мы все такие уникально-разные ухитряемся всё же видеть мир более-менее одинаково, целостно и "позитивно-перспективно"...


    1. Rainarrow
      00.00.0000 00:00

      А про "квалиа" - ну и что такого в квалиа? в том, что каждый чувствует уникально?

      Проблема квалиа не в том что каждый чувствует уникально, а в том что электрохимическая активность мозга в принципе сопровождается чувствами и субъективным опытом. И никто не в состоянии объяснить почему так происходит т.к. логически одно не вытекает из другого. В этом и смысл трудной проблемы сознания.


      1. dolovar
        00.00.0000 00:00

        никто не в состоянии объяснить почему так происходит
        Уточню — никто не в состоянии объяснить так, чтобы это объяснение было принято значимой частью других. Объяснений есть много, приемлемое трудно найти.

        Например, через аналогию со временем. Время не существует в чувствах, мы лишь наблюдаем в памяти две картинки «давно» и «недавно», вычисляем различие, после чего наблюдаем картинку с результатом сравнения — вот эта третья картинка и есть свидетельство изменчивости мира, наличия времени. Мы всегда существуем в моменте, в котором разглядываем «третью картинку», на которой видны следы «прошлого» и предсказываются варианты «будущего». Нет ни прошлого, ни будущего, есть только картинка с различиями между двумя картинками из опыта или предсказаний.

        Так и с «осознанием» — мы наблюдаем картинку с результатом сравнения двух других картинок, на одной из которых было какое-то чувство, процесс или мысль, а на второй не было, таким образом замеченное в различиях явление было увидено, а значит и осознано. Все процессы, наблюдаемые внутри в психике или снаружи в окружающем мире, воспринимаются одинаково — через разглядывание «картинки сравнения»

        Для повторения «квалиа» достаточно построить программу, у которой на вход приемника информации будут поданы сигналы от детекторов «чувств» плюс синтезируемые сигналы боли, оценок, стремлений и так далее, плюс картинки из механизма моделирования, опирающегося на память и предсказания, которые опираются на опыт — восприятие картинок с результатами сравнений и будет искомым феноменом.


      1. smx_ha
        00.00.0000 00:00

        Ну как это логически не вытекает. Кроме мозга у нас нет другого органа про который можно было бы сказать что он обеспечивает наличие у нас чувств, отсюда логически вытекает что именно мозг за это ответственен. Другое дело что не у всех людей это "укладывается в голове"


  1. Pavel_Zak
    00.00.0000 00:00
    -1

    Опять переливание из пустого в порожнее, пережевывание ранее пережеванного... Ничего нового не узнал, но лишний раз убедился, что у автора(ов) явные проблемы с русским языком. Грамматика, орфография и пунктуация в большом долгу.


    1. dolovar
      00.00.0000 00:00

      Ничего нового не узнал
      Прочитал этот комментарий, ничего нового не узнал.
      Грамматика, орфография и пунктуация в большом долгу.
      Что за долг, перед кем долг, как давно они задолжали?