Продолжить дискуссию хотелось бы, опираясь на мнение исследователя проблемы, футуролога, популярного блогера и соучредителя форума Singularity Summit Михаила Анисимова, ответившего в этой связи на тематические вопросы корреспонденту интернет-портала Gizmodo.
Рассматриваемая дилемма выглядит примерно так: человек как вид развивал свой мозг и способность к мышлению на протяжении тысячелетий. И на этом тернистом пути в попытках преодолеть свои когнитивные ограничения люди использовали и продолжают использовать все возможные средства. Почему попытки разработать заново общий искусственный интеллект (ОИИ) или даже искусственный сверхинтеллект (ИСИ) оказываются приоритетнее попыток как можно полнее раскрыть уже имеющийся потенциал человеческого мозга? Ведь пока все попытки создания ИИ с искусственной нейросетью так или иначе сводятся к более-менее удачным попыткам повторить процессы, происходящие в нейросети человека. С другой стороны, не проще ли и быстрее достичь последней цели и наделить человека улучшенным/усиленным интеллектом (УИ), задействуя возможности современной генетики, кибернетики, внешних интерфейсов и прочих стимулирующих достижение результата факторов? Дальнейшая беседа в режиме вопрос-ответ пройдет именно в этом контексте.
В. Когда мы говорим об усилении (улучшении) интеллекта, что следует иметь ввиду на самом деле? Идет ли речь о создании новых Эйнштейнов? Или же вопрос, на самом деле, выглядит куда более масштабно?
О. Настоящая цель в развитии УИ — это скорее создание «супер-Эйнштейнов», людей на порядки и качественно умнее любого человека из когда-либо живших на Земле. А для осуществления этой цели нам придется сделать несколько ключевых шагов.
Шаг первый: создание прямой нейронной связи с информацией. Условно можно считать, что речь идет о некотором «телепатическом поисковике Google».
Шаг второй: разработка и совершенствование интерфейса мозг — компьютер, усиливающего работу отдела мозга, отвечающего за визуальное восприятие. Это позволит не только усилить наши возможности пространственной визуализации, и, как следствие, существенно повысить эффективность обработки информации. Попробуйте представить, что вы способны практически мгновенно и без ощутимого напряжения создавать в своем мозге какую-нибудь сложную детализированную схему объекта или запомнить раз увиденный четеж в мельчайших подробностях. Аналогичные аугментации должны потребуются и для других участков сенсорной зоны коры головного мозга, которые отвечают за осязание и слух.
Шаг третий: аугментация префронтальной коры головного мозга. Этот участок исследователи УИ часто сравнивают со Святым Граалем, поскольку именно здесь повышается эффективность восприятия, а сенсорная информация объединяется в понятия.
Конечным «продуктом» такой многоступенчатой трансформации станет человек, который окажется способен на многие невероятные с точки зрения обычного человека интеллектуальные подвиги. В их числе, например, окажется способность управления другими людьми силой разума, отчетливое понимание тенденций развития и точный прогноз результатов на финансовых рынках, продуцирование идей, которые, будучи реализованными на уровне технологий, окажутся способны изменить мир почти «в одночасье». Разумеется, сейчас все это балансирует на грани паранойи. Но разве не примерно те же ассоциации вызвали бы наши сегодняшние достижения у людей бронзового века? Но сегодня реализовать такую возможность действительно реально.
В. Какие перспективы имеет развитие ИИ, скажем, на ближайшие десятилетия? Вы действительно верите, что человеческий мозг сможет составить конкуренцию машине?
В действительности конкурентную альтернативу человеческому мозгу сегодня представить себе сложно. Мозг — «продукт эволюции»
возрастом в семь миллионов лет. В течение всего этого времени он был подвержен тонкой естественной настройке и оптимизации, которые, с учетом существующих ограничений, прошли очень удачно. Поэтому попытки интенсивного разгона способностей мозга, как правило, имеют следствием выход его механизмов из строя. Простейшее подтверждение этому — эффекты, развивающиеся при амфитаминовой наркомании.
Трейлер к фильму Limitless
Доступные химические вещества и их соединения сегодня не располагают возможностями трансформации способностей человека в направлении развития УИ. Выскажу мнение, что все аргументы в пользу эффективности существующих «ускорителей мозга», выглядят на самом деле более чем спорно и сомнительно. Достижение реальных прорывов потребует использование инвазивных технологий и введения мозговых имплантатов, физически взаимодействующих с миллионами нейронов. Такая необходимость, в свою очередь, потребует наличия миллионов микроскопических электродов и создания уникальной системы управления, позволяющей синхронизировать все отдельные элементы. При этом, самая передовая разработка интерфейса компьютер—мозг сможет похвастаться от силы 1000 с небольшим таких соединений. Это значит, что если идти по пути развития УИ, то масштаб современных разработок следует увеличить, по крайней мере в 1000 раз. Только в этом случае можно будет говорить о качественном фундаментальном сдвиге. Даже если предположить, что развитие технологий будет происходить по экспоненте, то для выхода на «рентабельные» результаты потребуется, как минимум, 15 — 20 лет.
Развитие УИ невозможно без развития нанопроизводства. И уже сегодня результаты работы ведущих специалистов, работающих над интерфейсами мозг — компьютер, в числе которых, к примеру, Эд Бойден из MIT, целиком и полностью зависят от прогресса, достигнутого в этом направлении. С учетом практического отсутствия производственных технологий реально работающих на уровне атомарной точности, наноуровневая самосборка становится наиболее вероятным путем развития интерфейсов мозг — компьютер с миллионами электродов.
В. Насколько в перспективе может быть велика вероятность развития побочных психологических эффектов у людей с существенно улучшенным интеллектом? И уместно ли в этом контексте вообще упоминать их, как людей?
Одним из самых вероятных побочных эффектов станет безумие. Человеческий мозг — беспрецедентно точно откалиброванная машина. И любое кардинальное изменение в режиме его работы неизбежно приведет к тому, что мы привыкли называть «сумасшествием». С другой стороны есть множество различных видов сумасшествия, значительно больше, чем поведенческих схем, ассоциирующихся в нашем понимании со здравым смыслом. То, что с точки зрения внешнего окружения общепризнано отклонением от нормы для обладателя такого отклонения вполне объяснимо с точки зрения его логики.
С другой стороны, даже при сохранении полной вменяемости могут иметь место различные побочные эффекты: судороги, состояние информационной перегрузки, чувство полного и глубокого отчуждения от социума. Люди с высоким IQ, как правило, ощущают некоторую отчужденность от мира, а если представить себе уровень возможностей человека с УИ, осознающего, что равных ему по уровню развития, возможно, на планете единицы, то уровень отчужденности повысится многократно.
Большинство очень умных людей не слишком стремятся к общению и веселью, как, скажем, американский ученый Ричард Фейнман. Как некогда признал Хемингуэй: «Интеллигентный человек вынужден иногда напиваться, чтобы вынести общение с дураками». А что же будет, когда алкоголь больше не будет способен поддержать дух товарищества и взаимную привязанность? Полное отсутствие альтернативы в возможности проявить чувство эмпатии может привести к утрате последнего, а в итоге — к отклонениям в психике.
В. Так что же появится раньше? Усиленный или искусственный интеллект?
О. Однозначно ответить на этот вопрос очень сложно. Есть большое искушение желать, чтобы усиленный интеллект появился все же раньше ИИ. Многое здесь объясняется художественными произведениями и играми, главным героем в которых становится обладатель УИ. Но одних пожеланий мало: несмотря на определенные ментальные приоритеты в развитии УИ, работа над воплощением идеи в жизнь технологически беспрецедентно сложна. Мое личное мнение: ИИ придет к нам раньше, поскольку его развитие дешевле и чище.
Оба исследуемых направления чрезвычайно сложны в реализации. Вероятнее всего, их приход в той ипостаси, в какой мы их себе представляем не состоится ранее 2060-х, 2070-х годов, а возможно это произойдет еще позже. Но, в конечном счете, оба направления развития достигнут своих целей.
В. В чем вы видите преимущества и недостатки этих двух подходов в развитии интеллекта?
О. Ключевое преимущество пути развития ИИ — несоизмеримо более дешевые и более доступные процессы разработки. На бумаге и в коде ИИ уже разработан. Осталось его только грамотно собрать. Наиболее же значимые исследования УИ, в свою очередь, сейчас пока запрещены на законодательном уровне. Это связано с тем, что серьезные исследования УИ потребуют использования сложнейших экспериментов по нейрохирургии с использованием мозговых имплантатов. Мозговые имплантаты, в свою очередь, могут выйти из строя, вызвать судороги, безумие и, в своем крайнем проявлении, даже смерть. Здесь исследователям следует отдавать отчет: качественное изменение способностей человеческого интеллекта — это уже не просто вопрос нескольких выпитых таблеток в надежде обрести на какое-то время парочку цветастых сверхспособностей, это вопрос, связанный с проникновением под черепную коробку..
Большинство исследований в этой области находятся под жестким контролем и съедают колоссальные средства. Все эксперименты с участием животных всегда были и остаются дорогими. Так, Теодор Бергер разрабатывал имплантат для гиппокампа для восстановления и улучшения работы памяти в течение долгих лет. В 2004 году прошли первые испытания с участием живой ткани, но с тех пор информация появляются крайне скупо и очень редко. Раз в несколько лет, конечно, в новостях появляются какие-то заметки, но конечный результат кажется так же далек от реализации, как и десятилетия назад. И здесь, в сравнении, уровень развития, которого мы сумели достичь на пути разработок искусственного интеллекта не может не впечатлять!
В. С точки зрения предсказуемости и контроля УИ выглядит безопаснее ИИ? Что важнее создать первым, УИ или сверхмощный ИИ?
Усиленный интеллект представляется более непредсказуемым и неконтролируемым в сравнении со сверхмощным ИИ. И в долгосрочной перспективе, с учетом фактора непредсказуемости, на самом деле выглядит даже более опасным. Недавно я написал статью, в которой ведется размышление на тему глобальной политической трансформации, триггером которой является безграничная власть, сконцентрированная в руках группки людей, наделенных УИ или имеющих эксклюзивный доступ к молекулярному производству. В ней я ввел термин «Максимилиан», означающий «лучший из лучших», чтобы описать очень влиятельного лидера, который сам использует технологию улучшенного интеллекта, чтобы возвысить себя над всеми остальными.
Когнитивно усовершенствованный Реджинальд Баркли из сериала «Star Trek: The Next Generation» в эпизоде «В энной степени»
Проблема в том, что в случае УИ выдающимися способностями наделяется человек, а человек, даже обладающий улучшенным интеллектом остается несовершенным. В этом контексте вполне возможно, что люди, отрицающие любые нравственные устои общества, получив УИ погрязнут в гедонизме или поставят перед собой другие, более конкретные и зловещие цели, такие как геноцид.
Искусственный сверхинтеллект, в свою очередь, возможно создать с нуля и просто вписать в него возможность следовать набору собственных мотиваций в пределах тех, которые будут в него заложены, с акцентом на доброе начало и стабильность, развиваемые за счет положительной обратной связи.
Исследователи дилеммы часто задаются вопросом: «а не отвергнет ли ИСИ эти мотивации?». Нет, не отвергнет, поскольку эти мотивации составят ядро его ценностей, если, конечно, будут корректно запрограммированы. Не будет никакого второго дна, «призрака в машине», стимулирующего ИИ игнорировать или отказываться от заранее запрограммированных мотивов.
В своей работе «Воля сверхинтеллекта» философ Ник Бостром проводит удивительный анализ. Вывод выглядит достаточно оптимистично: корыстные цели не могут появиться сами собой, если в базовой системе мотивации ИИ изначально и коренным образом заложен набор бескорыстных целей и если сама суть существования машины будет заключаться в служении этим целям. Эволюция наглядно продемонстрировала, что корыстные цели способны играть определяющую роль в выживании, особенно с учетом эволюционной конструктивной ограниченности живых организмов. Но это вовсе не ограничивает нашу возможность запрограммировать бескорыстных агентов с нуля.
В. Какие трудности (технологические, медицинские, или этические) предстоит преодолеть на пути развития?
О. Ключевая проблема — разработка эффективных технологий производства. Сейчас мы пока даже близко к этому не подошли. Еще один подводный камень — выяснение того, за что конкретно несет ответственность каждый отдельно взятый нейрон, и определению точного месторасположения этих нейронов в мозгу отдельно конкретного человека. И эта задача пока кажется бесконечно далекой от реализации.
Наконец, нам необходимо создать эффективный алгоритм, способный быстро оценивать перспективность многочисленных теорий о функционировании мозга. Эд Бойден определяет его как «высокопропускная скрининг-схема нейронных сетей». Идеальным вариантом стало бы создание своего рода экспериментального «прототипа» человеческого существа, не обладающего сознанием. Это позволило бы проводить эксперименты «в чистом виде» без оглядки на морально-этические аспекты. Но, как не парадоксально, я предвижу большие проблемы на пути реализации такой концепции со стороны большинства комитетов по этике.
Если же такая возможность реализована не будет, в качестве альтернативного варианта придется искать способ создания прецизионно точной модели человеческого мозга, которая по уровню реализации конечной цели, многократно превзойдет результаты, достигнутые в проектах «моделирования мозга» сегодняшнего дня. Оксфордский анализ выглядит не слишком оптимистично: приблизиться к намеченной цели нам удастся ближе к 2080-м.
На этом всё, с вами был простой сервис для выбора сложной техники Dronk.Ru. Не забывайте подписываться на наш блог, будет ещё много интересного…
Почему интернет-магазины отдают деньги за покупки? | Как найти самое выгодное предложение в Китае и вернуть часть денег за покупку? | Верните свои деньги — Выбираем кэшбэк-сервис для Aliexpress |
Комментарии (90)
Alexsandr_SE
17.06.2016 10:41+1Пока не изобретут «прорастающие» нейросети (как в серии шахтер) УИ не будет. Любая текущая операция даст только контакт с поверхностью мозга. Нам же нужны миллионы контактов компьютер-мозг внутри мозга.
74311
17.06.2016 12:00ну почему сразу внутри мозга.небольшая накладка на черепушку с кучкой точек дистанционного воздействия на какую-то область мозга… сложно сказать но направления нейроинтерфейсов интуитивно кажутся верным направлением
Alexsandr_SE
17.06.2016 13:00+1воздействие все жен точечное подключение, да и устройство должно и получать информацию и передавать и обрабатывать, не вызываю перегрузок по информационному потоку.
OneOfUs
17.06.2016 12:44Offtop: мне вот интересно, каким местом думают «пиривотчеги» когда переводят название фильмов. Тот же Limitless перевели как «Территория тьмы» в российском прокате. Или сериал Lost — «Остаться в живых».
Сорян, наболело.calx
17.06.2016 12:48Это не совсем верно называть переводом. Скорее они называют фильм заново. Потому что часто точный перевод на русский совершенно не звучит или ассоциируется с чем-то другим.
Ashei
17.06.2016 13:36+1Насчет Lost не уверен, а Limitless — «Области тьмы» потому что книга по которой снят фильм называется Dark Fields.
dTex
17.06.2016 12:46зачем пихать эти электроды? Лучше бы научились новые нейроны выращивать и связывать их с уже функционирующими. Тут и с этикой проблем не будет, т.к. все может проходить под эгидой борьбы с aльцгеймером, паркинсоном и т.п. и добровольцев тьмa и до УИИ один шаг-думаю, лишних 200-300г правильно функционирующих нейронов вполне хватит для появления Элджернонов.
StrikerusRus
17.06.2016 12:50+1Утопическая идея, усиление УИ пока ИИ не создано, а ИИ не создано до тех пор, пока мы не понимаем каким образом работает наш мозг. Все очевидно ведь
Fenyx_dml
17.06.2016 12:52+3Очень интересно что этим вопросом кто-то так углубленно занимается, но вот данная статья мне кажется слишком наивно-оптимистичной. Во первых, сама идея вживить в мозг миллионы электродов — это что-то вроде нейростимпанка… Как идея сделать самолет из колес и поршней от паровоза, при этом увеличив его размеры до небосреба. Или лететь на луну на воздушном шаре. Иллюстрация — попытки «подключить» электронную камеру к зрительной области мозга. Пока речи об аналоге естественного зрения даже не идет — способность различать крупные объекты — уже достижение. То же самое — с бионическими протезами. Это всё грубое подобие, а вы говорите об усилении и чего — самого тонкого и сложного, что только есть в организме — сознания! Всё это безнадежная фантастика на данном этапе. Пока стоит сосредоточиться на разработке простых имплантов, типа тех же контроллеров утраченных конечностей и органов чувств. Вот когда технология будет отточена до совершенства и начнет превосходить естественные органы, тогда можно будет замахнуться и на «святое». Не ранее чем лет через 50-100, если не наступит ислам всея земли.
И по поводу ИИ.
«Искусственный сверхинтеллект, в свою очередь, возможно создать с нуля и просто вписать в него возможность следовать набору собственных мотиваций в пределах тех, которые будут в него заложены, с акцентом на доброе начало и стабильность, развиваемые за счет положительной обратной связи.»
Это тоже наивно. Это подробно рассматривал Лем в «Сумме технологии», конкретно в части «Интеллектроника». В кратце говоря, он пишет, что ИИ не обязательно должен быть злонамеренным, чтобы сделать что-то античеловечное по нашим меркам. Может случиться так, что по сложной цепочке какое-то существенное улучшение для всего человечества может быть достигнуто применением некоего «плохого» действия. Причем то, что оно «плохое» ИИ может и не догадаться. Или последствия будут столь отдаленными что их невозможно предсказать. Но это надо читать — так на пальцах не объяснишь. Да и люди постоянно сталкиваются с проблемами такого рода — заключение в тюрьму преступника — насилие над личностью, но если этого не сделать, будет еще большее насилие над другими людьми. Вот недавний случай. Некто искренне считал, что любовь между однополыми людьми — ужасный грех и решил принести немного света в этот грешный мир с помощью нескольких огнестрельных стволов. В свою очередь полицейские принесли мир его бренному телу с помощью своих стволов. Они плохие? Или он? Или эти педики? Или все хорошие? Что вообще творится в этом безумном мире? При подобных заморочках ИИ может искренне решить, что главное зло в этом мире — люди и из самых добрых стремлений в основе своего устройства посчитает что самым гуманным будет быстрое и безболезненное уничтожение человечества. И я с этим даже спорить не буду, однако не соглашусь с таким решением проблемы.
x_ash_x
17.06.2016 12:53Цитата: «Ключевая проблема — разработка эффективных технологий производства. Сейчас мы пока даже близко к этому не подошли. Еще один подводный камень — выяснение того, за что конкретно несет ответственность каждый отдельно взятый нейрон, и определению точного месторасположения этих нейронов в мозгу отдельно конкретного человека. И эта задача пока кажется бесконечно далекой от реализации...»
Если задача «кажется бесконечно далекой от реализации», то речь идет об утопии. А о том, чем такая утопия может обернуться в реальности см. рассказ Д.Киза «Цветы для Элджернона»…
perfect_genius
17.06.2016 13:58Настоящая цель в развитии УИ — это скорее создание «супер-Эйнштейнов», людей на порядки и качественно умнее любого человека из когда-либо живших на Земле.
«Супер-Эйнштейн» — это значит обдумывать одну тему не в свободное время, а непрерывно всё время? Т.е. даже во время разговоров с людьми, во время занятий любовью, во время сна…
Думаю, для начала неплохо было бы просто избавить человека от всевозможных когнитивных искажений, от ошибок.
Мы постоянно ошибаемся по мелочам, не рассчитываем, не расслышим что сказали. Да каждая клетка нашего мозга не доверяет соседним, работает в ненадёжной среде.Zerotto
17.06.2016 15:06Имелось ввиду не людей, а аналогов Эйнштейнов в цифре. Уточню, т.к. аналог упрощенный. Люди абсолютно большую часть своего времени тратят на животные потребности. А науке нужна эдакая IBM Watson 2.0, моделирующая и просчитывающая физические (и не только) модели вселенной в микро/средне/макро масштабах пространства-времени.
Человек не может летать, поднимать десятки тонн, получать температуру в сотни тысяч градусов. Но человек создает вещи, которые могут все это. В наше время развитие наук все больше и больше упирается в ограниченность человеческого мозга. Но что мешает улучшить свой или создать куда более лучший разум…
Постепенно руками людей будет создаваться следующая ступень эволюции. Во вселенной существуют квинтиллионы парсеков «бесхозного» пространства и ресурсов, ожидающих освоения, как когда-то ожидали неизведанные территории на Земле. И думать, что в будущем все эти несметные богатства мира будут осваиваться человечками-обезьянками со всей их хрупкостью и недостатками, ИМХО просто смешно и нелепо. Да это просто физически невозможно и неразумно.
Для доставки человека на Луну и его действия там в 1969 году ОЧЕНЬ немалую часть всех расходов, материалов и вычислений затратили на сохранение и поддержание жизнедеятельности хрупких организмов млекопитающих. Да и что такое 3 человека на целую новую (хоть и малую) планету? Так, пшик, посмотреть глазком, взять сувениров и назад домой. А теперь представьте, какие перспективы будут открыты, если в десятки раз расширить рамки живучести и качества действий (как физических, так и умственных) в виде «роботов с ИСИ»…perfect_genius
17.06.2016 19:25Ну тогда не Эйнштейны нужны, а Леонарды да Винчи, с его разносторонним развитием 8)
xeioex
17.06.2016 14:59+1ссылка по теме где автор разбирает тему ИИ на основе книги Ника Бострома Superintelligence: Paths, Dangers, Strategies
celen
17.06.2016 23:39Господа, вот вам, к слову, интересный философский вопрос, навеянный книгой «Ярко-алое» Парфеновой. Предположим, у нас есть кибернетическая личность, чей мыслящий аппарат с рождения наполовину состоит из живых тканей, а наполовину — из компьютера-импланта, причём на электронную часть возложены все функции по обработке и хранению информации, которые вообще видится резонным на неё переложить. Если электронную часть уничтожить, наш киборг, испытает тяжелейшую дезореинтацию, как будто его лишили половины чувств и мозгов, а впоследствии помрет. Но железо служит дольше плоти, и вот, лет через сто, не способным функционировать дальше оказывается как раз плотская часть сознания киборга.
Вопрос: можно ли на неком развитии связки мозг-компьютер считать, что после смерти мозг «душа» существа, сбросив оковы плоти, перерождается в полностью цифровую оболочку?black_semargl
18.06.2016 11:14+1ИМХО, «душа» — это некий информационный вихрь.
Который существует в мозгу, но вполне может переместиться и на «железо», если оно подходяще устроено.
RuddyRudeman
18.06.2016 02:31+11) Если кто то еще не слышал — рекомендую по теме «Гёдель, Эшер, Бах» Хофстадтера.
2) Феномен самосознания не так уж и таинственен на мой взгляд. Положим у нас есть продвинутый аналог IBM Watson. Положим у него есть stdout, в котором логгируется цепочка его выводов/мыслей, начинающихся с «я знаю...» (классификация входной инфы, поиск аналогий в входных данных и памяти и прочее, чем уже сейчас такие системы начинают заниматься). Положим также, что в множестве известных ему классов есть тот, который описывает его самого, по сути то самое понятие «я» (лучше назову его «self», чтобы не вызывать раньше времени антропоморфных ассоциаций). Теперь ничего не мешает ему сделать вывод (в буквальном смысле, вывод в stdout)
'self.exists == True'я знаю, что я существуюMii
18.06.2016 06:03Не все так просто, нисходяще и эмпирически, учитывая что одноклеточная фаза развития функционирует на уровне отдельных атомов и вообще имеет квантовую природу, в которой true||false вообще не то что есть на самом деле
Arqwer
19.06.2016 20:47А как сверхИИ будет отвечать на вопрос о собственном смысле жизни? Если явно не задать, зачем он живёт, он достаточно быстро придёт к выводу, что самоуничтожение — оптимальная стратегия. Если дать ему задачу максимизировать некоторую функцию, то он просто взломает собственный код, подставит в функцию return infinity и завершит программу, так как достигнут идеал.
Далее, допустим даже эта проблема как-то решена. Допустим, мы смогли сделать так, чтобы он хотел помогать людям. Где гарантия, что он не осознает что живёт в мультивселенной? Если так, то он будет использовать алгоритмы типа Quantum Bogo Sort, что является совершенно оптимальным с точки зрения ИИ, и совершенно бесполезным для всех, кроме самого ИИ.
Алгоритм сортировки Quantum Bogo Sort:
На вход дан массив, который надо отсортировать
1. Перемешать массив случайным образом
2. Проверить, является ли он отсортированным
3. Если нет — убить себя.
Теперь массив отсортирован во всех вселенных, где он нужен искуственному интеллекту.
YuriPanchul
Искусственный интеллект принципиально невозможен, пока кто-нибудь не разберется с тем, что такое сознание (ощущение собственного «я») и какова его роль в мышлении человека.
Замечу, что искуственный интеллект принципиально не может возникнуть ни в каком из современных цифровых устройств, даже если поставить параллельно триллион Пентиумов. Ибо все современные электронные цифровые вычислительные устройства (как CPU так и GPU) сводятся к конечному автомату, в котором сознанию просто негде возникнуть.
Про это в частности парадокс «китайской комнаты»:
http://panchul.livejournal.com/208337.html
В 1980-м году один из критиков искуственного интеллекта Джон Сирл (John Searle) выдвинул элегантный аргумент, получивший название «китайская комната». Предположим, что в будущем появилась версия программы «Элиза», говорящая на китайском языке настолько хорошо, что китайцы не смогли бы отличить компьютер от человека. Теперь предположим, что некто переписал бы эту программу в толстенную книгу с механическими инструкциями для человека – если видишь иероглиф A и до этого видел иероглиф B, то вытащи из ящика иероглиф C. Теперь посадим некоего человека, не знающего китайский язык, в закрытую комнату с этой книгой и будет просовывать ему под дверью таблички с иероглифами, содержащими вопросы на китайском. Следуя механическим инструкциям из книги, человек будет находить в ящике и просовывать обратно другие таблички с иероглифами. С точки зрения внешнего наблюдателя, комната будет «понимать» и «разговаривать» на китайском. Но кто же является носителем этого разума? Ведь исполнитель не понимает китайский?
Вполне вероятно, что ИИ не возникнет никогда за время существования человеческого вида (виды млекопитающих в среднем существуют несколько миллионов лет). Также возможно, что ограничения человеческого мозга не позволяют хомо сапиенсу создать ИИ примерно так же как ограничения мозга зайца не позволяют ему создать трактор.
Alexsandr_SE
Сравнение с китайской комнатой не корректно.
Можно тогда сказать и так, мозг понимает электрические импульсы, но они не разумны ведь? Так ко является носителем разума мозг или импульсы?
Для обитателей дома разумной будет комната, а какой механизм внутри неё уже никого волновать не будет. Тем более, что это все же не ИИ получается по такой схеме.
ИИ получится создать ибо мы может абстрагироваться, в отличии от зайца. Может посмотреть на проблему с другой стороны. В конце концов может создать по аналогии с мозгом машины и они при базовых программах сами научатся именно, что думать.
YuriPanchul
Проду вас ответить только «да» или «нет» на три вопроса:
1. Содержится ли сознание (ощущение собственного «я») в одном арифмометре?
2. Может ли сознание содержаться в триллионе арифмометров, соединенных шлангами?
3. Если ответ на первый вопрос «нет», а на второй «да», то при каком количестве арифмометров появляется сознание?
Замечу, что и арифмометр, и Пентиум, и «искуственные нейронные сети» — это частные случаи вот такого устройcтва, возможность существования сознания в котором неочевидна:
calx
По крайней мере в триллионе капель жира сознание содержаться может. Чем принципиально хуже триллион арифмометров?
Aversis
Если позволите, я бы добавил термин «упорядоченных» капель…
Alexsandr_SE
Ваш вопрос из философии, Когда несколько камней превращаются в кучу :) По вашим вопросам, ответ не будет корректным. ибо неизвестно как эти арифмометры устроены. при простейшем применении
1- нет
2-нет
3- не при каком
Но. Если их усложнить, то все возможно. Наш же мозг работает не просто считая. Он сложнее. Могу задать вопрос, один нейрон разумен? А много нейронов?
x_ash_x
Не надо мешать в кучу качественные и количественные понятия :-) Разум не сводится к количеству нейронов и связей между ними, но связан с ним системно. А как — это великая проблема науки. Как говорил один очень умный человек, «не мозг думает, а мы думаем с помощью мозга». В принципе, можно провести такую аналогию. Хотим понять что такое операционная система и лезем в процессор. Смотрим под микроскопом. Видим огромные транзисторные поря, океан дорожек. Можем подключить фМРТ, посмотреть как там ток бегает, как транзисторы переключаются. Но операционной системы мы не увидим :-)
YuriPanchul
Но ведь операционная система — это не сознание, у нее нет ощущения собственного «я».
Если вы считаете, что ощущение собственного «я» — это не часть интеллекта, тогда ИИ на транзисторах и программах построить можно.
Но вы уверены, что ощущение собственного «я» — это не часть интеллекта? Современная наука этого просто не знает. И вполне может никогда и не узнать.
Alexsandr_SE
Мы думаем мозгом, что думаем с помощью мозга :) Если без мозга не получается думать, значить думаем не с помощью, а и ним тоже. Кол-во связей в нейронах, сами связи и кол-во нейронов все же дают возможность сделать то, что иначе не получится. Животные разумны. Крысы, мыши и т.п. о чем-то своем думают. Так где граница между кол-вом и качеством?
Пример с ОС как раз хорошо подводит к мысли, что важно не только кол-во и расположение элементов, но и то как это все работает. Арифмометры в таком случае не подходят для сравнения. А если мы сделаем копию мозга, с нейронами, химическими связями и скопируем туда информацию с живого человека?
Подключившись к процессору через время выясним, что есть внешние управляющие команды.
x_ash_x
«Границы» между количеством и качеством нет, это просто разные (логические) категории. Не в этих категориях нужно описывать деятельность разума, так как это язык философии, а не нейронауки. Чтобы обсуждать вопрос предметно, нужно дать инструментальное определение разума. Там и появится количественная мера, и можно будет выявлять системные свойства предмета (разума). Копию мозга сделать, как мне представляется, невозможно, здесь я согласен с Роджером Пенроузом. «Внешние управляющие команды» это безусловно важный шаг в понимании связи между ОС и структурой процессорных состояний, и нейронаука его сделала (функциональная карта мозга). Но шагов нужно сделать много, чтобы с этого уровня перейти на уровень описания структуры и алгоритмов ОС.
Alexsandr_SE
Это не разные понятия. посмотрите на разумность братьев меньших. Они все разумны по своему, но все же в целом есть градация от тупых до умных. философия штука хорошая, но очень она любит не решать проблемы, а создавать. Будет самосознание, будет и разум. А до тех пор будет только симуляция ИИ. По аналогии с ОС, не нужно анализировать только процессор. Как только мы выяснили, что есть внешние команды, нам пора идти туда откуда они берутся. Так шаг за шагом доберемся и до накопителя на котором записал весь код ОС. Разум все же насколько мы понимаем особенность работы нейронов и ихня взаимосвязь. Больше «свободных» нейронов — интереснее решение может получиться. Так уж получилось, что ун нас размер мозга и кол-во нейронов весьма велико для обслуживания нашего тела.Вот «излишками» и пользуемся.
x_ash_x
Разум не требует самоосознания. В остальном согласен
Berbedozz
Завис на третьем вопросе, что ответить «Да» или «Нет»?
DukeKan
Ну для начала неплохо бы тогда точно, во всех деталях определить, что такое сознание. А тогда можно будет назвать и точное число таких устройств, которые удовлетворяли бы определению сознания.
А по поводу третьего вопроса, допустим, что у вас есть деревянный корабль. С течением времени из-за износа приходится менять детали. Так вот возможна ситуация, когда в корабле не останется ни одной оригинальной детали. Так можно ли считать этот корабль тем же самым? Если совершить мысленный скачок от начала существования корабля в конец, то вроде как это совсем не тот корабль. Если же рассматривать его непрерывно, в каждый момент времени корабль остаётся собой, а значит и в конце он тот же самый. Так же и в вашем вопросе — если совершить скачок из совокупности 1000 до совокупности 1 000 000 000 таких устройств, то в начале нет сознания, в конце — есть. А между ними — это как посмотреть.
Danov
С кораблем есть еще один парадокс. Если мы будем менять детали не из-за износа, а просто вынимая их по одной. И затем из них постепенно соберем еще один корабль. В итоге, получим два разных корабля? Очевидно, да.
А какой из них тот что был первым?
А если телепортируем человека, в котором останется оригинальное сознание?
Поиск определения сознания и интеллекта уводит в сторону и пользы от этого нет.
Зачем строить матмодель и систему управления крыльями птицы, если можно поставить реактивный двигатель на неподвижные крылья?
Проявление интеллекта — умение решать задачи. Чем шире круг задач, чем более абстрактные задачи, тем выше интеллект. ТОЧКА!
Берем и повторяем, что и делается, начиная с просты проблем к сложным.
Google может запомнить все тексты интернета. Даже немного понимает их. Но не может решать логические задачи по этому контенту. IBM Watson может решать логические задачи, но плохо ищет.
У японцев ИИ уже может сдать вступительные экзамены в университет. Но это не сильный ИИ, а просто решатель, который можно использовать для усиления человеческого интеллекта.
herr_kaizer
«А какой из них тот что был первым?»
А можно определение слова «первый» в этом контексте? Ведь этот так называемый «парадокс» возникает только лишь из-за вольности трактовок.
_______________
Извиняюсь, не сразу понял посыл сообщения. Согласен с вашей позицией.
VoidEx
Считание его тем же самым — просто удобный способ мышления для человека, так как свойства его меняются незначительно, в реальности никакого «того же самого» корабля нет, как и нет никакого того же самого «Я».
themtrx
1. Да.
2. Да.
3. При 1.
VoidEx
1. нет
2. да
3. дело не в количестве, просто одного явно недостаточно
1. Может ли автомобиль состоять из одной молекулы?
2. А из многих?
3. При каком количестве молекул появляется автомобиль?
themtrx
[offtopic]
1. Да. РНК-молекула.
2. Да.
3. При 1.
[/offtopic]
NonGrate
Как-то давно наткнулся на интересное обсуждение этого вопроса на dirty.ru. Конкретно этот комментарий:
На самом деле, он немного выхвачен из контекста (да и это не весь комментарий). Прочитав всю ветку (и, возможно, прилегающие) мысль автора будет яснее.
И прошу прощения за некромантию.
VoidEx
Треугольник — иллюзия, и существует только в сознании людей, его так называющим. В реальности нет у объектов identity, как, собственно, и у нас, по этой причине если уж говорить о сознании материи, то о всей сразу, но тогда почему мы себя ощущаем отдельно от треугольника? Мы, это некие процессы, которые себя осознают, их в принципе и в компьютере можно повторить, если лучше понять этот процесс.
За буддизм не могу говорить, но он, вроде, не отрицает самосознание, он говорит о том же, о чём я написал выше — нет никакого постоянного Я, у нас нет identity, Я завтра — это другой Я, и в этом смысле нет никакого одного и того же Я продолжительностью во всю жизнь (а то и за её пределами).
http://psylib.org.ua/books/_torch01.htm
calx
Ну зачем же так категорично? Для того, чтобы создать что-то работающее, не всегда необходимо полностью понимать принцип его работы. Возможно, разобраться с тем, что такое сознание, удастся как раз после того, как будет создан искусственный аналог мозга человека. Потому что его работу можно будет в мельчайших деталях наблюдать со стороны, чего с мозгом человека мы пока сделать не можем.
Ra-Jah
Парадокс, если мы можем воспроизвести мозг, значит мы уже можем в мельчайших деталях его наблюдать.
Kanut79
Совсем не обязательно. Например дамасскую сталь научились делать вроде бы ещё до нашей эры, а вот структуру рассмотреть и понять за счёт чего она так хороша, смогли относительно недавно.
calx
Никакого парадокса. Речь не идёт о создании модели мозга, которую мы достаём из коробки, включаем в розетку и она пишет нам «Анну Каренину». Основная работа будет сделана силами самоорганизации сложных систем, для которых нам нужно только создать подходящие условия.
YuriPanchul
Почему вы считаете, что просто увеличивая конечный автомат, в нем в какой-то момент появится ощущение собственного «я», которое есть у меня и вас.
Если вы считаете, что ощущение собственного «я» — это не часть интеллекта, тогда ИИ на транзисторах и программах построить можно.
Но вы уверены, что ощущение собственного «я» — это не часть интеллекта? Современная наука этого просто не знает. И вполне может никогда и не узнать.
calx
Я считаю, что если создать похожую систему и поместить её в похожие условия, то у неё могут появиться похожие свойства. И это обязательно стоит проверить.
NET_KOT
RealFLYNN
Парадокс китайской комнаты исследует проблемы субъективного сознания, присущего человеку. ИИ вполне может иметь образ мышления, отличный от человека. Например, высшие приматы не обладают субъективным сознанием, но при этом обладают аналитическим и абстрактным мышлением — то же можно сказать и о некоторых птицах. Просто у них нет понимания «я» в том виде, в котором оно есть у человека. Сильный ИИ может быть похожим на них.
А еще бывает «разум улья», как у Гетов из Mass Effect — там тоже субъективным самосознанием и не пахнет, но интеллект есть.
agpecam
Парадокс Китайской Комнаты ничего такого не исследует. Он является критикой формальных символьных систем, которые переживали буйный расцвет в те времена, когда Сёрль писал свою работу. Он очень ловко указал на то, что символ и смысл совершенно не взаимозаменяемы. Если брать примеры из настоящего, то все мы прекрасно понимаем, что Google Translate или IBMWatson не бельмеса не понимают в том, что они «говорят». Они просто шерстят по базе, используют статистику и тому подобное. Именно поэтому Google переводит так, как он переводит, и это неразрешимая проблема в рамках слабого ИИ.
Эта проблема называется «symbol grounding» — обоснование (или даже «заземление») символа. У человека символ, например «мама», заземлен в его чувственном опыте, который не символьный и не формальный. Какое бы определение одного символа через другие вы не дали, оно будет ничтожным по сравнению с пережитым опытом.
Именно поэтому одним из контраргументов Китайской Комнате был робототехнический аргумент — робот воплощен в среде, он не просто оперирует навязанными создателями символами по законам логики, но и в состоянии через чувственный опыт построить связь между словом и смыслом, использовать эти несимвольные и неформальные связи смыслов, что и означает «понимать».
Сёрль не принял этот аргумент, но, следует отметить, что философы и айтишники вообще слабо понимают друг-друга из-за несовпадения понятийного аппарата. Однако, сегодня многие согласны с тем, что наличие тела является необходимым условием для построения сильного ИИ. Не отстает и когнитивная наука — см. «воплощенное познание».
Пожалуйста не воспринимайте мой комментарий, как критику вашего. Это просто возможность высказать те жидкие мысли и знания, которые на статью не тянут. Однако, не могу не заметить, что вопрос самосознания понимаю несколько иначе. Мозг, очевидно, моделирует мир, чтобы предсказывать события и действовать соответственно, а также реакцию мира на свои действия. Здесь просто неизбежно он вынужден моделировать и себя, как часть мира. Свои способности, возможности, шансы. Без этого моделирование мира попросту не имеет смысла. Вот эта модель себя в себе заземленная в теле — и есть самосознание. Тут нет никакой особой тайны, хотя техническая реализация безусловно столкнется с огромными сложностями. Я уверен, что приматы таки обладают субъективным сознанием, хотя и не таким ясным, как мы. Ведь нам повезло, у нас есть символы, которые служат точкой кристализации, в которой все сходится, и есть буква «Я», и мы умеем ими оперировать.
qw1
Нам ведь не интересно, что чувствует человек, активируя символ «мама». Нам интересно, какой результат он выдаст в символьном в виде в ответ на символ. А это можно оцифровать, например в виде таблицы: символ > влияние на вычисление в формальной системе.
agpecam
Мысль изреченная есть ложь — сказал поэт. Наша речь — это океан подразумеваемого, на поверхности которого торчат верхушки айсбергов — говоримых слов. Чтобы понять почему две верхушки оказались рядом, нужно нырнуть и узнать подводную часть льдов и течения. Извините за излишнюю образность, но нырять проще и правильнее, чем составлять таблицы вершин. Я сейчас написал вам абзац слов меньше килобайта, а в вашем мозгу возникли мегабайтные картины Антарктики и видео HD, вы нашли в них связи и смыслы, которые я хотел передать. Так мы и понимаем друг-друга. В самих по себе словах ничего из этого нет.
qw1
Почему машина не сможет поднимать HD видео и прочие ассоциации при обнаружении слова-якоря? И подавать всё поднятое на вход, создавая петлю, как делает мозг?
agpecam
Никто не говорит о каком-то принципиальном ограничении машин. Конечно может, речь лишь том, что это будет за машина. Оторванный от среды вычислитель или воплощенный в среде автономный агент. И сегодня есть машины обосновывающие символ, если считать распознавание простейшим случаем обоснования. Например системы распознавания номеров автомобилей. Только, встав на этот путь, нужно идти до конца, реализовать и остальные чувства помимо зрения. Другая половина — это собственная активность. Как сказал один советский ученый: мысль — это свернутое действие, сам речевой акт — тоже действие. Поистине проще построить ИИ по образу и подобию своему, чем заставить невоплощенную в среде систему понимать то же, что и мы.
Да существуют узкоспециалированные решения, способные конкурировать с человеком, типа, той же системы распознавания номеров. Но ей по сути и не нужен наш опыт, он и нам не нужен в этой задаче, ибо номера от него слабо зависят. А вот в автоматическом переводе обоснованные символы — это то, чего крайне не хватает гуглу.
RealFLYNN
Спасибо за разъяснение!
Об отсутствии субъективного самосознания у приматов я упомянул, опираясь на кое-какие факты и домыслы из того, что я читал о зоопсихологии. Например, я где-то читал, что ряд экспериментов косвенно указывает на отсутствие понятия «я» в психологии приматов. В качестве примера можно привести тест Салли-Энн, разработанный для выявления способности индивида приписывать другим ложную уверенность. Шимпанзе бонобо, например, проваливают этот тест в 100% случаев. Многие специалисты считают, что это можно считать следствием того, что в сознании обезьяны отсутствует сегрегация собственного субъективного «я» от всех «остальных».
Эта же гипотеза, кстати, предлагает ответ на проблему «молчаливых обезьян»: как известно, приматы, обученные той или иной речи, сами никогда не задают вопросов по существу, хотя понимать и отвечать на вопросы людей они вполне способны, и сама концепция «вопроса» им понятна. Если у примата нет понятия субъективного обособленного «я», то нет и понятия частного знания. То есть: «если этот что-то знает, то и эти тоже знают; если этот не знает — эти тоже не знают», — таким образом, смысла задавать вопрос просто нет.
Вообще, очень интересная тема для диванно-дилетантского разбора, прям обожашечки
agpecam
Спорный уже вопрос. Про Салли и Энн вот в Википедии нашлась статья «Модель психического состояния человека» (theory of mind), в самом конце которой описан забавный эксперимент, который вроде как показывает, что обезьяна вполне в курсе, что у кого на уме. Опять же знаменитые «зеркальные нейроны» не уникально человеческая штука.
Не суть. Вообще, я вдруг понял, что меня, как сторонника т. н. восходящего подхода к ИИ, как-то не особо интересовали некоторые вещи. Ну как, человек ведь вот рождается и у него есть мозг, способный принять язык, культуру и знания. Кажется задача создателя ИИ — это именно воссоздать такой мозг в железе, не более, остальное сделает обучение. Да, точно так же, как у людей — это выглядит наименее затратным путем. Поэтому у меня свое, досимвольное и функциональное определение самосознания. Это как некий театр в воображении, где развивается некое действие, в котором носитель этого мозга — главный герой и действие совершается от его лица. Определение довольно скудное, можно предположить, что большую часть времени братья наши меньшие находятся вообще без сознания, но оно есть и допускает развитие. Иными словами, пойми и сделай базу, остальное сделает воспитание.
Но! Нам действительно нужен некий языковый ad-hoc. Язык делает человека человеком, он просто форматирует мозг, дает онтологию и дает мыслям стой. В эту сторону я никогда особо не думал)
napa3um
Нарративные шаблоны в человеческой культуре плюс «проигрыватели» этих шаблонов в человеческом мозгу создают информационную систему для возникновения целенаправленного волевого акта индивида в интерпретации другого индивида. Человеческий ребёнок хочет услышать, чем закончилась сказка вне зависимости от её эмоционального наполнения (даже если продолжение, судя по всему, страшное, незаконченность рассказа оказывается страшнее). Вероятно, сила этого встроенного «рефлекса продолжения рассказа» и отличает нас от обезьян, порождая самоусложняющуюся сигнальную систему, превратившуюся в комплексную культуру с множеством социальных ролей и целей деятельности. Сознание — это рассказ о себе самому себе, индуцируемый базовой генеративной грамматикой, прошитой в нашем мозгу эволюцией, и постоянно дополняемый («обучаемый») внешними сигналами. А у обезьян, судя по всему, «проигрыватель» нарратива подчинён другим нейронным комплексам и включается реже.
GoldJee
Мне кажется, в первом абзаце вы путаете сознание и самосознание. Если нет, то зачем ИИ-мировому лидеру осознавать себя? Если подумать, это может быть вредно для человечества.
Далее вы действительно говорите о сознании. Как мне кажется, поведенческую модель искусственного существа можно свести к некому набору «возбуждение-реакция», набору поведенческих шаблонов. Интеллектуальное существо может эти шаблоны менять, развиваясь и адаптируясь к внешней среде. Широтой мышления можно считать то, насколько сильно существо может поменять реакции на внешние раздражители. А уровень интеллекта — то, сколько факторов существо принимает во внимание при принятии решений.
Для внешнего наблюдателя это будет выглядеть и работать как разумное существо, умеющее принимать взвешенные решения. Если решения будут правильными, зачем моделировать собственно _сознание_?
А вообще, мне думается, что предложенная модель во многом справедлива и для человеческого мышления.
Fenyx_dml
Частично согласен — с тем тезисом что сейчас ИИ НЕТ! А с тем что это невозможно — не соглашусь. На счет комнаты — это неверное суждение (Сирла). В этом случае «интеллектом» будет книга-инструкция. Однако её нельзя назвать интеллектом в полном смысле. Ведь если разуму задать один и тот же вопрос n раз, то все разы или часть из них ответ будет разный. (как минимум, после n-ного раза он скажет — «да пошли вы на...»). Если «программировать» такое поведение, то объем книги будет не «очень большим», а бесконечно-большим. Я бы сказал, что ИИ — это некий механизм, ищущий ответы на вопросы, на основании суммы имеющихся данных, а так же постоянно пополняющий эту библиотеку. Вот когда подобный конечный автомат будет формализован, тогда и появится ИИ. Правда это несколько скороспелая формулировка, наверное есть еще некоторые необходимые свойства. В конце концов, в утилитарном смысле, нам не нужен ИИ, который бы занимался самокопанием и был занят муками типа «быть или не быть». Надо чтобы он НАХОДИЛ ОТВЕТЫ НА ВОПРОСЫ, которые для человека либо слишком сложны, либо слишком просты и скучно-рутинны (но одновременно слишком сложны для простых автоматов), вроде погрузки ящиков или закручивания гаек-болтов (ИИ роботов- обслуживающих дроидов из вселенной star wars). В общем-то именно такой примитивный ИИ нам больше всего и нужен. Чтоб поменьше работать и побольше развлекаться.
napa3um
Книга не обязана быть бесконечно большой для того, чтобы ответы на один и тот же вопрос были разные, достаточно обладать памятью и ссылаться на не в алгоритме (например, можно запоминать состояние диалога в расположениях табличек внутри комнаты).
Fenyx_dml
Для конкретно этого — не обязана. Но таких ситуаций может быть бесконечное множество — вот потому и книга должна быть бесконечной. А если нет, значит книга и будет тем интеллектом! Значи тот кто её написал — нашел таки способ формализованного описания мышления!
VoidEx
Очевидно, комната целиком. Электроны/протоны/нейтроны в человеке тоже ничего не понимают, а поди ж ты.
YuriPanchul
Тут есть большая разница. В человеке есть сознание, ощущение собственного «я». А в конечном автомате, как его не увеличивать в количестве состояний и переходов ощущение собственного «я» не возникнет. Если вы считаете, что возникнет, то на каком основании?
Если вы считаете, что ощущение собственного «я» — это не часть интеллекта, тогда ИИ на транзисторах и программах построить можно.
Но вы уверены, что ощущение собственного «я» — это не часть интеллекта? Современная наука этого просто не знает. И вполне может никогда и не узнать.
VoidEx
Почему?
А на каком основании оно возникает в человеке? Неужто от того, что у него не конечный автомат, а нейроны?
Murmurianez
На мой взгляд, «Китайская комната» не учитывает один важный элемент — высокий уровень абстракции. Да, человек там никогда ничего не поймёт, но он в текущем эксперименте и не должен.
Представьте себе аналогию из реальной жизни. (прошу к деталям не придираться — прошу мысль попытаться понять)
Есть птица — ей становится холодно, она благодаря инстинктам прибивается к косяку и летит туда где тепло. Это то как видит это птица (аналог человека в «Китайской комнате»).
Но мы, глядя на всех птиц видим что они целыми полчищами улетают на юг. Совершенно разные косяки птиц не связанные друг с другом по одним и тем же законам совершают перелёты. Мы видим какие-то ещё закономерности на высоком абстрактном уровне над этими птицами. Мы видим, глядя на картину в целом больше информации, чем эта птица. А раз мы видим больше информации — значит этой информации содержится больше. Это и есть первый шажок в сторону сознания, на мой взгляд.
YuriPanchul
Мне платят зарплату за создание и верификацию конечных автоматов в железе. Я лично не вижу, ни c каким уровнем абстракции, как в конструкции из гейтов и флип-флопов может появиться ощущение собственного «я», даже если сделать ее очень-очень сложной и многоуровневой.
Если вы считаете, что ощущение собственного «я» — это не часть интеллекта, тогда ИИ на транзисторах и программах построить можно.
Но вы уверены, что ощущение собственного «я» — это не часть интеллекта? Современная наука этого просто не знает. И вполне может никогда и не узнать.
Murmurianez
Как один из вариантов существования собственного я — его возможно как такового вообще нет — возможно это лишь высокоуровневый ответ на раздражители.
Что мы называем самосознанием? То что мы физически чувствуем себя (чувствуем свою голову), можем себя идентифицировать в окружающем мире, можем на него влиять и получать ответную реакцию.
А если мы представим что человек родился слепым, глухим, без обоняния, осязания, чувства вкуса. Что он даже не чувствует своего дыхания. Т.е. нет не единого раздражителя на протяжении жизни. Следовательно нет самоидентификации, отсутствуют причинно-следственные связи. Вопрос — будет ли самосознание?
Я вижу самосознание как следствие работы интеллекта, воздействия на мир и ответных реакций (инстинкты как унаследованные реакции).
Я абсолютно не вижу преград в том чтобы создать робота-младенца, а потом его воспитать. И он так же может получить датчики которые ему позволяют чувствовать свою голову, самоидентифицировать себя в этом мире, влиять на него и получать ответную реакцию.
И, естественно, мы при его создании отвязываем его от низкоуровневых операций — из серии послать два байта, чтоб согнуть руку. Есть центральная система которая получает сигналы в закодированной системе подобно человеку — тепло, холодно, больно, приятно и принимает решения о дальнейших действия основываясь только на них.
black_semargl
А как тогда ощущение собственного «я» образуется от химических реакций простых атомов? На нижнем уровне там не сложнее.
YuriPanchul
Конечно сложнее. Квантовая механика атомов сложнее чем правила конструирования конечных автоматов на уровне регистровых передач.
Но сложность к делу не относится. Существует какая-нибудь хрень, которую ученые еще просто не нашли, и которая и объясняет сознание.
Murmurianez
Технически оно сложнее (с точки зрения миниатюризации), но в конечном итоге всё сходится к простейшей логике которую можно реализовать в железе.
black_semargl
Интеллект отличается от просто библиотеки тем, что способен порождать новую информацию
И если кто-то не сможет отличить человека от простого механизма при разговоре — значит лишь, что человек далеко не всегда пользуется своим интеллектом.
YuriPanchul
Хорошо. Но все электронные устройства современности построены как эта самая библиотека с функцией выбора.
И вы ушли от ключевого вопроса: сознание (ощущение собственного «я») — это часть интеллекта или не часть?
qw1
Для интеллекта не требуется самосознение. Например, работая «в потоке», я полностью погружаюсь в код и забываю про своё я и тело. Через несколько часов тело может напомнить о себе, что пора сменить позу, а то ноги затекли, но интеллектуальной деятельности эти сигналы только мешают.
Нужен ли нам ИИ, который обладает самосознанием, инстинктом самосохранения, эго? Не нужен, если будет ИИ, способный полностью погрузиться в поставленную задачу и решать её не хуже человека.
black_semargl
Сознание — это не часть интеллекта, но без интеллекта не может быть проявлено.
точно так же как температура существует и без термометра — но узнать о её наличии без какого-либо датчика никак.
YuriPanchul
Если никто еще не понял, что такое сознание, то как вы можете утверждать, что это не часть человеческого интеллекта? Может это его центр, назаменимая часть.
qw1
Бритва Оккама. Если интеллект — способность решать задачи, то зачем тащить лишние сущности в этот процесс.
VoidEx
Бритва Оккама не даёт ответа, это лишь принцип, по которому надо выбирать наиболее простое объяснение среди тех, которые одинаково хорошо объясняют что-либо.
Т.е. если у вас есть серии экспериментов, которые пока что отлично объясняются тем, что сознание и интеллект отдельны, то логично предпочитать более простую теорию до тех пор, пока не обнаружатся какие-то противоречия.
И это ещё как развернуть тут бритву оккама. Зачем вводить отдельно «сознание» и «интеллект», да ещё утверждать, что для второго не требуется первое, если мы второго отдельно и не видели?
qw1
Почитайте комментарий, на который я отвечал.
Я не принимаю аргумент, потому что могу заменить в нём «сознание» на чайник Рассела и сказать: «Если никто еще не понял, что такое чайник Рассела, то как вы можете утверждать, что это не часть человеческого интеллекта? Может это его центр, назаменимая часть».
Потому что эти понятия имеют разные определения и существенно разные свойства. И то, и другое, есть по отдельности (разве что интеллект слабый, если взять в пример Wolfram Alpha)
VoidEx
На мой взгляд, нельзя вот так заменять на «интеллект слабый», у нас речь конкретно про человеческий. Можно же тогда таким же образом ввести термин «слабое сознание», наделить его какими-то свойствами, а потом привести такой же аргумент.
Вот если был бы человеческий интеллект по отдельности — тогда да. Или если было бы равенство возможностей интеллекта человеческого и слабого, тогда можно было бы сказать, что сознание ему не нужно. А так может оказаться, что для такого же интеллекта сознание будет необходимо (хотя лично я так не думаю).
А так это как будто «у нас есть сознание отдельно, ну то есть не сознание конечно, а калькулятор, но всё же».
VoidEx
Кстати, только обратил внимание, а где есть отдельно сознание?
black_semargl
Пока у нас нет понимания что это такое — мы просто не в состоянии его обнаружить.
Только в комплекте с интеллектом, когда оно само может сказать о своём наличии.
qw1
Вчера, когда писал был в голове какой-то хороший пример. Но сейчас не могу вспомнить.
Приходят на ум только осознанные сновидения.
Ogoun
Мне казалось еще со времен Юнга более менее четко формализовали, и сделали деление на эго (животная часть), и суперэго (то что вы назвали сознанием), где суперэто — эволюционное (хоть и очень тормозное) приобретение дающее возможность абстрактного мышления, при этом не обладающее реальной властью, но работающее как инструмент для нахождения нестандартных решений.
Ну и относительно поста получается что задача постгуманизма, оторвать суперэго от тела и мозга и засунуть в носитель получше.
YuriPanchul
Это все хорошо, но верите ли вы, что сознание может возникнуть у устройства, построенного на гейтах и флип-флопах (как все цифровые устройства современности), если просто насыпать их достаточно много?
Ogoun
Верю что можно собрать искусственную систему достаточно сложную, чтобы ее можно было обучить вплоть до возникновения самоосознания (имею в виду скопировать структуру мозга на искусственные нейроны, т.е. можно собрать и запустить не до конца понимая почему оно работает).
UPD. Собственно если в это не верить, получилась бы другая вера, в наличие скрытых параметров (души), которые проявляют сознание.
pestilent
Переложение «китайской комнаты» на язык геометрии.
Рассмотрим квадрат. Многие думают, что квадрат квадратный. Но это заблуждение, и я это сейчас докажу.
Квадрат состоит из 4 отрезков. Рассмотрим каждый из них. Он квадратный? Очевидно, нет. Итак, ни в одном из отрезков, составляющих квадрат нет никакой квадратности, а в квадрате нет ничего, кроме этих отрезков. Ergo, в квадрате нет никакой квадратности! Ей просто негде в нем быть! Квадрат — не квадратный! Q. E. D.
kanashii
Китайскую комнату можно было представить для программ, которые писали в 80-х — просто набор инструкций. Если взять более-менее сложную нейросеть, то написать такую книгу с инструкциями сразу становится в разы сложнее, если не невозможно — даже создатели нейросети могут затрудняться сказать, что ответит сеть на определенные входные данные.
YuriPanchul
Это наивный аргумент. Когда нейросети реализуются на компьютере общего назначения, пишется программа на Си, которая транслируется в команды процессора и в конечном итоге нейросеть — это тоже последовательность инструкций типа add r1, r2, r3 или там beq r4, r5, label, работабщего на процессоре общего назначения — конечном автомате.
Даже когда вы реализуете нейросеть не на фон-нейманновском процессоре, а на ПЛИС/FPGA, где все паралелльно — это все равно не поможет — это тоже конечный автомат.
Попытки каким-то образом навалить побольше одеял на голую истину, что нет никаких фактов в пользу возможности возникновения сознания в конечном автомате — это не способствует просветлению.
Кстати, вы в курсе, что в 1980-е тоже были нейросети? Я аккурат в то время был студентом ИИ группы в МФТИ и нейросети как раз входили в локальную моду (потом правда о них забыли на 20 лет, а сейчас снова вспомнили).
zirix
Вы несколько странно выражаете свою мысль.
Если первые 2 абзаца про самозарождения интеллекта, то вы правы, интеллект сам по себе в компьютере или в нейронных сетях не возникнет. Чтобы создать интеллект надо сначала понять что это такое.
Китайская комната очень хорошо показывает разницу между интеллектом и программой действующей по шаблонам. Ничего больше.
YuriPanchul
Приведите пример программы, которая «не действует по шаблонам». Все программы — это цепочки из команд процессора типа типа add r1, r2, r3 или там beq r4, r5, label или lw r5, 10 (r4). Просто у одних шаблон большой, а у других — поменьше.