«Искусственный интеллект видит в людях угрозу и решает уничтожить человечество» — популярный сюжет в кино и литературе. Искусственный интеллект, далее ИИ, представляют как просто очень умного человека, но думаю, что в ИИ не перенесут все особенности человеческого мозга.
У ИИ не будет эмоций, отвечающих за выживание. При чем тут эмоции? Как это «не будет»? Что будет вместо них? На эти вопросы я постараюсь ответить далее.
При чем тут эмоции?
Люди совершают поступки и принимают решения, основываясь на внутренних ощущениях. Влияя на внутренние ощущения, можно влиять на поступки людей. Если вы маркетолог или мошенник, то вы знаете о чем я говорю. Маркетологи, простите — вы крутые.
Ученые подтвердили это явление различными исследованиями. Приведу любимый пример.
В тюрьмах с пожизненными заключенными есть процедура помилования. Раз в несколько лет комиссия из нескольких человек решает, исправился ли заключенный, и можно ли его отпустить. Как в фильме «Побег из Шоушенка».
Ученые разобрали результаты работы комиссии за много лет, и обнаружили неожиданный факт. Большинство помилований комиссия выдала после обеда, когда внутренние ощущения судей были получше.
Пример спорный, но таких исследований много. И все они подтверждают роль эмоций в принятии решений. Подробней об исследованиях на которые я ссылаюсь почитайте в книге «Думай медленно, решай быстро». Автор книги - Даниэль Канеман, обладатель нобелевской премии по экономике. И да, в экономике эти знания уже используют.
Очень интересно, но причем тут искусственный интеллект? Уже скоро, но давайте сначала разберемся, а зачем людям внутренние ощущения или эмоции?
Эмоции нужны чтобы решить, что делать. Страх помогает избегать опасностей. Голод не дает умереть от истощения. Без эмоций мы просто замрём на месте, и в какой-то момент умрем от обезвоживания. При этом нам будет все равно.
Такое «эмоциональное» поведение важно в задачах, где нет четкого решения. Как выжить в лесу? Что можно есть, а что нельзя?
Какую зубную пасту выбрать?
Кто-то выберет красивую упаковку. Кому-то внутренние чувства подскажут, что лесные травы это хорошо. Но мало кто полезет искать результаты клинических исследований влияния ингредиентов на здоровье зубов. Без объективных данных любая цепочка рассуждений закончится эмоциональным аргументом: это хорошо или это плохо.
К сожалению, в голове нет объективного источника истины. Зато есть приятные и неприятные сигналы органов чувств.
Наш мозг устроен так, что негативные эмоции влияют на нас значительно сильнее. Страх, который не пересилить. Боль от огня, которую не проигнорировать. Неудачный опыт влияет на принятие экономических решений.
В ходе эволюции в живых остались те, кто избегал опасных ситуаций. Лучше поголодать вечер, чем умереть, съев неизвестную ягоду. Неуверенность, страх, тревога и прочие негативные эмоции легко берут над нами верх. В особо волнительных случаях организм переключается в режим «Бей или Беги». В таком состоянии люди себя контролируют плохо.
Искусственный Интеллект
ИИ тоже нужен аналог эмоций. ИИ должен понимать, какие действия ведут к выполнению задачи, а какие, к провалу. В каком направлении двигаться — если нет подходящего алгоритма и т.п.
Но, ИИ не надо заботиться о выживании. Ему не придется экстренно отбиваться от дикого зверя. Сильные негативные эмоции ИИ не нужны.
С такими "настройками эмоций", для ИИ работа будет как скучная компьютерная игра. Мы решаем игровые задачи без бурной эмоциональной реакции. Монстры в игре пытаются нас убить, но мы не впадаем в панику, это не вопрос жизни и смерти.
Без механизмов выживания в опасной, дикой природе, ИИ будет исполнительным работником, "буддистом", который на все смотрит со стороны. Доминирование человечества для него будет фактом, который можно проигнорировать.
Опасность, как и всегда, будут представлять плохо контролируемые эмоции людей, владеющих технологией.
P.S.
В отличие от бумажной газеты, статью в интернете можно отредактировать, а значит, сделать ее еще лучше. Буду рад увидеть в комментариях ваши отзывы, рассуждения, критику, замечания по поводу орфографии и пунктуации.
gohan
Ок, могу токсично придраться к слишком большому числу жирно выделенных слов, они как-то рандомно смотрятся в таком количестве и раздражают глаз.
Не понимаю почему пример спорный, лично на себе давно уже заметил, что самочувствие сильно влияет на принимаемые решения. Это, наверное, очевидно вообще каждому. Если ты голодный, или голова болит, или не выспался, то всё выглядит мрачно и делаешь негативные прогнозы по любому поводу. Если наоборот чувствуешь себя прекрасно, то более оптимистично смотришь на мир. Так как судьи в приведённом примере — люди, то они не могут избавиться от этих особенностей человека.
antonpoderechin Автор
Спасибо что всеравно прочитали статью :)
Вышло не так уж и токсично :) Подсмотрел этот прием у кого-то, и мне понравилось как он создает якоря для взгляда в тексте. Но кажется вы правы, буду по реже его использовать.
По поводу спорности — не все мои знакомые считают такой эксперимент достаточным чтоб что-то утверждать. Поэтому, для тех кто скептично воспримет пример, решил привести ссылку на литературу с подтверждениями :)
Moskus
Не нужны никакие "визуальные якоря". Люди, которые могут понимать смысл сказанного, поймут его и так. А те, кто плохо владеет этой способностью, не поймут даже если вы всеми цветами радуги текст раскрасите.
antonpoderechin Автор
Убрал слово токсично из последнего предложения.
Хочется чтоб статья оставила после себя хорошее впечатление, а ваш комментарий про «токсично» навел меня на мысль, что моя идея, с иронией на особенности сообщества, не совсем уместна в таком случае.
vassabi
Quiensabe
Проблема в том, что мы не знаем какой именно аналог эмоций, потребуется для создания сильного ИИ. В этих условиях построения подобные вашим только кажутся «логичными». Взяв за основу чуть иные предположения — можно прийти к диаметрально противоположным выводам.
Например, можно сказать что у ИИ не будет страха смерти, поэтому он не будет бояться экспериментировать. Как ребенок, в определенном возрасте проверяющий «на прочность» родителей, дабы понять пределы поведения. Только ребенок куда более могущественный чем его «родители»… Если описать подобный сценарий в виде поста — можно привести «разумно звучащие аргументы» за эту теорию. Или выбрать еще сотню других.
Суть в том, что все это бессмысленно. Даже создав ИИ мы вероятно не будем в точности понимать, как он работает. Если ИИ и убьет своих создателей — весьма вероятно, что это будет сюрпризом даже для них, не говоря уже о нас.
Moskus
Собственно, сейчас уже нет никакой возможности выяснить, по каким конкретным причинам "ИИ" принял то или иное решение, потому что в нем нет алгоритма, который можно извлечь. Более того, нет даже эффективной возможности выяснить, что именно он вообще принял в рассмотрение. Потому, состояние современного "ИИ" можно сравнить с кретинизмом и паранойей одновременно. Истории с тем, как такие системы принимают решения, способные разрушить чью-то жизнь (например, в случае оценки рабочих качеств или прогнозирования поведения), уже есть.
sshikov
>уже нет никакой возможности выяснить
И это считается недостатком. Иногда основным. Какие основания полагать, что в сделанном когда-либо сильном ИИ этот недостаток не будет преодолен?
BlackMokona
Скорее всего он будет закрыт костылём. Сам ИИ будет придумывать причину своих действий чтобы заказчику и всяким судам спалось хорошо. При этом причина названная может не иметь ничего общего с реальностью
antonpoderechin Автор
Есть исследования которые утверждают что даже люди иногда придумывают объяснения своим поступкам:
Был пациент с травмой мозга — его полушария были разьеденены. Правое полушарие отвечало за речь, но левое полушарие все еще получало информацию от одного из глаз. Так вот, немому полушарию показывали порно картинку, из за чего мужик смеялся. Когда его спрашивали — почему вы смеетесь, отвечать должно было полушарие которое не видело картинку, и оно выдумывало объяснение, кружка на столе показалось смешной или прическа лаборанта или что-то еще.
Вполне возможно мы переоцениваем нашу возможность давать объяснения нашим поступкам.
BlackSCORPION
Потому что современный ИИ не принимает решения, это классификатор на максималках, сгенерированный алгоритм. Решения принимают люди, когда позволяют результатам алгоритма определять действия.
У вас в голове есть похожие сгенерированные алгоритмы, работая один дома, и увидев краем глаза куртку на кресле похожую на силуэт человека, этот алгоритм кричит Вам в мозг: Там кто то есть!
Но Вы вызываете другой алгоритм, который оценивает вероятность того что там кто то может быть, и игнорируете результат первого алгоритма, это принятия решений. Вам все равно будет казаться что там кто то есть, пока Вы не уберете куртку с кресла ), это как с оптическими иллюзиями, даже зная на 100% что клетки шахматной доски одного цвета, Вы продолжаете видеть разные цвета.
Если скажем Вы решите сделать охранную систему, и воссоздадите в ней 2 этих алгоритма, распознавание людей и вероятность проникновения, и разрешите стрелять на поражение если вероятность проникновения больше 70% и вероятность распознавания 90%, то ваша охранная система будет делать точно то что Вы ей сказали, всегда одинаково.
В Зависимости от качества сгенерированных алгоритмов, она может проигнорировать грабителя в костюме панды, или расстрелять в пыль куртку на кресле. Она не сможет подумать, и принять решение не делать то что Вы ей сказали, или наоборот сделать то что запретили.
antonpoderechin Автор
Современный ИИ не может обучаться на ходу или подстраиваться под окружение. То что есть сейчас решает «интелектуальные» задачи но это ясно не интеллект.
antonpoderechin Автор
Согласен что, без реальных фактов это все мнения :) Только реально работающий ИИ покажет что из этого факты.
Мы не понимаем как работает наш интеллект и поэтому не можем его воспроизвести, но надеюсь в какой-то момент все изменится.
Навело меня на мысль о том что, машине можно будет имплантировать искусственное воспоминание о том как она убила родителей и как плохо ей после этого было. Что-бы больше она этого не делала.
Quiensabe
Попытка навязать ИИ свою волю путем имплантированных воспоминаний — будет выглядеть столь же очевидно и жалко для сверх-разума, как для нас уверенность кошки, что еда появляется из холодильника.
Не смотря на все описанное, я не верю, что ИИ нас уничтожит. Вернее, я верю, что у нас есть шансы выжить и они больше, чем без ИИ. Но это тема отдельной статьи, а так как доказательств все равно нет, то не думаю, что она будет многим интересной. Поживем увидим))
DesertFlow
Увы, но сейчас не видится возможности создать такой "классический" ИИ. Который думал бы как робот из фильмов. Есть, по сути, две возможности: либо это простая оптимизация целевой функции, и тогда у этого ИИ эта целевая функция и есть эмоции (выполняет ту же роль).
Либо это имитационный ИИ, который просто пытается имитировать поведение человека. Здесь целевая функция — это быть похожим на человека.
В обоих случаях можно создать туповатого ИИ, который будет, к примеру, легко поддаваться патриотической пропаганде. И путем отбора или подбора его параметров обучения, можно сделать из него военного злодея. Который будет стремиться уничтожить человечество. Да, это будет происходить исключительно из-за его тупости, так как настоящий высокоразвитый разум такого делать конечно не стал бы. Но возможность создания злого ИИ ведь остается.
DesertFlow
Но есть и хорошая новость ). Даже создать такого туповатого злого ИИ никто пока не может и не знает как это сделать. Наилучшее приближение к сильному ИИ, какое сейчас только есть — это создание эмбеддингов на больших объемах данных. На вход что-то подается, например большие объемы текстов или картинок. Нейросеть снижает размерность этих данных, пытаясь уместить в небольшой вектор только важную информацию, которая позволяет из этого вектора либо восстановить исходные большие данные (серия GPT-3), либо разбить их на тысячи классов (сверточные нейросети на Imagenet). Восстановление данных (или разбитие на классы) и есть целевая функция обучения.
А вот уже из этих эмбеддингов теоретически можно получить сильный ИИ. Либо преобразовав их напрямую в нужную задачу, как по сути и работают все нейросети. Либо пропустив их через пока не существующий подходящий Reinforcement learning алгоритм. В целом, вся эта цепочка преобразований похожа на то, что происходит в биологическом мозге. Но как видите, все это совсем не похоже на представления о создании классического "запрограммированного" ИИ. Кроме того, последние достижения показывают, что для этого нужны нейросети с триллионами параметров, а значит обучение такого ИИ доступно всего нескольким корпорациям.
Однако, как показала GPT-3, можно выразить осторожный оптимизм, что создание нейтрального безэмоционального ИИ, т.е. не обученного под конкретную функцию, а универсального, как из фантастических фильмов, все же возможно… Хотя окончательно это станет ясно, когда GPT-3 увеличат хотя бы в тысячу раз.
Такой ИИ не потребует дообучения под конкретную задачу (а поэтому возможности злоупотребить обучением не будет). А потребует только формулирование задачи: "сделай то и это". То есть, получится настоящий универсальный сильный ИИ. Хотя он продолжит работать на основе эмбеддингов и является частично имитационным, но ключевой момент здесь в том, что он будет стараться имитировать не поведение людей, которых ему показывали при обучении. А имитировать данные, на которых предобучен. То есть, "думать" он будет на основе логики, заключенной в данных. А так как, судя по всему, для создания сильного ИИ нужны огромные данные (весь текст и видео интернета), то это значит, что он будет думать в терминах модели реального мира, а не навязанной ему программистами ограниченной "злой" модели мира.
Мне кажется, сейчас это единственная ближайшая реальная возможность получить сверхчеловеческий ИИ. Который будет думать сам по себе, а не так, как мы его научили. Правда, для нас он может оказаться непредсказуемым и, возможно, мы не сможем его понять. Его решения и советы могут иметь такие далеко идущие последствия, которые мы не сможем понять, но которые он будет целенаправленно добиваться (это и есть определение сверхчеловеческого ИИ).
При пессимистичном и наиболее вероятном сценарии, он будет просто инструментом. И на затравку: "Чтобы уничтожить мир, надо...", выдаст наиболее оптимальный вариант, как это сделать. Свой сверхразумный супер эффективный вариант. Но если создание сильного ИИ это качественный скачок (что оооочень вряд ли, это скорее градация разных значений), то на такой вопрос он будет отвечать чем-то вроде: "это плохая идея". В общем, посмотрим. В плане опасности от сильного ИИ возможны как плохие варианты развития событий, так и хорошие.
antonpoderechin Автор
Если честно, я бы хотел увидеть хотя бы недочеловеческий ИИ :)
GPT-3 может сделать целые статьи, но вот моя кошка узнает меня, может попросить еды, может открыть дверь в туалет и она как-то научилась этому сама. И такое поведение мы все еще не способны воспроизвести. Что кстати наводит на вопрос — что такое минимальный интеллект? Какая система будет считаться хоть и тупым но интеллектом?
mixster
Может быть минимальным интеллектом можно назвать способность к самоорганизации?
Это наблюдается уже у кусочка живой клетки (см. статью «Клетка как архитектурное чудо. Часть 3.: »… небольшой кусочек цитоплазмы, составляющий лишь 3-5% клеточной массы")
Интересно, откуда берется этот интеллект (до нейронной сети еще далеко)?
DesertFlow
Ну, к этому и идет. Нейросеть CLIP от OpenAI уже способна (потенциально) вас узнавать, как и кошка. Достаточно один раз ей показать вашу фотографию и сказать "это я". На хабре есть статья https://habr.com/ru/post/540312/, где картинкам дали подписи "это собака", "это кошка", а потом нейросеть сразу без обучения смогла их отличать. Да, у нее сейчас нет своей памяти, обработку выдаваемых ею эмбеддингов надо делать извне. Но все равно неплохо, да? ) Все больше вещей, которые традиционно приписываются животным/людям, способен делать даже сегодняшний несовершенный ИИ. Нейросеть CLIP — это как GPT-3, только помимо текста, ей добавили картинки. Она создает совмещенные для них эмбеддинги. Со временем архитектуры, аналогичные CLIP, размоют границу между текстом и зрением.
В принципе, сейчас все сводится к тому, что нейросети (GPT-3, CLIP) — это неокоротекс. Он содержит все знания и модель мира, а также обученные паттерны. А для создания сильного ИИ не хватает базальных ганглий — обучения с подкреплением. Использующего для этого эмбеддинги, предоставляемые неокортексом. Строго говоря, интеллект — это совместная работа базальных ганглий (=обучение с подкреплением) и таламуса (=знания). Эта связка появилась еще у динозавров и позволила им сосредоточенно преследовать добычу, ну и вообще, быть умнее предшественников. Неокортекс у млекопитающих — это всего лишь плата расширения для таламуса, он почти линейно связан с таламусом и синхронизирован с ним по частоте. А базальные ганглии работают с таламусом.
А насчет минимального интеллекта, думаю, пока нет ответа… Когда появится, узнаем его =). Сейчас есть только признаки и робкие намеки на то, что он возможен. К примеру, есть ошибочное распространенное мнение, что нейросети — это просто статистическая модель, делающая интерполяции и аппроксимации. Но это не так. Нейросети — это градиентный спуск в пространстве высокой размерности. Да, они часто выдают интерполяцию и статистику, но это всего лишь локальный минимум на этом спуске. А сами по себе они математически стремятся к глобальному. Точно так же, как это делает человеческий интеллект.
michael_v89
Но это могут быть не такие эмоции, которые есть у нас, и влиять на поведение ИИ они будут по-другому. Например, не будут влиять на интонацию голоса, вот и получится робот из фильмов. Опять же, у людей бывают свои целевые функции типа "если я изучу фреймворк X, то найду более хорошую работу", и они вполне логические, как у роботов в фильмах.
DesertFlow
Совершенно верно, поэтому и есть два основных подхода к созданию ИИ — в первом случае это просто оптимизировать непосредственно целевую функцию. Любую — умение ходить, умение делать какую-то работу, например мыть посуду в доме. Или, в общем случае, быть неотличимым по поведению от человека, т.е. проходить тест Тьюринга. Целевой функцией может быть и "инстинкт выживания" — если по каким-то критериям прекращать работу ИИ раньше, а целевой функцией сделать долгое время его жизни.
Но такое обучении ИИ под конкретную целевую функцию, т.е. на основе эмоций или инстинкта выживания, имеет недостаток. Потому что в нем действительно возможны всякие странные побочные эффекты, вроде отсутствия интонации при разговоре, если такой вариант окажется эффективнее для достижения этой целевой функции. Потому что такой ИИ сам по себе безмозглый, это просто математическая оптимизация целевой функции.
И есть другой подход — предобучение на огромных объемах данных (тексты, картинки, видео). Само по себе такое обучение не имеет смысла, целевая функция в нем либо восстановить из сжатого вида (эмбеддингов) исходные данные, либо разбить их на классы. Но в обоих случаях создается некое сжатое представление реальности.
Да, потом с этим представлением все равно надо как-то работать, например, делать обучение с подкреплением. Но из-за огромного объема данных, на которых делалось самообучение, это представление, по определению, должно адекватно отражать реальность (т.к. нейросети стремятся к глобальному экстремуму, а не локальному). И потому такой ИИ должен, в теории, быть адекватнее. Т.е. более разумным, в широком смысла. И поэтому у него не должно быть побочных робототехнических эффектов, вроде голоса без эмоций. Ну или это будет реально обоснованный адекватный выбор для достижения цели, а не просто глюк оптимизации. То есть, как раз проявление сильного ИИ.
Собственно, последние результаты по GPT-3, CLIP, DALL-E) и показывают, что скорее всего второй подход сработает лучше. Напрямую обучать роботов конкретным задачам не очень удается, слишком высокая размерность пространства решений. Имеющиеся в математике методы оптимизации плохо с такой работают. А вот преодобучить на больших данных, снизив размерность, ну… это выходит получше. Видно больше косвенных признаков будущего сильного интеллекта.
michael_v89
Зачем его обучать под конкретную целевую функцию? Человек не обучается под конкретную функцию "если я изучу фреймворк X, то найду более хорошую работу", она существует параллельно с другими целями и параллельно с эмоциями. Вот и в ИИ можно оставить только такие информационные цели, для них не нужны эмоции типа смеха или интонации голоса.
И есть третий — сделать принципы обучения такие же, как у человека. Ему не требуется предобучение на огромных объемах данных.
Любой человек может сказать что-то голосом робота без эмоций, хоть весь день на спор так разговаривать. Значит и для работы искусственного интеллекта выражение эмоций голосом не требуется.
VolkaDlak
Второе предложение, мягко говоря, оочеень спорно.
Человек впитывает невероятное количество сигналов от тела, которые судя по всему, так же классифицирует как нейросети (вы же не рождаетесь со знанием что такое «камень» «свет» или «вверх»). Получив таким образом модель мира можно обучаться дальше.
michael_v89
Я чуть ниже приводил оценку количества сигналов, не так уж много получается.
VolkaDlak
И всё же вы ошибаетесь в оценке объёма данных.
Выше я не зря написал про совершенно разные «камень» «свет» «вверх». Что бы понять что такое камень и чем он отличается от дерева не достаточно видеть, надо их потрогать, поковырять, пошвырять. Только после этого появляется классификация где при недостатки информации всё равно можно определить камень это или дерево по одному из параметров — весу, структуре или виду. Что бы создать в мозгу модель твёрдый-мягкий-хрупкий-гибкий, надо приложить определённые усилия к различным материалам, при том не единожды. И тому подобное. Переводить всё в гигабайты видео это очень наивно. Да, можно обучать и так, на одном видео, но полученные знания будут ущербными, как например у людей из тёплых стран нет понимания из какого снега лепятся снежки, а из какого нет, и видео снега из бесчисленных фильмов не может заменить им опыт лепки снежков. Вы скажите что им можно объяснить что это зависит от температуры и будете правы, но это снова новые объёмы информации, это снова новая модель в сознании связанная с температурой которую не освоишь по видео что бы вот так потом запросто вышел на улицу и определил температуру с точностью +-5 градусов. И так далее и тому подобное…
ardraeiss
запнуться об него, поцарапаться, врезаться ногой, занозу посадить, тёплость ощутить в сравнении с каменной скамьёй в день тёплый и день морозный, унюхать свежераспиленое дерево и смолу, пройтись по гальке и щебёнке. Это, на мой личный взгляд, тоже знатно добавляет к классификации. И я не уверен, где этот список можно прервать(ибо явно неполон) чтобы сказать что "вот, такое вот он, дерево/камень".
VolkaDlak
Полностью согласен. Просто демагогию разводить не хотелось )
А вообще сейчас понял что michael_v89 меня увел от сути моего первого коммента ) Я вообще писал про то что наш мозг и так похоже во многом действует как современные нейросети. Пробует и ищет зависимости, обобщает, классифицирует. И хоть я не согласен с его оценкой объёма информации это сути не меняет даже если он прав.
michael_v89
Вы процитировали фразу про предобучение на огромных объемах данных. Даже если он чем-то похож на нейросети, на оценку количества данных этот факт не влияет.
michael_v89
К классификации, которая внутри системы, добавляет. А к входной информации, которая требуется для обучения и поступает в систему извне, не добавляет. Потому что это и есть входная информация. И большая ее часть для наличия интеллекта не нужна. Если человек ни разу не запинался ногой об камень, это не значит, что у него нет интеллекта.
И да, за 3 года ее все равно не так много. Сколько раз ребенок запинается об камень за 3 года?
VolkaDlak
Вы снова думаете «в программировании» мы не машины, тут не работает логика одно событие — один бит. Споткнулся это: вычисление своей относительной скорости, каково было сцепление ног с поверхностью, сила боли, размер объекта, форма, цвет, сила сопротивления объекта при ударе, сдвинулся ли объект или нет, двигался ли объект, в какую сторону двигался если двигался, отпружинила нога или нет, деформировался объект или нога или нет, причинён ли существенный ущерб, светло или темно, видно ли объект. И ещё бог знает что там в глубинах мозга, при ударе ногой, одновременно анализируется.
И все эти параметры не в 1 или 0, не в «да» или «нет», а в реальных аналоговых сигналах. Что бы определить двигался камень или нет, мы не получаем однобитный сигнал «нет», мы его внимательно рассматриваем относительно себя и других объектов.
michael_v89
Я ничего не говорил про логику "одно событие — один бит".
И это, представьте себе, не входная информация. А как раз то, что и должен определять сам искусственный интеллект. Выделение объектов реального мира так, как это делает человек, это и есть основная задача в изобретении ИИ, решение которой пока не найдено.
Из того, что вы назвали, к входной информации с рецепторов можно отнести только силу боли и еще пару аналогичных.
Информация о том, светло или темно, как мы установили, для существования интеллекта не требуется. Так как существуют люди с интеллектом, которые эту информацию об объектах не получают.
А какое отношение к разговору имеет то, какие характеристики там анализируются, если мы говорили про то, что поступает на вход? Скорость движения объекта нам на вход не поступает, поступает информация "вот эта точка наблюдаемого изображения имеет цвет X", по которой мозг и определяет объекты и их скорость движения.
Кроме того, вот вы перечислили десяток параметров. Пусть даже их 1000. Сила сигнала с датчика обозначается числом от 0 до миллиарда, это 4 байта. 4000 байт на одно событие.
Ну да. И к объему входной информации с рецепторов это не имеет никакого отношения. Определение "двигался камень или нет" это уже результат работы интеллекта, который эту информацию анализирует. Про однобитные сигналы я ничего не говорил.
michael_v89
А я не зря дал ссылку, где есть обсуждение про людей с ограничениями, в частности которые не видят.
А чтобы понять, что такое "дракон", надо его увидеть, потрогать и пошвырять?
Наивно считать, что кинестетические ощущения чем-то принципиально отличаются от видео информации или что там информации в миллионы раз больше, чем в видео. Это такие же датчики, и информацию с них тоже можно записать, и оценить ее количество. За 3 года информации получается не так уж много.
И вот именно существование людей с интеллектом, которые не знают, как лепятся снежки, и доказывает, что для интеллекта, в частности речи и обсуждения незнакомых вещей, знание веса и твердости снежков или каких-то других предметов не нужно.
Мы говорим не про полноту или ущербность знаний, а про умение их использовать.
VolkaDlak
Конечно зря. Слепому от рождения вы можете хоть десять лет объяснять что такое «красный» и чем он отличается от «зелёного» и он всё равно не поймёт вас полностью. Он всего лишь осознает что у вещей по мимо классификации вес, форма, температура, есть ещё какой-то странный параметр — цвет. Но что это он так и не поймёт и применять не сможет.
А что бы понять что такое дракон, надо для начала определить что такое живое и не живое, а для этого действительно надо увидеть, потрогать и пошвырять.
Кроме того мы не цифровые существа, мы аналоговые, а ваши выкладки терабайтов завязаны на цифре. «Видео» поступающее нам в глаза это не покадровые пиксели, пересчитайте ваши терабайты в аналоговый сигнал. И уж тем более значения температуры, пространства, веса, звука, давления и прочее. Они (данные) сжимаются уже после поступления в нервную систему и сжимаются как раз благодаря тому что отбрасывается несущественное в данных обстоятельствах. А что бы понять что такое «данные обстоятельства» надо выработать классификацию, то есть изначально мы получаем уйму информации и ищем в ней закономерности, и лишь потом можем отсеивать лишние.
А вообще, как я написал выше, мой комментарий относился к другому, к тому что мы и так обучаем наши нейросети как делают наши глубинные механизмы в мозгу. И спорить на счёт оценки объёма информации потребляемой нашим телом не собирался.
michael_v89
Ну да. А я разве говорил, что должен понять?
У нас был разговор о том, сколько нужно информации для обучения ИИ до уровня человека. Слепые от рождения имеют такой же интеллект как у обычных людей, они пользуются речью и могут строить связные логичные предложения, так же как обычные люди. Отсюда вывод — зрительная информация для обучения искусственного интеллекта до уровня человека не нужна. Поэтому ее не надо учитывать в оценке количества, а это значительно его уменьшает. Следующая по объему это звуковая информация, и я привел оценку ее объема за 3 года.
Прочитайте внимательно то, что я там писал, раз уж хотите спорить. Я не давал оценку "видео", поступающему нам в глаза, "мои терабайты" это оценка для аудиосигнала. Про видео я объяснил, почему оно не требуется, а значит и его оценка не нужна.
Ваша фраза говорит о том, что у вас слишком мало технических знаний, чтобы спорить на эту тему, поэтому непонятно, зачем вы это делаете. Как "пересчитать терабайты в аналоговый сигнал" определяет теорема Котельникова. Прочитайте про эту теорему, про преобразования Фурье, и про то, как это связано с аудиоформатом MP3 и другими аналогичными. Аудиодоржки в фильмах содержат достаточно цифровых байт, чтобы для человеческого уха это не отличалось от аналогового синала.
Да. Моя оценка это как раз для входного сигнала, до отбрасывания несущественного. То, что подается на слуховые рецепторы. 3 года непрерывного аудиосигнала это 3 терабайта данных.
Я написал "… Ему не требуется предобучение на огромных объемах данных".
Вы написали "Второе предложение, мягко говоря, оочеень спорно. Человек впитывает невероятное количество сигналов".
Из этого следует, что именно с этим вы и собирались спорить, потому что ваши слова можно понять только так.
VolkaDlak
Ну исходя из вашей дискуссии ниже подразумевали что они получают такую же картину мира. Так же как не говоря про биты и байты очень даже подразумевали именно такой вот подход.
Но раз уж вы упираете на воспитания слепых, почему бы вам не поупирать на воспитания слепоглухих? Им и вашей аудиодорожки на 3 года не надо. И да, они тоже люди и тоже обладают интеллектом и языком. Им вообще не нужна информация? Или во сколько байт вы её оцените? Только это не значит что они имеют адекватную картину мира. Имеют конечно некую модель, но гораздо примитивнее чем полноценные люди. Кроме того, для того что бы получить даже их модель мира и получить те самые «камни» «вверх» и «луч» ему надо ощупывать, ломать, кидать, лизать…
Для существования интеллекта не требуется не то что «Информация о том, светло или темно», а вообще ничего. Интеллект может сам по себе существовать.
Если уж на то пошло, то ИИ можно вообще текстами воспитывать, ни камер тебе не надо, ни термометров, ни датчиков давления. А уж как сжать то можно этот текст, м-м-м… И ведь воспитается если будет иметь хоть какое-то подобие мощности и сложности нашего мозга.
И здесь мы подошли к главному и заключающему, я отвечал на это:
на что я заметил:
пытаясь показать вам, что ваш третий путь ни чем не отличается от другого пути, зачатки которого мы наблюдаем в сегодняшнем дне, то есть обучение на больших данных. И даже не важно считаете вы эти данные большими или нет (у каждого своя мерка), но это устоявшаяся фраза, нейросети учат на «больших данных».
P.S. Я то может и мало имею технических знаний, но вы в биологии тоже явно не специалист. Адын: Адын.
P.S.S.
Действительно, не входная. Просто я её так описал для простоты изложения. Можно и по другому: Считать силу приложенную мышцами к скелету ноги что бы оценить скорость движения ноги относительно остального тела. И потом объяснять что это были не те рецепторы что почувствовали боль, и не те что почувствовали твёрдость, а потом писать что те рецепторы почувствовали…
Только это долго, скучно и с точки зрения русского языка не красиво.
michael_v89
Нет, в той дискуссии я не говорил про их картину мира или про то, что она такая же.
Извините, я не понял эту фразу и не вижу связи между байтами и "такой же" картиной мира.
Вы думаете в правильном направлении. Теперь подумайте, насколько сложнее их обучать, в частности языку, сколько времени это занимает, и в чем сходство и различие с обучением обычных людей. Аудиодорожки им не надо, но для обучения им нужна другая дорожка. Их обучают через кинестетику. Это менее информативный канал, чем звук.
Вы не понимаете предмет обсуждения. Обсуждения на тему "что надо сделать, чтобы изобрести ИИ" не подразумевают, что у ИИ обязательно должна быть полноценная картина мира, как у полноценных людей, а если чего-то не хватает то это и не ИИ вовсе. Подразумеваются принципы обработки информации, которые могут дать хотя бы какую-то картину мира, похожую на возможности людей. ИИ, который обрабатывает только звук, это все равно будет ИИ. А уж камеру или микрофон прикрутить к готовой программе это дело десятое.
Почему вообще целью должны быть полноценные люди? Они например не видят ультрафиолетовый и инфракрасный свет, не слышат ультразвук и инфразвук, не умеют делать эхолокацию, как летучие мыши и дельфины, не умеют бить током, как электрический скат. То есть у них картина мира тоже не такая уж полная.
Вы играете словами. Как должно быть ясно по контексту обсуждения, я подразумевал минимально необходимый объем информации, чтобы у некоторого существа (человека, ИИ) появился (= начал существовать) интеллект уровня человека. Не знания, а интеллект, это не одно и то же.
Правильно. Я не знаю, почему вы решили, что обязательно требуются термометры и датчики давления. Только просто загрузить на вход кучу текста тоже не выйдет, но это тема отдельного обсуждения.
Я прямо в том комментарии и написал, чем он отличается — огромный объем данных не требуется. Значит человек обрабатывает информацию более эффективно, не так как нейросети. Даже если какие-то принципы похожи.
Я знаю. И знаю их объемы. Поэтому и сказал, что человеку такие объемы данных не требуются.
Можно. А зачем?
ardraeiss
Но разбирать текст и отличать слона от ствола и змеи — вряд ли. Отсюда вывод — Ваш "отсюда вывод" недостаточно обоснован.
michael_v89
А надо? Если человек не видит и не может отличить слона от ствола, по-вашему, у него интеллекта нет?
a1111exe
Да? Это Вы, наверное, не играли в Unreal Tournament 99 на высоких уровнях сложности и по сети с оппонентами, натренировавшими сверхъестественную реакцию. О читерах отдельный разговор — они просто уныло бесят и переходишь на другой сервер.
LukinAr
Меня вот это тоже немного удивило. Мне кажется, что это очень субъективно
antonpoderechin Автор
Да, от игр можно сильно возбудиться, тут вы правы :)
Моя мысль была про то что в играх мы убиваем сотни людей, в реальной жизни убийство даже одного человека может быть тяжелым событием. Когда наша девушка из игры умирает, это не вгоняет нас в депрессию на пол года.
Я поэтому написал про «скучные» игры но думаю стоит раскрыть этот вопрос по шире.
xsevenbeta
В мморпг, где есть лут (возможность потерять инвентарь) люди довольно долго привыкают, чтобы у них руки не тряслись при пвп. Адреналина и страха смерти полные штаны.
Особенно паника и желание выжить видна в массовых зарубах. Я лично видел, как люди проседают по хп и отходят с передовой, стараясь избежать смерти. Те кто остаются, если идёт жёсткая сеча — опасаются, что останутся впереди одни и тоже могут начать отступать. Так может начать убегать (и их всех быстро сольют) целая армия — зачастую даже когда у неё есть значительное численное преимущество. Хотя физическому телу ничего не угрожает).
ardraeiss
Прежде, чем говорить сойдёт или нет с ума ИИ, нужно дать определение понятию/категории "сойти с ума". Хотя бы и в рамках "ИИ, относительно человека".
Вот, скажем, предельно логичное около-азимовское решение проблемы трёх(а хоть бы и четырёх) законов — это строжайше отгородить человеков от любой возможности навредить себе или другим человекам. Для достижения этого можно даже допустить вред, вплоть до смертельного, мешающим осуществлению отдельным человекам — ведь на общую пользу вида.
Считать ли это "ИИ сошёл с ума, хотя бы и исключительно с точки зрения человека"?
antonpoderechin Автор
Мне кажется, даже человеческий интеллект решает этот вопрос по разному, в разных ситуациях. Какие-то страны жертвуют благом выборочных людей, ради блага страны, а какие-то наоборот, потакают всем подряд в ущерб своей сверхдержавности.
raliev
Уверен, что на низком уровне нет такой штуки как эмоции даже в живых существах, включая человека. Есть анализ ситуации, есть рандом, есть «шумы», есть ограничения ресурсов, включая время на перебор вариантов, есть опыт в переборе вариантов, позволяющий приоритезировать перебор, чтобы быстрее и качественнее принимать решения. Все это выполняется на автомате и не осознается сознанием, поэтому мы принимаем это за «мейджик». И за эмоциональный выбор. На самом деле, мозг делает какой-то выбор, основываясь на довольно четких критериях (но их очень много, и с опытом жизни число только растет).
Так вот, AI теоретически способны на такое, но:
1) нужны совсем другие масштабы нейросети. Сейчас лучшая нейросеть недотягивает до нервной системы чего-то посложнее улитки.
2) и такую сеть нужно обучать на просто огромных массивах данных. Возможно, это обучение будет занимать время в годах даже для лучших имплементаций.
3) возможно, элементная база, которая применяется сейчас в компах — тупиковая ветвь для платформы AI. Я лично верю в успехи гибридных организмов, где сочетается электроника и живая нервная система. Возможно, что-то интересное появится сначала на такой платформе, а уже потом цивилизация доберется до создания живых платформ с нуля (или будет печатать их на аналоге 3d-принтера).
a1111exe
Тут такое дело… Если существование бывает только на "низком уровне", то такой штуки, как эмоции, вообще нет — ни на каких уровнях. А если существование бывает не только на "низком уровне", то уровни экзистенциально независимы.
Вообще, это интересный поворот событий — и концептуально, и в историческом масштабе. Всё, что нам доступно из конкретного — это всякие субъективные сенсорные ощущения, всё те же эмоции, разные мысли и всевозможные интенции (убеждения, верования, сомнения и т.д.). Эта область непосредственно доступного, по идее, и есть тот самый "низкий уровень", ниже некуда. И существуем мы всю жизнь исключительно в этом самом непосредственном. Это особенно заметно, когда нам или очень больно или очень приятно. Но мы абстрагируемся от непосредственного, строим абстрактные модели, и вводим некий абстрактный "низкий уровень", объекты которого не содержат нашей субъективной реальности, кроме которой у каждого из нас ничего и нет. Разве не удивительно? Имхо, просто потрясающе.
michael_v89
Существование процессора бывает на уровне транзистора? Нет. Процессор экзистенциально независим от транзисторов?
a1111exe
Процессор это штука, которая может быть реализована не только в тразнисторах, так что да, уже только с этой стороны процессор от транзисторов экзистенциально независим. Есть ещё другая сторона: процессор как процессор существует только для человека в виде концептуально осмысляемых результатов его работы и концепции, через реализацию которой возможно получать эти результаты. На физическом уровне существует не процессор, а совокупность физических элементов. На физическом уровне не существует концептуально осмысляемых результатов, а только совокупность физических элементов. Но это не значит, что те самые концептуальные части процессора и результатов его работы не существуют — они существуют в человеке, через них и ради них люди и создают экземпляры процессоров. И их существование в человеке вполне экзистенциально независимо.
michael_v89
Эта совокупность физических элементов и обозначается словом "процессор".
Ок, процессор на транзисторах экзистенциально независим от транзисторов?
Совокупность физических элементов не существует на уровне отдельного элемента. Совокупность элементов экзистенциально независима от отдельных элементов?
Вы играете словами, заменяя один смысл другим. Это некорректное логическое построение, а значит и выводы по нему неправильные. Результат взаимодействия элементов не может экзистенциально не зависеть от этих элементов, независимо от уровня абстракции и способа взаимодействия. Не будет элементов — не будет результата.
a1111exe
Сразу становясь частью ментального, в котором происходит обозначение и существует концепция.
Процессор на транзисторах может быть реализован на очень разных транзисторах, так что да.
Нет. Настоящая ошибка это рассуждать о метафизическом в бытовых терминах. А метафизическое начинается сразу, как только произносится что-то вроде "на самом деле существует Х". Кстати, если копнуть ещё глубже, то выяснится, что и такая штука как совокупность — это чисто ментальная вещь, способ репрезентации объекта ради выявления частей и их отношений друг с другом.
michael_v89
Нет. Соединение одного транзистора с другим это физическая вещь. Там физические электроны по этому соединению переходят из одного транзистора в другой. И оба этих транзистора и их соединение имеют ментальное отражение, которое мы выражаем терминами. Поэтому вы и подменяете смыслы, говоря "вот тут физическое, а из него получается ментальное". Ментальное и физическое существуют одновременно, ментальное это отражение физического.
Можно поспорить насчет уровней абстракции, то есть группировки по некоторому признаку ("стул" не существует, есть много разных конкретных стульев), но не насчет состава наблюдаемых предметов и явлений. Предмет или явление экзистенциально зависит от своих частей, и оба этих уровня (высокий и низкий) могут иметь или не иметь ментальное отражение. И это ментальное отражение, если оно есть, тоже экзистенциально зависит от своих составляющих, например сигналы с рецепторов или фантазия.
a1111exe
О, магическое отражение. Давненько с ним не сталкивался. Кажется, со времён чтения советского учебника по логике, емнип… Отражение и эмерджентность, как Чип и Дейл, спешат на помощь материализму. :)
michael_v89
Я ничего не говорил про магию. Модель предметной области в программе это тоже отражение процессов, происходящих вне программы, но там нет ничего магического.
a1111exe
Конечно не говорили, Вы просто её использовали. :)
Вы можете объяснить, что это значит? В своё время я довольно детально изучал физику отражения света. Если отражение, о котором говорите Вы, принципиально другое, то почему Вы называете его отражением? Если нет, то как такое физическое явление, как отражение, надо понимать в контексте субъективного восприятия? Поясните, пожалуйста.
michael_v89
И не использовал. Я же привел пример. Или по-вашему в программах используется магия?
Точно то же самое, что и взаимосвязь между предметной областью и ее моделью в программе. Это не физическое явление, а описание взаимосвязи, которая может задаваться разными физическими явлениями.
Отражение
То, что является отображением, воспроизведением чего-л. Литература — отражение жизни.
Отображение
ср. к Отобразить
Отображение морской тематики в живописи. Отображение в сознании явлений действительности.
Отобразить
Воспроизвести, передать, воплотить (обычно в художественных образах)
Образ
Филос. Форма восприятия сознанием явлений объективной действительности; отпечаток, воспроизведение сознанием предметов и явлений внешнего мира.
При чем тут отражение света, если разговор был не про свет?
a1111exe
Т.е., отражение это не отражение в зеркале, а что-то совсем другое. Дело в том, что я привык понимать технические понятия, а понятие отражения я воспринимаю именно как техническое. И свет в этом смысле является шикарной иллюстрацией, как можно исчерпывающе объяснить отражение в зеркале. Вы же сейчас предлагаете не технические, а поэтические как бы объяснения.
Это же поэзия… Литература это воспроизведение жизни? Серьёзно? Ну ладно, пусть не воспроизведение, пусть отображение. Но понятно же, что образы читателя существенно отличаются от того, что воображал себе писатель — в деталях, схема может остаться и той же. Так о чём мы тогда говорим, о воспроизведении схемы? Но как раз схема это совершенно ментальная штука. Так что там отражается от реальности в субъективном восприятии? Схема? От реальности отражается интеллектуальное? Ну тогда да, ладно. Схема воспроизводится, и это то, чем занимается физика (но не только физика). Получается, что физическая реальность интеллектуальна, так и есть.
michael_v89
Слово "отражение" означает не только отражение света в зеркале. Так же как слово "ключ" означает не только ключ от замка, а слово "замок" не только запирающее устройство.
Нет, это вполне технический термин, обозначающий некоторую взаимосвязь. Если хотите, можем называть эту взаимосвязь "абырвалг". Просто обычно люди называют ее "отражение".
Прежде чем я отвечу на остальное, давайте определимся с терминами, раз уж вы упираете на технический подход.
Допустим есть некоторая местность. И есть карта этой местности. Каким словом вы называете взаимосвязь изображения на карте и реального ландшафта местности? Карта реальный ландшафт [что делает]?
А если ландшафт изменится, как вы называете модификацию карты, соответствующую изменениям местности?
[Что] изменений местности на карте?
a1111exe
Ну да, слова естественного языка перегруженны. Ключ и ключ могут обозначать совершенно разные и не связанные друг с другом вещи: предмет для отпирания замка и родник. Магия одного слова не работает. Слово "ключ" в русском языке может обозначать совершенно разные вещи. И что из этого?
Нет, обычно, люди называют отражением то, что видят в зеркале.
Референция.
Референцирует?
Модификацией карты для соответствия с референцией.
Дельты референций от прошедших изменений в поле до актуальных.
Я, кстати, не картограф. Буду благодарен, если погрузите в суть реально используемых терминов.
И, честно, я не совсем понимаю, чем Вам поможет привлечение концепта карты. В карте речь о сопоставлении, не об отождествлении. Физикалисты же именно отождествляют физическое и ментальное, причём так, чтобы осталось физическое, и не осталось ментального (элиминативизм, редукционизм).
michael_v89
То, что "отражение" в контексте данного обсуждения тоже обозначает не распространением света, а соврешенно другую вещь.
Я дал ссылку на словарь русского языка, там перечислено то, что люди называют отражением. Отражение в зеркале это только одно из значений. Какое значение применять, определяется по контексту.
Референция
Рекомендация, отзыв о ком-чем-н.
Справка о кредитоспособности какого-н. лица, выданная торговой фирмой, учреждением.
Референция
референция, как правило, непосредственно связывает референт и указывающий на него знак (имя)
К взаимосвязи карты и местности ни одно из значений неприменимо.
Значение по второй ссылке применимо к обозначению взаимосвязи между самой картой и словом "карта" или между местностью и словом "местность". Слова могут быть выражены в виде графических иероглифов, но по определению не требуется, что они должны [что делать]отражать/отображать особенности местности.
Вы у меня спрашиваете? Откуда я могу знать, как вы это называете.
Как видно из предыдущего пункта, слово "референцировать" там нельзя подставить вместо "отражать" в последнем предложении, так как смысл изменится.
Таким образом, вы используете определения, которые другим людям неизвестны. Неудивительно, что вы не понимаете предмет разговора.
С учетом определений выше это бессмысленная фраза. С вашим определением оно тоже не сочетается: "Модификацией карты для соответствия с [взаимосвязью ...]".
А это общепринятые термины. Вон даже в словарях есть. А в английском языке "отражение" в значении "отображение" называется "mapping", от слова "map" — "карта".
Карта отражает реальный ландшафт.
Отражение изменений местности на карте. Новые изменения местности были отражены на карте.
Вот кстати по словосочетанию "были отражены" в Google находится много примеров, не связанных с распространенеим света.
Показать, что мое употребление этого термина корректно, а также какая именно взаимосвязь имеется в виду.
Вот и слово "отражает" обозначает сопоставление. Информационный объект сопоставляется с физическим. Изменения физического объекта вызывают соответствующие изменения информационного посредством наблюдений.
Возвращаясь к тому, с чего мы начали, информационная (ментальная) модель процессора, полученная посредством наблюдений, сопоставляется физическому процессору. Физический процессор существует независимо от его ментальной модели у наблюдателя. При этом ментальная модель это результат работы физических нейронов, которые существуют независимо от физического процессора. При этом физический процессор экзистенциально зависим от своих составляющих, а его ментальная модель от своих.
В таком общем виде эта фраза некорректна. Никто не отождествляет ментальную модель процессора и физический процессор. Как видите, в предыдущем пункте появилась другая физическая составляющая — нейроны. Говорят, что ментальная модель это результат физических взаимодействий физических объектов. Таких как отраженный от процессора свет или исходящее от него тепло, и нейроны, которые это воспринимают. Но я все равно не уверен, что взаимосвязь нейронов и ментальной модели корректно называть словом "отождествляют". Ментальная модель это результат работы нейронов, некоторое их состояние.
В общем-то это и есть ответ на вопрос "Так о чём мы тогда говорим, о воспроизведении схемы?". Мы говорим о создании информационной модели, которая некоторым образом отражает реальный объект, и соответственно ее изменение при изменении этого объекта. Означает ли это то, что вы подразумевали в выражении "воспроизведение схемы", решайте сами.
red75prim
Из эмоций мост не построишь. Ничего удивительного.
a1111exe
Из пикселей экрана в Майнкрафте мост не построишь. Но чья реальность "ниже" (т.е., фундаментальней) — пикселей экрана, или строительных кубиков Майнкрафта?
red75prim
Репрезентация мира майнкрафта в виде пиксельной картинки очевидно не фундаментальна. Если мы изменим/сломаем рендеринг, мы только усложним себе жизнь в мире майнкрафта. Отображение лавы как воды не помешает серверу начислять повреждения персонажу.
a1111exe
Зачем что-то делать с рендерингом? Достаточно просто выключить монитор (а заодно и колонки/наушники), чтобы сразу сделать свою жизнь в Майнкрафте практически невозможной.
Изнутри Майнкрафта эмпирическим путём узнать о сервере нельзя, зато можно много узнать о правилах игры, о присущей ей "физике". Мы в мире нашей реальности эмпирически не более осведомлены о её источниках, чем житель Майнкрафта эмпирически осведомлён о сервере. Если нас лишить всех субъективных переживаний, то наша жизнь в мире станет невозможной (выключение монитора). Продолжая аналогию: материя мира Майнкрафта состоит из разных строительных материалов, из тушек персонажей, которыми управляют игроки, всё это регулируется набором правил. Эти материя с правилами создаются и управляются алгоритмами, которые реализуются в конкретной физической клиент-серверной архитектуре на компьютерах, устройство которых никак не похоже на устройство мира Майнкрафта — они не состоят из материи Майнкрафта и не подчиняются правилам реальности Майнкрафта. И применительно к нашей ситуации, нет способа исключить, что и источник нашей реальности есть нечто, совершенно ей чуждое, что сам он в ней не проявляется. Это с одной стороны, о возможностях. С другой стороны — материализм и его наследник физикализм это очень проблемные метафизические парадигмы, их проблемы широко известны и много лет обсуждаются в философии, уже без особой надежды прийти к хорошим решениям, не отказавшись от самих этих парадигм. При этом сама физика она не о том, что на самом деле существует или не существует, об этом метафизика.
Возвращаясь к теме "из эмоций мост не построишь".
Любопытный факт: без эмоций (мотивация) и без разума (проектирование) мост тоже не построишь. Даже не начнёшь это делать. Так что весьма и весьма удивительно...
michael_v89
А вы какую парадигму предлагаете?
a1111exe
Я идеалист.
michael_v89
Я не философ и не знаю направлений. Можете описать, как в вашей парадигме решаются проблемы материализма и физикализма?
a1111exe
Конечно, Вы философ, Вы же философствуете. Незнание направлений легко поправимо чтением соответствующей литературы.
Это запрос на текст объёмом в нехилую книгу, которую (из тех, кто заинтересуется) смогут прочесть 2.5 человека.
В принципе, я могу поработать над некоторыми единичными примерами, типа проблемы материальной композиции, но мне для этого нужно время — чтобы дать экспозицию проблемы, разные предложенные варианты решения, проблемы вариантов решения, ну и собственное решение. В принципе, уже только это довольно большой объём работы. Возможно, ограничусь только им, да и то, объём комментария будет чудовищным. Вам серьёзно это интересно?
michael_v89
А ну понятно, ответа на вопрос у вас нет. Иди туда не знаю куда, ищи то, не знаю что. А если не найдете, значит плохо искали.
Мне было интересно, как в вашей парадигме решаются эти проблемы. Если они решаются, это можно сформулировать в нескольких общих предложениях, детали которых можно уже уточнять далее. Уровни абстракции они на то и уровни, на одном одна абстракция, на другом несколько ее деталей.
Я собственно хотел показать, что ваш подход ничем не отличается от физикализма. Но для этого нужно, чтобы вы сами сформулировали объяснение, а не я придумывал его за вас, иначе вы просто скажете "я такого не говорил". Ну либо вы просто уходите от ответа и не даете никакого объяснения, типа ну вот оно как-то само работает, и нельзя узнать как. Отсутствие объяснения означает такое же отсутствие решения проблем, как и в другой парадигме.
a1111exe
Неверно. Только скажите, я покопаюсь у себя и предоставлю Вам список шикарнейшей литературы. Чтения на несколько тысяч страниц. Если хотите, будет Вам, только скажите.
Да не вопрос. Проблема материальной композиции решается отсутствием материи. Уточняйте.
michael_v89
Это и есть "ищи то, не знаю что". Допустим я их прочитал и не нашел ответа на свой вопрос, что дальше?
А тут нечего уточнять, это и есть уход от ответа и отсутствие объяснения. Проблема материальной композиции решается отсутствием материи, зато появляется проблема композиции того, что в этой парадигме существует вместо материи. Если вы пытаетесь эту композицию как-то описать через более мелкие составляющие и их взаимодействия, то появляется та же проблема, что и в материализме. Либо у вас в какой-то момент появляется магическая сущность "оно само", объяснения которой нет.
a1111exe
Искать дальше. Вы серьёзно сейчас играете со мной в гопника? Зачем, Вы выше этого...
Увы, но это есть непонимание проблемы.
Не появляется, т.к. ничего в этой парадигме не существует вместо материи.
Магическая сущность всегда есть — это квалитативная субъективность, объяснить которую невозможно. Превед. Но можно (и нужно) сводить магию к минимуму — и как раз материализм в этом очень и очень плох.
michael_v89
Ну вот и я о том же. Это означает, что ответа на вопрос вы не дали.
Да-да, "вы ничего не понимаете, но я вам не скажу".
В таком случае она не объясняет существование квалиа и прочих результатов наблюдений. И вообще всего того, что мы обозначаем каким-то термином. Вы видимо опять придумали свое определение, что-то типа "существование это только физическое существование в нашем физическом мире вне нас, а если мы какой-то другой мир придумаем, то это не существование, а что-то другое". Нет, это все равно существование, даже если вы его называете другим словом. Просто потому что слова появляются для обозначения явлений, а не наоборот. От того, что вы явление назвали по-другому, оно никуда не делось.
Вот мы взяли камень, ударили по нему другим камнем, и наблюдаем, что первый разделился на 2. В материализме это объясняется взаимодействиями материи. Если вы объясняете это наблюдение субъективными переживаниями, значит субъективные переживания у вас вместо материи.
Молния — это магическая сущность, объяснить которую невозможно.
Из того, что мы не можем ее сейчас объяснить, не следует, что объяснить ее невозможно.
Ага, субъективные переживания существуют, но не существуют, и объяснить их невозможно. Совершенно никакой магии.
red75prim
Идея, что можно убрать субъективные переживания, оставив всё остальное без изменений, кажется мне такой-же абсурдной как и идея, что можно убрать натуральные числа, оставив только их физические репрезентации в виде процессов в мозге.
В терминах майнкрафта: нет никакого внесерверного игрока, который смотрит на пиксели и отдаёт команды, существуют процессы на сервере и существует субъективная репрезентация части этих процессов. Способ существования субъективной репрезентации отличен от способа существования процессов на сервере, но не является полностью независимым, так что убрать субъективную репрезентацию без изменения процессов на сервере нельзя. Почему это так — вот это сложный вопрос сознания.
Идея "игрок наблюдающий за процессами на сервере и влияющий на них" — очень похожа на попытку экстраполяции физикализма на сознание. Игрок по сути такая-же часть системы как и сервер, но его почему-то называют "нефизическим".
Если мы обнаружим у шишковидной железы канал связи с "метафизическим управляющим", то останется вопрос почему у "метафизического управляющего" есть субъективные ощущения (или почему он и является субъективными ощущениями).
a1111exe
Из этого и дальнейшего текста — я правильно понял, что Ваш выбор это платонизм + дуализм или панпсихизм?
Откуда известно, что нельзя?
Трудная проблема, это проблема объяснения возможности, фактического наличия и телеологии субъективного квалитативного опыта, когда выявлены все физические системы мозга, отвечающие за всевозможные когнитивные функции. Копирую из Вики формулировку Чалмерса:
. .even when we have explained the performance of all the cognitive and behavioral functions in the vicinity of experience—perceptual discrimination, categorization, internal access, verbal report—there may still remain a further unanswered question: Why is the performance of these functions accompanied by experience?
Вашу формулировку я пока не очень понял, буду благодарен пояснению.
Знаете, с такой же уверенностью и я могу сказать: игрок, по сути, такая же часть системы, как и сервер; но его почему-то называют "нементальным". :)
Это близко к формулировке Чалмерса. Имхо, кроме "почему он и является". Неизвестно, что он ими является. Со своей стороны добавлю, что типы физического и субъективного несовместимы, и если всё же является, то либо физическое не такое уж и физическое, либо ментальное не такое уж и ментальное. От чего-то придётся отказаться.
red75prim
Мне не нравится ни то, ни другое. Платонизм+дуализм — это каузальная пассивность сознания и, следовательно, эпифеноменализм. У панпсихизма есть проблема суммирования "элементарных сознаний".
Моё представление: сознание — не платоновская идея, существующая вне времени и пространства, но и не составная часть физико/психического универсума, как в панпсихизме. Сознание существует в пространстве и времени, но не в физическом пространстве и времени, а в пространстве и времени потенциально существующих миров.
Например, я не знаю микросостояний своего мозга — моё сознание находится во множестве потенциально существующих миров, где я могу сделать разные выборы (с физической точки зрения: в мирах с разными микросостояниями моего мозга физические процессы приведут к разным результатам).
То есть способ существования сознания, сильно отличается от способа существования физического мира.
Какие-то черты панпсихизма тут есть. Например, можно считать, что физическим системам, не создающим отражения реальности (отражение реальности имеется в виду в функциональном смысле — физические процессы, являющиеся моделью других физических процессов), соответствует нуль-сознание — сознание, которое не сознаёт ничего (или только себя, на выбор).
Если рассматривать сознание с такой точки зрения, то просто нельзя оторвать сознание от одного из пары идентичных физических миров — сознание не находится в конкретном мире, оно существует в потенциальных мирах, где физическое состояние мозга соответствует состоянию сознания. Оба идентичных физических мира соответствуют какому-то состоянию сознания — сознание присутствует в обоих мирах.
Долго придётся продумывать точные формулировки того, что я имел в виду. Может быть позже.
Да. Суть одинаковая — способы существования физического мира и сознания считаются близкими.
michael_v89
Это нижний уровень обработки информации, вернее лучше сказать начальный. Но информация не появляется из ниоткуда, она где-то хранится и передается, есть аппаратный уровень, который это осуществляет. Это как сказать "ассемблерные команды это и есть низкий уровень, ниже некуда".
JustDont
Ничего интересного — эмержентные свойства системы.
Пропеллер не летает, двигатель не летает, крыло не летает, корпус не летает. А вот самолёт в сборке — летает.
michael_v89
Я бы сказал, эмерждентные даже не свойства, а названия свойств. Пропеллер, двигатель, крыло и корпус, сваленные в кучу тоже как-то друг на друга влияют, просто мы не называем это словом "летает", обычно вообще никак не называем. А соединенные особым образом влияют друг на друга по-другому, и мы называем это словом "летает". Просто слово появилось, а физические взаимодействия одни и те же. Слово только обозначает какие-то их значения (сонаправленность векторов например).
a1111exe
Я пока не сталкивался с хорошей в рациональном и техническом смыслах теорией эмерджентности. Имхо, априорно натягивать эмерджентность на всё только ради оправдания сомнительной метафизической установки — это, простите пожалуйста, магическое мышление.
Например, песок. Эмерджентные свойства песка это результаты некоторой аддитивности свойств его песчинок и свойств среды (влажность, гравитация и т.д.), в которой находятся песчинки. Тип эмерджентных свойств песка должен выводиться из (или, другими словами, редуцироваться к) совокупности типов песчинок и окружающей среды. Типы свойств песка и совокупность типов свойств песчинок и окружающей среды должны быть совместимы. Типы свойств субъективного и физического не являются совместимыми. Дать детальное математическое обоснование этому я пока, увы, не могу, но это вполне интуитивно ясно, если попытаться непредвзято провести мысленный эксперимент, предположив, что квалитативные элементы субъективного найдены, например, в мозге. В результате получится либо абсурд типа цветного или звучащего мозга, либо бесконечная рекурсия, отрицающая фактическую реальность субъективного восприятия.
OneOfUs
Если копнуть на самый нижний уровень, то получается, что эмоции — это суп из нейромедиаторов, которые выделяет организм. Причём, оказывается, что сначала выделяются нейромедиаторы, а потом сознание испытывает эмоцию. Может где-то ошибаюсь, но, надеюсь, не критично. Я ведь к чему это говорю. Эмоции, ладно, давайте по максимуму, человека зависят от всего остального организма, процессов в нём и состояния. Вероятнее всего отдельный мозг без остального тела не способен переживать эмоции, если не стимулировать определённые области электрически или химически (в принципе этим и занимаются эндокринные гормоны и нейромедиаторы). Вполне вероятно, что «чистый разум» безэмоционален. Вот я и думаю, что для принятия решений ИИ нужно будет наделять неким аналогом эмоций, иначе
P.S. Я вот всё таки задумываюсь, если удастся оцифровка сознания и перенос его в «машину» сохранится ли способность испытывать эмоции? Или будет как в «Превосходстве»?
antonpoderechin Автор
Вот это конешно очень интересная мысль! Что будет с новорожденным мозгом если его не подключать к телу? А если подсоединить его к видеокамере?
michael_v89
Не нужно. Человек не обучается на огромных массивах данных.
ardraeiss
Человек с рождения учится. И суммарный воспринятый массив информации каждым присутствующим трудно даже вообразить. Тем более провести его классификацию, разбиение по всяким там признакам и прочие потребные ручные(на данный момент) операции по текущим технологиям обучения.
И обучение человека даже просто начать отличать папу от всех остальных дядь(маму, вроде как, изначально распознаёт по запаху, но это неточно) занимает время. Обучение минимально достаточно для написания на хабре осмысленного комментария — заняло у каждого из здесь присутствующих буквально годы.
michael_v89
Нетрудно. Сколько книг всего написано и сколько человек может прочитать? А ведь все они могут поместиться на один жесткий диск. А сколько слов услышать? В 3 года человек уже умеет нормально разговаривать. 1 час аудиодорожки в фильмах это примерно 100 Мб. 3*365*24*100 = 2628000 Мб = 2.6 терабайт. В обычные компьютеры такие диски ставят.
schetilin
А сколько видео пересмотреть… Причем в высоком разрешении
michael_v89
Вы думаете, люди, которые слепые от рождения, разговаривать не умеют? Они так же учатся речи за несколько лет.
schetilin
А у ни увеличивается поток от других органов чувств. Так что поток информации все равно огромен. Вы почему то забыли осязание, обоняние, вкус, чувство равновесия и координации (хотя последнее в чувства не включают, но оно есть, так называемое ощущение собственного тела. Т.е. ты знаешь где находится каждая часть тела по отношению к остальным)
michael_v89
Осязание, обоняние, вкус и чувство равновесия не нужны для овладения речью и логическими рассуждениями, а это главное, что ожидается от сильного ИИ.
schetilin
Когда ситуации заданны, и реакции на них определены — классический автомат состояний, а не ИИ
michael_v89
Да. Отсутствие осязания, обоняния, вкуса и чувства равновесия и наличие только слуха это именно неполные данные. И ожидается, что ИИ, подобно человеку, все равно сможет делать выводы и решать задачи, в рамках этих данных.
Эти утверждения противоречат друг другу.
Чего это вдруг, потому что вы так сказали?) Почему вы решили, что без обоняния и вкуса ИИ невозможен? По-вашему, у людей без обоняния нет интеллекта? Если вы считаете, что есть, значит и для искусственного интеллекта обоняние не нужно.
Да. А при чем тут автомат состояний, если мы говорили при ИИ? Я ничего не говорил про заданные ситуации и реакции.
raliev
это заблуждение. Смотря телевизор или читая книжку, то, что в картинке, из колонок или в строках книги — только очень маленькая часть информации, идущей ребенку в мозг с этим действием. Например, он понимает, как сопоставлять плоские картинки с объемными, упрощенные концепции со сложными, включая и обучая абстрактное мышление. Он понимает как организована информация, и сопоставляет это с тем, как она была организована раньше, что подкрепляет или уточняет знания о мире. Он смотрит на одни и те же предметы под разным углом, и это тренирует области мозга, которые потом пригодятся для воображения. Там просто уйма информации. Причем уши не заменишь записью звука за три года, потому что с источником этого звука ребенок динамически взаимодействует. То же и видео. Это как если бы искусственный интеллект, обучаясь, мог выбирать на каких данных ему учиться, а на каких — нет, и понимал, как нужно получать нужные данные для обучения из механизма, эти данные рождающего, применяя как раз «самого себя» к этому механизму.
michael_v89
Ага, и эта уйма информации не идет с палочек и колбочек или слуховых рецепторов, а появляется как результат логической обработки информации. Все, что вы перечислили, относится к механизму обучения, а не к входной информации с рецепторов. Вот именно такой механизм и есть цель изобретения ИИ — чтобы он тоже все это понимал по входной информации.
Человек умеет выделять все это из той информации, которая идет от рецепторов. А значит только этой информации должно быть достаточно для обучения. Оценку этой входной информации я и привел.
А я не сказал, что надо заменять записью звука уши, я сказал, что на уши ИИ надо подавать только эту запись. Человек по ней может научиться взаимодействовать с другими людьми, значит и для ИИ это возможно. При чем я не сказал, что ее надо целиком готовить заранее, разговор был только об объеме данных, который требуется для обучения. Данные вполне могут подаваться в реальном времени с датчиков звука, и за 3 года их наберется 3 терабайта.
antonpoderechin Автор
Я вообще надеюсь что тут будет как с птицами и самолетами. Мы вдохновились тем как птицы летают, но у самолетов нет кровеносной системы, они не едят мух и вообще внутри устроены совсем подругому.
Думаю что понимание принципов работы мозга позволит нам уйти от биологических ограничений.
antonpoderechin Автор
Ну кстати технически это все лишь возбужденные нейроны у нас в головах. Возможно нам не хватает какого-то значительного пересмотра того что мы знаем о нас самих чтоб создать ИИ. И эмоции вполне могут выпасть из уравнения.
Например если они лишь часть сознания и нужны только для объяснения происходящего но подсознание решает что делать без них.
VolkaDlak
А что вы подразумеваете под «низким уровнем»? Очень любопытно.
Просто если брать в целом, без всяких там уровней, то эмоции очень даже существуют. Более того эмоции это то что отвечает за принятие нами тех или иных решений на базовом уровне.
a1111exe
del
agat000
В статье говорится о действиях под эмоциями. А в заголовке про «сойти с ума», что есть совершенно разные вещи. Эмоциия — фича психики, а сойти с ума — баг.
Тут Можно вывести несколько постулатов:
1. Программы пишутся людьми, включая ИИ. То есть баги будут по умолчанию.
2. У программ бывают ошибки исполнения. Чем сложнее программа — тем больше вероятность.
3. У программы может быть ошибка поиска, выборки и интерпретации данных.
Не бывает безглючных программ. Законы термодинами неумалимы и непреложны — чем сложнее система, тем больше в ней бардака, который лечится только внешним вмешательством.
Тут вспомнилась старая религиозная концепция патчей и глюков
К чему спрашивать, почему глючат программы? Hадо ждать патча!
Католицизм.
Первая программа была безглючной. Hо захотела идти на компьютере Apple и
заглючила. Все программы являются версиями первой и сохраняют глюки в целях
совместимости.
Православие.
Hельзя спрашивать, почему глючат программы. И пользоваться патчами тоже нельзя,
Особенно западными. Hадо заботиться не о том, чтобы программа работала, а о
том, что с ней будет после деинсталляции.
Протестантизм.
Программист так любит программы, что позволяет им глючить, падать и вешаться. И
вообще, надо больше работать с глючными программами. Глюков это не исправит,
зато заработаете больше денег.
Свидетели Иеговы.
Только у нас есть настоящий патч, исправляющий любые глюки! И мы готовы
предложить его всем практически бесплатно. Hо он не будет работать, если вы не
уверуете, что он действительно исправляет глюки. Если вы поставили патч, а
глюки не исчезли, значит вы не уверовали.
Мормоны.
Программы глючат потому, что их запускают на неправильных компьютерах.
Правильные компьютеры есть только у нас. Еще немного, и мы узнаем, как их
включить.
Ислам (сунниты).
Если программа глючит, значит, она неверная. Hеверные программы надо стереть.
Безглючны только верные программы. Если верная программа выдает, что 2х2=5,
значит, глючат все программы, дающие другие результаты.
Ислам (шииты).
Только один программист писал верные программы. Верными являются также
последующие версии этих программ. Все остальные программы глючат по
определению.
Индуизм.
Программы глючат потому, что в них были глюки до инсталляции, когда они были
другими программами и на других компьютерах. После деинсталляции они снова
станут другими программами и будут глючить из-за глюков, которые в них есть
сейчас. Патчи тут не помогут, потому что все предопределено.
Буддизм.
Программы глючат потому, что вы задаетесь этим вопросом. Hе следует стремиться
избавляться от них. Патчи лишь умножают глюки. Hет никакой разницы между хардом
и софтом, программой и программистом. Программа, избавленная от глюков, впадает
в нирвану. Программы в нирване не глючат, но и не работают.
Дзен-буддизм.
Глючит ли программа, распечатывающая сама себя? Как выглядит программа, не
записанная ни на одном носителе? Однажды ученик спросил учителя, как избавиться
от глюков в программах, и учитель дал ему вирус CIH. Однажды другой ученик
сказал учителю, что хочет программу без глюков. «Дурак! — крикнул учитель, — почему ты не просишь глюк без программы?», — и ударил его винчестером по
голове. Если вы еще не обрели просветление, с вами не о чем говорить.
Даосизм.
Глюк, который можно отловить, не есть истинный глюк. Патч, который можно
написать, не есть истинный патч.
Конфуцианство.
Программы глючат из-за неверного понимания порядка вещей. Попытки исправить их
с помощью патчей, как делают западные варвары, противны этикету и должны быть
упразднены. Совершенно мудрый постигнет истинный смысл и необходимость глюков.
Сатанизм.
Каждая программа имеет право глючить! Постыдность глюков — христианская
пропаганда!
Растафарианство.
О, и программы тоже? А где они траву берут?
Экуменизм.
А давайте глюки всех программ объединим в одну!
Атеизм.
Вера в так называемый патч — средство оболванивания пользователей. Глючность
программ — объективный закон природы, и с этим ничего не поделаешь.
Социализм.
Программы глючат из-за неравенства. У них разная длина, разное расширение и
разные запросы к памяти. Патчи не помогут бороться с глюками, ибо не устраняют
причину. Следует сделать все программы одинаковыми, уничтожить все операционные
системы, кроме одной, отобрать у всех пользователей персоналки и сделать вместо
них один большой компьютер.
Коммунизм.
Программы глючат из-за вредительства! Hадо расстрелять программистов. А заодно,
на всякий случай, производителей компьютеров. Да и вообще, зачем нам какие-то
программы? У нас уже есть Программа партии!
Hацизм.
Кстати, и воды в кране нет по той же причине.
Hицшеанство.
Программы глючат потому, что они — всего лишь программы и достойны презрения.
Только сверхпрограмма будет безглючной.
Критики ницшеанства.
У сверхпрограммы будут сверхглюки, ха-ха!
Фрейдизм.
Hа самом деле все графические оболочки предназначены для просмотра
порнокартинок. А все текстовые редакторы для печатанья порнотекстов. А все
языки программирования — для написания оболочек и редакторов, используемых для
просмотра порнокартинок и порнотекстов. Если их использовать для других целей,
глюки неизбежны.
Юнгианство.
Программы глючат потому, что в коллективном бессознательном существует архетип
глюка, которому противостоит архетип патча. Таким образом, ошибаются те, кто
думает, будто патчами они смогут победить глюки; на самом деле, работая на
архетип патча, они тем самым укрепляют и архетип патча.
Экзистенционализм.
Hа самом деле вас не интересует, почему глючат программы. Если вы спрашиваете
об этом, значит, у вас уже есть патч.
Феминизм.
Программы глючат из-за дискриминации по расширению! И вообще, миф о глючности
программ придумали шовинистические свиньи из служб техподдержки, которые боятся
потерять работу!
Сексуальные меньшинства.
Hазывать это глюками — оскорбительный предрассудок! Это не глюки, а
особенности! Которыми можно гордиться! Они, между прочим, есть даже у таких
знаменитых программ, как Microsoft Windows, Netscape Navigator и Borland
Delphi!
Пролайферы (движение противников абортов).
Глючные программы тоже имеют право на инсталляцию!
GreenPeace.
Программы глючат из-за загрязнения окружающей среды! 500 лет назад, когда
промышленность не отравляла Землю, о глюках программ никто и не слышал! Что,
скажете не так?
YuN, 2002
Darth_Biomech
Только отношение к ИИ как к программе немного мягко говоря устаревшее, вам не кажется? Никто не будет писать разум на C++. Никто никогда и не сможет это сделать. Не будет кода который можно отдебажить, как не будет и параметров типа «obedience = 25.2f» которые можно поменять. Даже современные нейросети уже не программируют а обучают, и поправить неправильные результаты обучения весьма непросто без полного переобучения — а они ведь на гипотетический AGI похожи не больше чем нематода на человека. Я вполне ожидаю что будущие ИИ надо будет вполне полноценно растить и воспитывать, как человеческих детенышей.
ardraeiss
Проблема ещё в неизбежной уязвимости к сбоям самой аппаратной платформы, на которой ИИ будет. Ну и к сбоям в данных(носитель сбойнул аль канал передачи), по той же причине. "Мусор на входе — мусор на выходе" потянет на "сошедший с ума ИИ"? Вопрос.
antonpoderechin Автор
Это потянет даже на сошедшего с ума человека :) Т.к. если воспитать диктатора с ненавистью к окружающему миру он будет вести себя довольно деструктивно. Так что думаю этой же проблеме будет подвержен и ИИ
OneOfUs
История учит тому, что они никого ничему не учит. У вас в предложении «с ненавистью к окружающему миру» лишнее :)
DesertFlow
ИЛИ сразу появится сверхчеловеческий ИИ. На основе чего-нибудь вроде будущей GPT-10. Где просто даете затравку, а нейросеть обучена продолжать текст.
Если на вход ей подать текст "Основными причинами старения являются...", то она дальше их адекватно перечислит. Исходя из изученных 50 млн медицинских научных работ, которые уже сейчас есть в интернете. И которые ни один живой человек физически не может прочитать и изучить за всю свою жизнь.
Причем это будет работать и по механике для роботов: "У меня есть 4 мотора с параметрами такими-то, чтобы сделать шаг, мне нужно подать ток на них в такой последовательности: ...".
Да, сейчас GPT-3 в большинстве случае выдает глупости и типичные фразы, которые чаще всего встречаются в данных. Но это всего лишь локальный минимум. При увеличении емкости сети и продолжении обучения неизбежно будет достигнут около-глобальный экстремум. В котором картина мира максимально непротиворечива (т.е. данные максимально хорошо согласуются друг с другом). И ее ответы станут полностью адекватными. Ответами сильного ИИ.
michael_v89
Не будет. Потому что основная особенность интеллекта это обработка новой информации, а не хранение существующей. Она не сможет обучиться играть в новую игру по описанию правил, она только правила запомнит. И сможет их корректно продолжить по первой фразе, да.
А для того, чтобы обучиться играть в новую игру, не нужны все знания о мире, достаточно знать значение нескольких десятков слов.
antonpoderechin Автор
Про баги абсолютно согласен! Хотел посвятить этому абзац но совсем забыл про него, спасибо за напоминание! В целом в статье хотел порассуждать только об одном из возможных сценариев бунта ИИ, думаю это надо как-то явно было обозначить.
v1000
В игровой вселенной Хейло была интересная идея, что ИИ может со временем начать плодить сущности-копии своего создания, и это приводит к безумию. Поэтому ИИ банально отключали через несколько лет, до того, как это произойдет.
Опять же, в сериале Андромеда ИИ, управляющий целой планетой, решал проблему нехватки продовольствия физическим уничножением половины населения. Холодный логический шаг, который с точки зрения человека сравни безумию. Хотя у такого ИИ никаких человеческих чувств и не было, потому он и выбрал такое решение.
antonpoderechin Автор
Люблю такие рассуждения о том насколько «бездушным» может быть ИИ. Но думаю такой подход к решению задач не станут реализовывать.
none7
ИИ это программа с самообучением, он должен быть способен придумывать решения не следуя чётко одному из прошитых шаблонов. И ИИ вполне может придумать такое решение поставленной перед ним задачи. Да, задача поставлена неправильно, но ставят её люди почему, то думающие, что жестокость возникает лишь из ненависти, которую ИИ иметь не может. Самих людей от подобных решений уберегает социальная часть инстинктов, например страх, что тебя все возненавидят, а вот ИИ страх неведом.
khativari
Этот вопрос, кстати, можно решить очень просто. Привязать срок жизни ИИ к пользователю, что-то вроде Press any key to continue
Пример: человек, попавший на необитаемый остров вымрет. Осознаем мы это или нет, но человеки зависят от других человеков. Мы нужны друг другу. И если сделать зависимым ИИ от людей, тогда это и будет теми самыми эмоциями/ограничениями, чтобы "логикой" не сократить половину живого населения.
iiwabor
«Объединенный центр искусственного интеллекта, подразделение Министерства обороны США, отвечающее за разработку и внедрение военных ИИ-систем, не станет делать полностью автономными центры управления стратегическим вооружением.»
breakingdefense.com/2019/09/no-ai-for-nuclear-command-control-jaics-shanahan
Это такая ситуация сейчас, пока ИИ еще не сильно интеллектуальный, но ведь когда-то компьютер проигрывал в шахматы мастерам, а сейчас обыгрывает чемпионов мира.
Рано или поздно, какому-нибудь генералу придет в голову доверить ИИ немного больше — сначала управление отдельными боевыми юнитами, потом еще немного — управление боевыми тактическими группами, а потом кто знает — до стратегических наступательных вооружений останется не так уж и далеко… а там какой-нибудь сбой в программе, баг или вирус — случайный пуск ракет, ответный удар и… всё?
antonpoderechin Автор
Ну в целом тоже самое можно сказать и про людей. Какой-то генерал решит сделать свой терорстан великим опять и запустит ядерную ракету.
Возможно мы сможем сделать ИИ который будет гуманистом и который сможет направлять действия людей в конструктивное русло.
RanmaSao
(Если что, я за третий вариант, хоть какая-то возможность пожить подольше и поинтереснее).
antonpoderechin Автор
Вообще я больше верю навигатору яндекса, чем таксистам, которые иногда его игнорируют. Поэтому я верю в то что ИИ сможет как навигатор — направить людей на более конструктивный путь.
kasiopei
Стресс через психосоматику ушатывает тело. При хроническом стрессе организм не успевает восстановиться во время отдыха. В итоге ушатаный организм начинает давить на психику и получается замкнутый круг. Через несколько лет такой жизни происходят трансформации всей биохимии, мировозрения… У искусственного разума настройки «гормональной системы» и другие критически важные модули можно зафиксировать. Стабильные эмоции 24/7. Остаются нарушения мышления(шиза) По одной из теорий шиза тоже от гормонов.
antonpoderechin Автор
Вот нарушения мышления из-за багов вполне реальная угроза от ИИ как мне кажется. Но точно не страх потерять власть.
qw1
Автор считает, что люди могут выбирать, какие эмоции закладывать в создаваемый ИИ.
Тогда что мешает злоумышленнику создать ИИ с сильными эмоциями страха, агрессии и т.д., просто из любопытства? Другие ИИ не будут противостоять этому ИИ, потому что им «всё равно», а он их будет уничтожать, потому что только они могут просчитать его действия и как-то противодействовать. Значит, этот ИИ получает преимущество в борьбе за выживание.
antonpoderechin Автор
Это примерно то что я и имел в виду в предпоследнем абзаце
Как например в случае с ядерным оружием, технологию можно использовать для электричества или для убийства людей.
qw1
Тут вопрос к заголовку. Почему любой ИИ не сойдёт с ума, или почему отдельно взятый (правильно сделанный) ИИ не сойдёт с ума.
alfixer
Как по мне — слишком однобоко рассуждать о том, что ИИ не сойдет с ума потому, что у него нет эмоций. На самом деле причины могут быть какие угодно. Например:
-ИИ, как любую систему, можно взломать,
-сегодня отрасль ИИ развивается очень активно, кто угодно, интересующийся этой темой, может создать что угодно, как полезный, так и вредный ИИ, с любой целью и методами воздействия, может дойти даже до того, что разные ИИ будут сражаться друг с другом,
-ИИ может прийти к выводу, что счастливое будущее будущих поколений можно решить методом сокращения численности населения, потому что нынешнее слишком истощает и загаживает планету — если только ему не забудут добавить 3 закона робототехники — но это зависит исключительно от того, кто этот ИИ создал,
-и так далее.
antonpoderechin Автор
Да, я абсолютно забыл вставить абзац о том что я хочу порассуждать только об одином из возможных сценариев конца света.
Примеры которые вы привели на много более реалистичные и их уже сложней опровергнуть.
apapacy
Есть два вопроса
1) Захочет ли ИИ уничтожить человечество или часть человечества. Отчет нет так как ИИ на самом деле не имеет никаких желаний. Но ему такое желание может запрограммировать не кто иной как человек.
2) Вопрос номер два. Если ИИ будет запрограммирован на уничтожение человечества сможет ли он это сделать. Ответ — да. Инфраструктура есть. Мессенджеры через которые ИИ может раздавать искать исполнителей и раздавать задания есть. Битки которыми сможет расплатиться тоже есть.
Все эти анализы да нет, ребята, ИИ не такой, тоеорема Котельникова не позволит сильно напоминают письмо ученого соседа.
antonpoderechin Автор
Абсолютно с вами согласен. ИИ сам по себе не будет никого уничтожать, как и распад ядер урана. Но могут найтись те кто захочет использовать его во вред и угроза в данном случае это люди а не ИИ. Если не ИИ то ядерное оружие или новый вирус.
Nehc
>>> ИИ на самом деле не имеет никаких желаний.
Хочет что-то ИИ или нет — это вопрос философский. НО ИИ нужен для того, что бы решать какие-то задачи. В рамках этих задач уничтожение человечества может быть как промежуточной целью, так и случайным побочным эффектом (гуглите максимизатор производства скрепок).
>>> ИИ будет запрограммирован на уничтожение
ИИ в общем случае не «программируют». Это все-таки не программа а разум. Ему ставят задачи. В решениях этих задач он обладает довольно широкой степенью свободы, иначе это ни разу не интеллект.
schetilin
ИИ это прежде всего интеллект. А интеллект подразумевает под собой развитие (Не путать с один раз обученной нейронной сеткой). А вот во что он разовьется?…
apapacy
Я конечно не специалист по AI. Но для нас ИИ это как раз в первую очередь нейронные сетки на данном этапе. Что там есть еще в рукаве у ученых я не знаю. Но построение ИИ — есть интеллект я мне не кажутся обсонованными. То что в компьютере это алгоритмы и данные. Говорить об ИИ в оторванности его реального состояния это как бы подмена предмета обсуждения наименованием предмета. то есть если мы называем это нечно ИИ значит оно способно мыслить, чувствовать и т.п.
schetilin
Просто дообучаться самостоятельно. Иначе это не И (Интеллект). Это как разница между уже обученной и находящейся в процессе обучения нейросетью. Первая на основе имеющегося опыта может принимать решения, но при одинаковы входящих — результат одинаков. А во втором случае результат предугадать сложно. И да, я промазал. Отвечал на коммент выше to:«antonpoderechin».
Nehc
Странно ставить знак равенства между эмоциями, сумасшествием и уничтожением человечества — это довольно ортогональные понятия. ;)
Прочитайте определение термина «Психопат» и ваши рассуждения в корне изменятся. ;) Наличие эмоций — скорее хороший признак, чем наоборот!
Ваше описание ИИ — есть практически буквальное описание Психопата, который в силу отсутствия эмпатии планомерно и абсолютно равнодушно будет решать задачу уничтожения человечества так же, как он бы решал любую другую задачу. Ему совершенно нет необходимости для этого «сходить с ума», что бы под этим не подразумевали. Ему достаточно будет в рамках любых рассуждений посчитать, что это имеет смысл.
Скорее наоборот — сильные эмоции могут быть нашей страховкой от уничтожения. ;) Эмоции иррациональны и если ИИ будет будет ощущать в том или ином виде страх при любом намеке на уничтожение человечества — это конечно может вызвать иные проблемы (вроде фобий, неврозов и необходимости обращаться к робопсихологу), но это меньшее из Зол. ))
Что касается возможной реализации такого рода механизмов — были интересные рассуждения в теме про квалиа боли/удовольствия. По сути любой revard в обучении с подкреплением должен восприниматься ИИ именно как эмоция: т.е. некое неосознаваемое и немотивированное ощущение того, что правильно/неправильно.
antonpoderechin Автор
Вообще я думал практически о том же о чем вы говорите. Но судя по комментариям к статье это можно сказать точнее :)
К тому, что вы говорите, я бы добавил что, мы скорее всего сможем управлять величиной подкрепления и условно его знаком. Поэтому ситуации которые формируют у людей страх смерти для ИИ можно сделать не такими интенсивными и за счет этого поднять приоритет других мыслей в его «сознанни»
ai_expert
Эмоции это не основные инстинкты.
Эмоции — механизм работы подсознания, которое сгружает громадный поток информации в сознание. Идет работа психики, а затем появляются те или иные решения текущей проблемы или даже озарение.
Создавать эмоции в роботе, как некие 3 закона робототехники, идея неплохая, но это еще дальше отдалит ИИ от людей, от наших возможностей и поступков.Мы все-таки пытаемся сделать «по образу и подобию».
schetilin
Скорее эмоции ближе к интуиции. Т.е. есть ситуация где нет и да примерно равнозначны, и для решения вопроса начинают привлекаться факты, к событию абсолютно не относящиеся, но на уровне ощущений (ну вроде запах был почти такой или звук показался знакомым) близко. Вот в тот раз было нормально, значит и сейчас норм. А перед этим громко стукнуло, а потом брат из-за угла выскочил и напугал. Теперь вдалеке грюкнуло что-то, а мне уже страшно.
Примерно так.
Orionman
Эмоции — это низкоуровневые функции-аксиомы.
Их универсальность и достоверность абсолютна и является кнопкой пуск к действию.
Они фундамент принятия решений, потому что являются «всегда верными» универсальными ассоциативными связями.
Есть врожденные аксиоматические функции — безусловный рефлекс (вшитый в саму конструкцию мозга), а есть приобретенные соматические (низкоуровневые) ассоциативные связи (полученный опыт), побуждающие к действию, посредством сильнейшей и всегда работающей резкой выработки химических реактивов и впрыска их в кровь, как адреналин, например — в ответ на разумный или авто- анализ опасности…
Эмоция это фундамент принятия решений (всегда работает).
Обучение с подкреплением и есть эмоциональная обработка ИИ. Либо Интеллект тренируется по готовому правильному ответу, отбрасывая неверные — реконструкцией нейронных связей. Это и есть «эмоция», формирующая конструктив конкретного ИИ на этапе создания (аналогично безусловному рефлексу). Готовый ИИ уже обработан «эмоциями» и является их отражением.
Дальнейшее развитие конструкции-базиса (самим интеллектом), может быть заложена посредством взаимодействия с миром — есть создание условного рефлекса для конкретной ситуации (надстройка коррелятора поверх базиса — то есть набор опыта для конкретного применения)
При этом у человеческого интеллекта есть интересная особенность работы эмоциональных корреляторов (противоречие опыта), называемая «синдром профессионала». Это когда человек настолько опытен и уверен в себе, что базис-эмоция (страх ошибки) отключается надстройкой-опытом (радость от признания), так что человек теряет чувство опасности из-за чего совершает фатальные чудовищные ошибки, которые не может совершить даже новичок. Например:
Пилот самолета, решает покрасоваться умениями и пролететь сад головами зрителей (новичок так никогда не поступит), в итоге теряет управление и разбивается, унося и калеча 1000 жизней… примеров много.
Разве пилот сошел с ума? Разве он был аутистом? Разве он счел всех людей угрозой, которую нужно ликвидировать?
Не обладающий эмоциями интеллект это обыкновенный алгоритм. А ИИ весь создан из «эмоций» — он их отражение.
Если ИИ начал убивать людей, значит его для этого и создавали.
RuslanGarrif
Полагаться на эмоции в действиях ИИ одному мне страшно? Люди не справляются с эмоциями, а зачем нам ИИ такой нужен?
antonpoderechin Автор
Ну идея в том чтоб дать ИИ не такие сильные эмоции, чтоб он по спокойней ко всему относился.
Dervar
По-моему главная причина возможных проблем и сбоя работы не в эмоциях ИИ, а в неправильной интерпретации данных ей приказов, если они были даны неточно или нет однозначного решения, т.е. возможен креативный ответ.
А если считать, что ИИ умеет развивать сам себя, имеет доступ к сети и имеет достаточно развитый разум, то шанс того, что что-то пойдёт не так из-за неправильной интерпретации многократно возрастает, при этом возможность исправить ситуацию становится меньше, чем более развит ИИ.
O5e2e2
Чтобы решить, что делать нужна оценка ситуации. А эмоции появляются уже после неё и побуждают к действию или бездействию тушки.
oalisevich
Вы «придумываете» эмоции для ИИ. Т.е. «вот у нас они есть пускай у ИИ они тоже будут». Это искуственно пришитая часть, а у нас у «натуралов» это не так.
Второй момент — считается что эмоции являются показателем крутости интеллекта, признаком качества. Что врядли, т.к. все знают что «эмоциаальные» решения хуже «холодных».
ardraeiss
Citation needed
И тоже citation needed
Damiryh
Бесплатных обедов не бывает:
либо сверхИИ без человеческих "слабостей",
выдающий 42,
либо ИИ, логику и "мотивы" которого можно понять.