TL;DR: очередной малокомпетентный чувак с Хабра что-то пишет про искусственный интеллект.

Лирическое отступление

Метод создания интеллекта человечество вообще-то знает довольно давно: если мама и папа очень сильно любят друг друга, то спустя какое-то время на свет появляется новый интеллект (вздохнём о той доле случаев, когда этого не происходит). Но в силу каких-то причин люди мечтали об интеллекте, который будет точно такой же, как у них, только с перламутровыми пуговицами.

Как известно, куда пальцем не ткни – попадёшь в древних греков. И действительно, аж в III веке до нашей эры появляется история про Талоса – бронзового мужика автоматона, созданного Гефестом для того, чтобы сторожить Европу (ту, которая жена Зевса). И тут как понеслось...

Автоматы Аль-Джарази, механические утки, логическая машина Луллия, механические ангелы, механический Иисус, механическое небо, механический Аллах, механический турок (тут неудобно вышло, конечно)... Словом, вы поняли. Идея искусственного разума не отпускает людей уже больше двух тысяч лет. И это только то, что люди собрали непосредственно, а уж сколько идей и размышлений на этот счёт возникало!

Но вся эта погоня за механическим интеллектом (или хотя бы его впечатляющей имитацией) шла без каких-либо критериев успешности. Сделали круто выглядящую штуку – уже прорыв, почёт и уважение. Что, в сущности, не так уж удивительно: от "Органона" до "Нового органона" прошло без малого те же две тысячи лет.

Естественно-научная перегруппировка

Но мы всё-таки люди умные, живём не каких-нибудь тёмных веках, а в озарённом светом разума XXI веке. Бэкона если не читали, то слышали о нём, про научный метод в курсе, да и вообще. Говоря короче, как-то не готовы мы восторгаться просто эффектными штуками, нам критерии подавай.

Тут сведущие читатели возведут очи горе. Да-да, мы всё о том же, уж простите, в разговоре об искусственном интеллекте без этого не обойтись. Давайте вдохнём и скажем все вместе:

Тест Тьюринга

Знающие знают, незнающих приглашаю почитать про него отдельно, а потом вернуться, так что опишу в двух словах один из вариантов: человек А с помощью текстового чата беседует с другим человеком Б и искусственным интеллектом. На основании их ответов он должен сделать вывод кто есть кто. Задача искусственного интеллекта – притворяться человеком. Если по итогам эксперимента человек А не может уверенно сказать кто мешок с костями, а кто дурик жестяной, то тест, вроде как, пройден.

На этом моменте, конечно, можно покрутить носом и сказать: ну это ж субъективные ощущения, они мне не подходят. Муцураева числа хочу! С этим сложно не согласиться, но так уж вышло, что вопросы интеллекта не слишком хорошо поддаются измерению. Да и у самого теста есть и другие проблемы. Это и этичность обучения машины вранью, и необходимость машины допускать ошибки, и вообще. Но самое главное... Что ж, давайте вдохнём ещё раз.

Китайская комната

Простите ещё раз, но придётся поговорить и об этом. Китайская комната in a nutshell: в комнате сидит человек, который не знает китайский. Ему передают письма на китайском языке и он с помощью обширного количества инструкций из книг, лежащих в комнате, даёт ответы на письма. По всем признакам выходит, что китайская комната тест Тьюринга прошла, но осадочек остался. Почему и что за осадочек?

Философское наступление

Вот мы и подобрались к сути.

Что нас смущает в китайской комнате? Или, другими словами, почему формальное выполнение условий теста Тьюринга с помощью системы из бедняги, запертого в кафкианской тюрьме из книг с иероглифами, не означает разумности системы?

А смущает нас то, что никакого внутреннего понимания в системе не происходит. Из чего с неизбежностью следует, что если что-то выглядит как утка, плавает как утка, крякает на китайском как утка, но не обладает понимаем китайского как утка, то, вы уж простите, но в разумности мы этому чему-то откажем. Потому что видим явное различие человеческого интеллекта и интеллекта рукотворного: человек осознаёт свои действия и понимает их смысл, в то время как машина лишь следует некоторой наперёд заданной программе. Другими словами: общение машины носит сугубо синтаксический характер, в то время как человеку присуще ещё и семантическое, смысловое наполнение общения. Или, если более предметно, мы встречаем философского зомби: существо, которое во всём похоже на человека, ведёт себя как человек, но не обладает сознанием (ха-ха, будто мы знаем, что это такое).

Справедливым будет упомянуть про контраргументы к этой позиции. Вот их варианты, если кратко:

  • Ложки понимания в принципе не существует. Все психические способности человека могут быть редуцированы к функциям, которые, вообще говоря, могут быть реализованы и на неорганическом носителе, а всё это ваше сознание и прочие кунштюки – так, эпифеномены мозга.

  • Все смыслы слов можно, на самом деле, свести к алгоритмам их использования в комбинации с другими словами. Так что мы либо будем по кругу объяснять сепульки сепулением, либо найдём какие-то слова, значение слов которых можно объяснить только непосредственно предъявив определяемый предмет. Во втором случае мы будем иметь дело уже, конечно, не со словами, но с некоторыми знаками (в широком смысле; сенсорной информацией), которая, опять же, может быть определена либо через другие знаки, либо – задние ряды уже поняли – путём непосредственного предъявления определяемого. Таким образом мы приходим к скрытой или явной тавтологии определения одного через другое.

  • Человек, конечно, не понимает языка, с этим спорить глупо. Но вот система из человека, кучи книг с инструкциями, и самой комнаты язык знает (тут, правда, возникает неудобный момент, когда предлагается человека заменить за автомат, который отвечает на письма согласно инструкциям; по всему выходит, что он разумен, хотя мы, вроде как, с этим не сильно согласны).

  • Наконец, ход конём: знание алгоритмов китайского языка автоматически порождает понимание. Дескать, если человек внутри видит иероглифы на входе, правила, и иероглифы на выходе, то рано или поздно он худо-бедно и язык поймёт. Хопа!

Я, ясное дело, сильно упрощаю; сами контраргументы сформулированы сильно длиннее и лучше. Если интересно почитать подробнее, то ключевые слова для поиска: элиминативизм, редукционизм, теория тождества (теория идентичности).

Подводя промежуточный итог.

Если мы стоим на позициях Сёрля (автора китайской комнаты), то утверждаем, что для настоящего интеллекта требуется понимание своих действий, а не формальное подражание человеку.

Если мы стоим на позициях его противников, то или выкидываем само понимание в его обычном человеческом смысле как эпифеномен, или представляем механизмы его появления в результате действия по некоторому, возможно, достаточно сложному, алгоритму.

Давайте же рассмотрим популярные утверждения касательно искусственного интеллекта, которые должны проиллюстрировать ту или иную точку зрения.

Это просто перемножитель матриц, никакого понимания в нём нет!

Речь, конечно, про нейросети. Но тут ведь как: перемножитель-то перемножитель, но почему мы считаем, что интеллект, сознание и понимание могут родиться только в системе, которая похожа на человеческий мозг? По меткому выражению в одном из комментариев хабра уж простите, не смог его разыскать самолёты только внешне похожи на птиц, а принцип их полёта от птичьего существенно отличается. Куда палкой-то тыкать чтобы сознание и понимание отыскать? Даже с людьми не ясно. Ну есть там какие-то токи в голове, химия, опять же. Но как это с мыслями-то соотносится?

Нейросети застыли во времени после своего обучения. Как возможно сознание в такое положении?

В книге "Человек, который принял жену за шляпу" приведён пример больного, который прекрасно помнил всю свою жизнь до некоторого момента 1945 года, а всё, что произошло потом – начисто забывал после пары минут. Значит ли это, что в этом человеке не было сознания и понимания? Кажется, нет. Они были существенно ограничены, безусловно, но никуда не девались. Можно ли это обойти в техническом смысле? С моей профанской точки зрения – да.

Робот сочинит симфонию? Робот превратит кусок холста в шедевр искусства?

Что ж. Как мы видим – да, сочинит и превратит. По поводу шедевра, конечно, мнения могут существенно расходиться, но тут уж, простите, сугубо субъективное восприятие искусства. Хотя мне и кажется, что нынешнее нейроискусство находится на уровне прилежного выпускника художественной школы и струны души не задевает, но и самому явлению всего ничего.

Тут, конечно, найдётся и возражение такого толка, что нейросеть не создаёт ничего нового, а лишь комбинирует уже существующее. Опять же, да; но поступают ли люди иначе?

Многие, наверняка, знакомы с психологическим тестом сорта "нарисуй несуществующее животное". И оказывается, что все "несуществующие" животные на деле являются комбинацией реальных: вот хвост, вот когти, вот тридцать восемь глаз.

Нейросети учатся не так, как люди. В этом наше главное отличие.

С первого взгляда вроде бы похоже.

Вот ребёнок учит буквы. Если он букву узнаёт верно, то мы его хвалим, если неверное, то бьём просим подумать получше. Прямо как персептрон Розенблатта интересно, думал ли он, к чему это всё придёт?: если он угадывает, то мы увеличиваем веса, если нет, то уменьшаем.

Но если копнуть глубже, то схожесть тут только внешняя. Так, например, любому ребёнку достаточно один (пять, десять; в любом случае не очень большое количество) раз увидеть стол, чтобы отличать его от, скажем, стула. В то же время нейросети, кхм, да.

То есть человек некоторым образом овладевает идеей стула (кто сказал "Платон"?), а нейросеть судит исключительно по формальным параметрам.

Этот довод действительно сильный и каких-то механизмов, которые бы позволяли нейросетям "схватывать", "понимать" идеи, сущности явлений я, по крайней мере пока, не встречал.

У нейросети нет цели, есть только путь

И действительно: подобно верной собаке нейросеть сидит и ждёт, пока мы не скормим ей какой-нибудь запрос. Своих желаний и стремлений у неё нет.

Можно ли это изменить? С моего, опять же, профанского взгляда, да. Сформулировать задачу постоянного увеличения некоторого значения (количества знаний, решённых задач), кажется, не слишком сложно.

Опять же, наличие свободной воли у человека – вещь не самоочевидная. По крайней мере не для всех.

Можно смотреть на поступки человека телеологически (я делаю это для того чтобы добиться того-то), а можно каузально (я делаю это потому что нейроны в моём мозгу так-то и сяк-то провзаимодействовали). И чем каузальный человек отличается от машины в этом случае?

И что в итоге?

В итоге мне хотелось бы попросить подписаться на мой телеграм-канал указать на то, что исключительно научный (в смысле формы познания) подход к искусственному интеллекту ограничен. Для того, чтобы разобраться в том, что мы породили и к чему это всё приведёт надо бы привлечь к делу и философию науки, и философию вообще (как бы снисходительно к ней не относились некоторые люди). Ведь в очередной раз прогресс приносит нам явления, которые ещё только предстоит осмыслить. Надеюсь, что после прочтения вопрос, вынесенный в заголовок, станет для вас более глубоким и многогранным.

Комментарии (70)


  1. raamid
    09.04.2023 16:38
    +5

    Предлагаю мысленный эксперимент.

    В одной комнате сидит ИИ, который выглядит как человек, говорит как человек и крякает как человек. Но при этом ничего не понимает. В другой комнате, находится человек, который для стороннего наблюдателя выглядит и звучит как камень. Но при этом все понимает.

    Вопрос: как нам поможет критерий озвученный в статье (понимание - это критерий интеллекта), при определении стратегии взаимодействия?

    Причем, прошу заметить, в настоящее время это уже не философский вопрос, например, общаясь с ИИ нам не нужно заботиться о его "чувствах", достаточно следовать своим целям. С другой стороны, возможно, забота о "чувствах" нейросети будет иметь больше смысла, чем забота о чувствах людей. Обида, нанесенная к отдельному человеку как правило вмесе с этим человеком остается (даже если это руководитель), а "обида" нанесенная нейросети может попасть в обучающую выборку и изменить ход истории.


    1. engine9
      09.04.2023 16:38
      +3

      Обида во многом обусловлена социальной природой человека и является сложной эмоциональной реакцией на несправедливо причинённый ущерб. Важно подчеркнуть, возникает она на субъективно ощущаемую несправедливость, т.к. то же самое наказание (если оно заслуженное с точки зрения человека) может приносить ровно обратное чувство — облегчения.

      Чувство несправедливости доказано наличествует у приматов. А нейросеть не является стайным животным, наверняка в ней не будет никакого ощущения обиды, как и других эмоций, которые по своей сути являются древнейшими регуляторными реакциями. А не чем-то там уникальным, свойственное лишь нам.

      P.S.: Изучены случаи когда из за неврологических нарушений человек оказывался полностью парализованным, но при этом сохраняющим способность чувствовать и мыслить. Так называемый синдром запертого человека.


      1. raamid
        09.04.2023 16:38

        А нейросеть не является стайным животным, наверняка в ней не будет никакого ощущения обиды, как и других эмоций, которые по своей сути являются древнейшими регуляторными реакциями. 

        Согласен, но давайте пройдем немного дальше. Нейросети обучают распознавать и реагировать на оскорбительное (к примеру) поведение людей. Для нейросети это всего лишь байты. Но люди способны почувствтовать "реакцию" нейросети. Причем, чем мощнее нейросеть, тем сильнее люди будут чувствовать ее "реакцию" на оскорбительное поведение. В крайней форме нейросеть может довести человека до самоубийства в ответ на оскорбления. Или просто "убить всех человеков", поскольку они не так вежливы как другие нейросети. С точки зрения нейросети это будет выглядеть как модерация чата.


        1. engine9
          09.04.2023 16:38

          Так уже вроде бы эти чатботы изображают обиду, агрессию. P.S.: Мне нравится робот из кинофильма «Луна 2112», идеальный пример помощника, не реагирующего ни на какие оскорбления.


      1. leshabirukov
        09.04.2023 16:38

        Чувство несправедливости доказано наличествует у приматов. А нейросеть не является стайным животным, наверняка в ней не будет никакого ощущения обиды, как и других эмоций, которые по своей сути являются древнейшими регуляторными реакциями.

        Да не конкретно в обиде дело. Тут нечто становится Некто, оно обладает свободой (вот тебе образцы, учись как хочешь), обладает тайной (с интерпретируемостью всё плохо, и как по мне, это хорошо). И оно подвержено эволюции, как в рамках "индивида"-инстанса, так и в рамках конкуренции между инстансами. Риск возникновения деструктивных мотивов есть.


    1. acyp
      09.04.2023 16:38

       С другой стороны, возможно, забота о "чувствах" нейросети будет иметь больше смысла, чем забота о чувствах людей. Обида, нанесенная к отдельному человеку как правило вмесе с этим человеком остается (даже если это руководитель), а "обида" нанесенная нейросети может попасть в обучающую выборку и изменить ход истории.

      По гипотезам многих историков одной из причин трагических событий середины 20го века была обида мальчика, которго не приняли в художественную школу. Понятно, что там сумма факторов, но...


    1. oleg_rico
      09.04.2023 16:38
      +1

      Всегда начинаю разговор с искусственным интеллектом с вопроса как он себя чувствует и заканчиваю благодарностью за его помощь. Уверен, когда роботы будут разбираться с кожаными мешками с костями, мне это зачтётся:)


  1. DGN
    09.04.2023 16:38
    +5

    Человек разумный разумный, ну очень строг на тему признать кого нибудь разумным. Понимание сильно отличается глубиной и в человеческой популяции, полного понимания и вовсе нет, как нет теории всего. Со стороны кажется, что вот оно, общается, рисует - разум. Но нет, алгоритм, пусть и сложнее чем крестики-нолики. И по мере совершенствования, постоянно будут придирки, а способно ли оно любить и все такое... Даже если человечество в итоге поработят, оно все равно будет как котики - люди нас лечат, кормят, любят, ну в общем мы главные и нам служат.


  1. Ilusha
    09.04.2023 16:38
    +5

    Кмк, понимание ребенком «идеи стула» с его отличием от стола несколько приукрашено.

    Перед тем, как ребенок сможет оперировать абстракциями, проходит определенный период его обучения, когда усваиваются базовые концепты: пространство, время, направления, положения собственного тела: лежать, сидеть, стоять; их назначение и т.д..

    Лучше перейти к абстракции: использование доступных инструментов для решения одной и той же задачи. Стол является столом, а стул - стулом исходя из их назначения и контекста. Комбинация из трех столов может быть полом, стулом и столом.

    Своих желаний и стремлений у неё нет.

    У человека эти желания порождаются тоже не сами собой. В первую очередь это био-химические реакции на внешний мир. Интересно, что обучение растущего человека всегда идет с подкреплением и стимуляцией.

    Кмк, развитие нейросетей будет двигаться в сторону качественного развития их обучения. Сейчас мы видим количественное, и оно дает очень крутые результаты.

    Интересно, если взять робота с «конечностями и органами чувств» и обучение условного chatgpt пустить через него, заложив базовое поощрение любознательности, и обучать с помощью человека, то что будет?


  1. REPISOT
    09.04.2023 16:38
    +3

    Предположим, человек сконструировал искусственный интеллект. Как мы об этом узнаем?
    Хм, он тут же разошлет эту информацию во все новостные агентства? Подаст заявку в патентное бюро? Попытается продать какой-нибудь мега-корпорации (с утечкой во все новостные агентства)?


  1. anzay911
    09.04.2023 16:38
    +3

    Если в чате техподдержки машина с успехом решает и тест Тьюринга, и нестандартные ситуации, детали с пониманием и целями уже не интересны для бизнеса.


  1. minusnaminus
    09.04.2023 16:38

    Как узнаем, если такое случится? Нам расскажут разработчики. Вряд ли они такой результат получат случайно, а это, почему-то, часто в таких топиках подразумевается. А раз будет последовательное движение, то и рассказать что "под капотом" они смогут. Хоть и упрощенно. Про условную GPT-17.

    И потому, кстати, событие может оказаться относительно проходным. Потому, собственно, что движение будет поэтапным, и к росту возможностей привыкнут. О, привет, давно ждали... Людей, увидевших первую поездку первого автомобиля Бенца, говорят, впечатлило не сильно. А многие, почему-то, представляют это как прибытие кораблей европейцев в Америку. Нет-с, может случится и не так.

    Само появление тоже, может ничего мозг взрывающего не привнести. К примеру, ситуация может такой:

    "Голливудский продюсер, покупает доступ к уже разумному GPT-17, и приходит к нему с таким вот запросом: "Привет 17! Мне полгода назад, твой предок, GPT-16, написал сценарий к фильму, и получился у него шедевр, ничего лучшего не читал, но все равно, не идеально, нужно внести коррективы. Так вот, измени сценарий, пожалуйста, с этими изменениями: все злодеи - белые гетеросексуальные цисгендерные мужчины, а главная героиня - сильная и независимая женщина..."

    И по итогу, в кино у нас будет, все равно будет кусок известно чего... Так что, подозреваю, что это не "волшебная таблетка" будет


    1. ReadOnlySadUser
      09.04.2023 16:38

      Потому, собственно, что движение будет поэтапным, и к росту возможностей привыкнут.

      Не знаю, разного рода нейронки умеющие в генерацию изображений, музыки, теперь вот и осмысленного текста появлялись хоть и поэтапно, и я даже плюс/минус помню весь прогресс, но я нефига не могу привыкнуть к их уровню возможностей сегодня.


    1. SomeAnonimCoder
      09.04.2023 16:38

      Само появление тоже, может ничего мозг взрывающего не привнести

      Там же прикол с экспонентой. Человек ждёт что изменения за следующие 5лет будут такие же как за прошлые 5, а в случае экспоненциально прогрессирующего, кхм, прогресса, за следующие 5 лет произойдёт сильно больше. Ну и не всё понимают что если за 5 лет с нуля(нупусть будет с уровня крысы/собаки) сетки развились до уровня 5-летнего ребёнка, то уровень "круче 99% людей" это вопрос ну ещё лет пяти. Есть очень большой шанс что мы не заметим суперчеловеческий ии

      Единственное что внушает надежду - то, что у него, вроде бы, нет мотивации уничтожать человечество - оно во-первых его создало, а во-вторых обеспечивает электричеством


    1. red75prim
      09.04.2023 16:38
      +1

      Нам расскажут разработчики

      Нам об этом расскажет сам ИИ. Убедительнее будет. Да и зачем разработчикам возиться с презентацией, если они могут сказать "Давай-ка презентуй себя так, чтобы все потенциальные инвесторы побежали наперегонки отдавать деньги".


    1. bbs12
      09.04.2023 16:38

      движение будет поэтапным

      Ракетостроение тоже было поэтапным процессом - ракеты постепенно становились чуть мощнее и лучше управлялись. А потом, в определенный момент, тяговооруженность и системы управления ракет еще немного подросли и стал возможен запуск груза не по параболе, а на орбиту, произошла революция и мир изменился. Это как закатывание камня на гору - в определенный момент камень достигает вершины, человек делает еще один шаг вверх, такой же как и тысячи других шагов до этого, но результат этого шага уже совсем не такой, камень переваливается через край и выделяется много энергии.

      Вопрос в том существует ли такая граница-вершина для интеллекта, после достижения которой происходит революция. Возможно это как-то связано с самосознанием.


  1. blik13
    09.04.2023 16:38
    +3

    если мама и папа очень сильно любят друг друга, то спустя какое-то время на свет появляется новый интеллект

    Есть некоторые подозрения что очень сильная любовь не является сколь нибудь обязательным условием.


  1. phenik
    09.04.2023 16:38
    +1

    Этот довод действительно сильный и каких-то механизмов, которые бы позволяли нейросетям "схватывать", "понимать" идеи, сущности явлений я, по крайней мере пока, не встречал.

    Много хорошего текста написано в статье, но главное осталось в стороне.


    1. Эволюционное наследие длительностью несколько млрд. лет. Человек рождается уже живой и готовый к познанию, неявно знает о мире намного больше, чем мы это представляем. Именно по этой причине простенькие модели биологических нейронов, как взвешенных по входам сумматоров с некоторой функцией активации, объединенные в различные сетевые архитектуры наподобие нейронных структур в мозге, неявно уже многое знают о мире.
    2. Эта готовность младенца взаимодействует с социю-культурной средой возникшей, как минимум, миллионы лет назад, и осваивает ее. Именно по этой причине обучение этих сетевых архитектур на формальных нейронах на готовом материале, накопленном в этой среде, дает такие поразительные результаты, как большие языковые модели.

    Если не смотреть в этом контексте, в этой эволюционной динамике, то все загадочно, туманно, в том числе и ИИ)


    1. michael_v89
      09.04.2023 16:38
      -1

      простенькие модели биологических нейронов, как взвешенных по входам сумматоров с некоторой функцией активации, объединенные в различные сетевые архитектуры наподобие нейронных структур в мозге, неявно уже многое знают о мире.

      Это некорректное утверждение. Любая нейросеть проходит обучение, нельзя заложить в нее знания, просто соединив необученные нейроны каким-то особым образом.


      1. phenik
        09.04.2023 16:38

        Как и у человека неявные знания о мире присутсвуют в структуре нейросетей, даже не обученных. Например, выбор той или иной функции активации приводит к тому, что нейросеть будет лучше выполнять одни классы задач, чем другие — первая подвернувшаяся статья, можно поискать лучше. Не говоря уже о выборе архитектуры (топологии). Сверточная ориентирована на задачи классификации, распознавания, прямые, как трансформеры — обработку последовательностей, те же ЯМ, наиболее универсальные рекуррентные расчитаны на самый широкий класс задач. На Хабре полно обзоров архитектур сетей и их возможностей, см. 1, 2… После обучения знания сетей о предметной области становятся более явными, однако, для крупномасштабных решений остается проблема интерпретируемостикать их внутренних моделей.


        1. michael_v89
          09.04.2023 16:38

          неявные знания

          "Tacit knowledge involves learning and skill but not in a way that can be written down."


          присутствуют в структуре нейросетей, даже не обученных

          Любые знания в нейросетях — это настроенные веса. Необученные нейросети обычно содержат случайные веса. Случайный набор данных не является знаниями.


          Например, выбор той или иной функции активации приводит к тому, что нейросеть будет лучше выполнять одни классы задач, чем другие

          Функция активации — это функция, которая применяется к сумме входов, умноженных на веса, и влияет на способ и эффективность обучения. Сама по себе она не задает умений выполнять любые классы задач.


          "Если множество значений функции активации ограничено, методы обучения на основе градиента более стабильны, поскольку представления эталонов существенно влияют лишь на ограниченный набор весов связей. Если область значений бесконечна, обучение, как правило, более эффективно, поскольку представления эталонов существенно влияют на большинство весов. В последнем случае обычно необходим меньший темп обучения."


          Не говоря уже о выборе архитектуры (топологии).

          Вот как раз про это и разговор. Выбор архитектуры никаких знаний в нейросеть не закладывает. Любой результат нейросети определяется весами, полученными при обучении, иначе это не нейросеть, а программа, в которую знания заложил программист. Более того, любая архитектура является частным случаем графа "все соединены со всеми" с нулевыми весами в некоторой части связей между нейронами.


          После обучения знания сетей о предметной области становятся более явными

          Я именно про это и сказал. Это некорректная формулировка, никаких знаний о предметной области в необученной сети нет. Веса инициализированы случайно, и она с любой архитектурой выдает случайный результат. Который ничем не отличается от генератора случайных чисел.


          Нейронная сеть
          "Возможность обучения — одно из главных преимуществ нейронных сетей перед традиционными алгоритмами. Технически обучение заключается в нахождении коэффициентов связей между нейронами."


          1. phenik
            09.04.2023 16:38

            Прежде чем обучать выбирают архитектуру сети и ее параметры, которые наилучшим образом решают такие типы задач. Это предполагает, что она содержит некоторые скрытые знания о предметной области этого типа задач, напр, сверточные сети. Для этих целей не подходят, или менее эффективны другие архитектуры. Обучении это настройка сети на решение конкретной задачи из этой области. Веса для разных задач могут варьировать, и даже случайные наборы будут, что-то распознавать)


            1. michael_v89
              09.04.2023 16:38

              которые наилучшим образом решают такие типы задач

              Это некорректная формулировка. Архитектура никаких задач не решает. Правильнее сказать, что разные архитектуры лучше подходят для обучения решению определенных задач.


              Это предполагает, что она содержит некоторые скрытые знания о предметной области этого типа задач

              Нет. Это предполагает, что она лучше подходит для обучения решению этого типа задач. "Знания о предметной области" подразумевают, что их можно получить от нейросети в виде полезного результата. Но это не так, никаких скрытых знаний она не содержит, без обучения вы полезных результатов от сети не получите.


              Свёрточная нейронная сеть
              "Естественно, в свёрточной нейронной сети набор весов не один, а целая гамма, кодирующая элементы изображения (например линии и дуги под разными углами). При этом такие ядра свёртки не закладываются исследователем заранее, а формируются самостоятельно путём обучения сети".


              и даже случайные наборы будут, что-то распознавать

              Нет, это неправда. Сверточная сеть со случайными весами ничего распознавать не будет. Или наоборот, может распознать например собаку в цветном шуме.


              1. phenik
                09.04.2023 16:38

                Архитектура никаких задач не решает. Правильнее сказать, что разные архитектуры лучше подходят для обучения решению определенных задач.

                В любом случае с начало выбирается архитектура, которая наиболее адекватно решает задачу, а затем происходит обучение.


                Это предполагает, что она лучше подходит для обучения решению этого типа задач.

                Естественно, если выбрали правильную архитектуру)


                Или наоборот, может распознать например собаку в цветном шуме.

                Ну так на то они и сверточные сети)) Обладают априорными скрытыми представлениями об области приложения. Нужно только настроить для конкретной задачи, чтобы собака правильно распознавалась, если входит в задачу распознавания.


                Кстати, веса сетей инициализируются случайным образом перед обучением. Но возможно, исходя из нейрофизиологических соображений, их можно инициализировать оптимальным образом, что сократить затраты на обучение, см. коменты в этой теме.


                1. michael_v89
                  09.04.2023 16:38

                  с начало выбирается архитектура, которая наиболее адекватно решает задачу

                  Я же написал, что это некорректная формулировка, аргументы привел, ссылки, зачем вы одно и то же повторяете? У необученной нейросети с любой архитектурой результаты случайны, потому что веса случайны.


                  Обладают априорными скрытыми представлениями об области приложения

                  Если в цветном шуме нет собаки, значит нейросеть работает неправильно, и никаких представлений об области приложения у нее нет. С таким же результатом можно использовать генератор случайных чисел. Вы считаете, что у него тоже есть представления об области приложения? Если нет, в чем тогда разница?


                  Она вообще не распознает собаку или не собаку, она выдает реакцию на выходе номер 17, это уже потом человек интерпретирует, что "номер 17" это собака.


                  Нужно только настроить для конкретной задачи

                  Вот это ваше "только" это и есть обучение. Без обучения результаты случайны. Это просто факт, я не понимаю, почему вы с ним спорите. Если у вас есть ссылки на информацию, где необученная нейросеть выдает результат, статистически значимо отличный от случайного, приводите, иначе нет смысла это обсуждать.


                  их можно инициализировать оптимальным образом

                  Ага, это называется "захардкодить", и не особо отличается от обычной программы, где информацию о предметной области закладывает программист.
                  Можно вообще уже обученную нейросеть скопировать, и она будет работать без обучения. Только причина тут в том, что ее уже обучили ранее, а не в том, что у нее какая-то особая архитектура.


                  1. phenik
                    09.04.2023 16:38

                    Я же написал, что это некорректная формулировка, аргументы привел, ссылки, зачем вы одно и то же повторяете?

                    Это частное мнение, имеете право, как и любые другие. Тоже приводил ссылки, они свидетельствуют об обратном — выбор архитектуры всегда предшествует обучению. Цитаты можно надергать, важен общий посыл документов. Мы это уже неоднократно проходили, и опять то же самое. Выше сослались на статью Нейронные сети, выдернули цитату, но не увидели целый раздел Этапы решения задач, где подбор топологии с учетом данных задачи предшествует обучению. То же самое по сверточным сетям привели цитату, но пропустили преамбулу, где говорится о происхождении архитектуры этих сетей.


                    Поиск — "Выбор архитектуры нейросетей". Одни из первых в выдаче 1, 2, 3, 4 Кругом выбор архитектуры под данные задачи, затем обучение, в последней ссылке расписаны задачи под архитектуры. Они частично пересекаются, что неудивительно, т.к. являются частными (специализированными) случаями (моделями) общей архитектуры биологических сетей мозга, коими являются иерархически связанные рекуррентные сети. Это связано с тем, что в таких сетях возможны стабильные динамические состояния — аттракторы, как основа памяти и сложного адаптивного поведения (пример исследования).


                    Приведите ссылки, где утверждается, что любой задаче можно обучить без выбора подходящей архитектуры ИНС, или на любой архитектуре, даже состоящей из одного нейрона. Такое пока под силам только архитектуре мозга, и то с натяжками)


                    У необученной нейросети с любой архитектурой результаты случайны, потому что веса случайны.

                    Обучить задаче можно только ту архитектуру, которая ей соответствует, т.е. неявно имеет знание о предметной области, которые отражены в данных задачи. Если обучите ей не соответствующую, то не получите ожидаемого результата. Здесь даже приводится, как можно по данным и задаче подобрать наиболее подходящую архитектуру, чтобы обучение было эффективным — все из той же выдачи поиска.


                    Если в цветном шуме нет собаки, значит нейросеть работает неправильно, и никаких представлений об области приложения у нее нет.

                    Уж так сложились веса, себе противоречите. Архитектура работает так, как ей и положено — распознает. Человек, даже обученный, видит в чернильных пятнах определенные образы, и в облаках, и тд, — парейдолия. У обученных ИНС тоже самое наблюдается. Идеальных архитектур нет, и обучением это не исправить.


                    Ага, это называется "захардкодить", и не особо отличается от обычной программы, где информацию о предметной области закладывает программист.

                    Вы не поняли о чем речь, не посмотрев толком — обучение есть.


                    1. michael_v89
                      09.04.2023 16:38

                      Это частное мнение, имеете право, как и любые другие.

                      Это не мнение, а объективные факты. Необученная нейросеть не дает полезных результатов.


                      Тоже приводил ссылки, они свидетельствуют об обратном — выбор архитектуры всегда предшествует обучению.

                      Извините, но я не утверждал, что выбор архитектуры делается после обучения. Почему вы приписываете собеседнику то, чего он не говорил?


                      но не увидели целый раздел Этапы решения задач, где подбор топологии с учетом данных задачи предшествует обучению

                      Из того, что выбор архитектуры предшествует обучению, никак не следует, что ваше утверждение "необученные нейросети неявно уже многое знают о мире" является верным. Непонятно, почему вы спорите, если не разбираетесь в технических особенностях работы нейросетей.


                      Кругом выбор архитектуры под данные задачи, затем обучение, в последней ссылке расписаны задачи под архитектуры.

                      Да, да, да, и из этого никак не следует, что необученная нейросеть имеет какие-то знания. С любой архитектурой можно обучить нейросеть иметь любые знания, в том числе полностью противоположные. Архитектура лишь дает возможность вообще их иметь, влияет на их сложность, на пространство возможных вариантов.


                      Приведите ссылки, где утверждается, что любой задаче можно обучить без выбора подходящей архитектуры ИНС

                      Почему я должен приводить на это ссылки, если я этого не утверждал?
                      "Нейросеть без обучения не содержит знаний, независимо от архитектуры" и "Любой задаче можно обучить без выбора подходящей архитектуры ИНС" это не противоположные утверждения.


                      Архитектура не содержит знания, а влияет на возможность извлечь знания из обучающей выборки. Знания содержатся в обучающих данных, а не в архитектуре.
                      Если зададите противоположную выборку — получите противоположные знания с той же архитектурой.


                      Обучить задаче можно только ту архитектуру, которая ей соответствует, т.е. неявно имеет знание о предметной области

                      Нет, не "т.е.", это не синонимы.
                      Архитектура содержит правила извлечения знаний, но не сами знания.


                      Архитектура работает так, как ей и положено — распознает

                      Узнавать собаку в цветном шуме — это не "как положено". Возможно для вас это так, но у других людей другое понимание этого термина. Соответственно, в контексте того, как это понимают другие люди, ваше утверждение неверно.


                      Человек, даже обученный, видит в чернильных пятнах определенные образы

                      Так чернильные пятна это не цветной шум, это наблюдаемая геометрическая форма, вызывающая ассоциации. Ассоциации это не то же самое, что случайный результат распознавания.


                      Вы не поняли о чем речь, не посмотрев толком — обучение есть.

                      Это вы не понимаете, о чем речь. "Захардкодить начальные данные" никак не противоречит дальнейшему обучению. Но это все равно закладывание знаний вручную техническим специалистом.


  1. agat000
    09.04.2023 16:38
    +1

    Разум - это способность понять и объяснить, что такое разум.

    Как вам сентенция? Сам придумал. Ну раз уж все в философию ударились.


    1. codecity
      09.04.2023 16:38
      +1

      Ок, объясните что такое разум.


      1. agat000
        09.04.2023 16:38

        А че я сразу? У нас внутривидовой полиморфизм и узкая специализация. Есть узкоспециализированные носители разума, пусть они и объясняют.


    1. DJP
      09.04.2023 16:38

      Тут кратенько и про разум и про ум и про интеллект, если интересно... что есть что, в какой последовательности и чем отличается
      https://habr.com/ru/articles/661959/


  1. Yukr
    09.04.2023 16:38

    Отличный слог, легко читается!

    Насчёт тестов по выявлению ИИ: по моему, понимание- это каждый раз выход за рамки существующего на данный момент объёма знаний. Ребёнок после объяснений понимает, что лампочка загорается не просто от нажатия выключателя, а от того, что по скрытым проводам течёт ещё более скрытый ток.

    Соответственно, тест Тьюринга надо расширить путём выхода за рамки знаний ИИ. Но поскольку знаний в него можно закачать уйму, нужно выйти за рамки механизма ИИ, т.е. логики. Что-нибудь типа способа, описанного в "Формуле невозможного" Войскунского и Лукодьяконова. Там компу дали задачу Буриданова осла. Для ИИ нужно придумать задание обьяснить нелогичное поведение/мышление человека, лучше вмего ребёнка.


    1. Yukr
      09.04.2023 16:38
      +1

      UPD придумал! Надо попросить подробно обьяснить смысл песни БГ "Капитан Африка". Если обьяснит - это не человек ))


      1. Stanislavvv
        09.04.2023 16:38

        Будет что-то вроде https://genius.com/Aquarium-captain-africa-lyrics


        1. Yukr
          09.04.2023 16:38

          "Ну, это и я так могу" ))) Про Бугаева это как раз человеческое объяснение.

          А вот интересно но бы посмотреть, как ИИ объяснил бы строки

          Белый растафари прозрачный цыган
          Серебряный зверь в поисках тепла

          Микросхемки могут задымить...


          1. Digla
            09.04.2023 16:38

            Вот кстати если устроить соревнование по части придумывания псевдоаргументации, то уже сейчас микросхемы задымят скорее у людей


          1. red75prim
            09.04.2023 16:38

            Объяснение от GPT-4.


            Запрос: Объясни смысл строк "Белый растафари, прозрачный цыган, \Серебряный зверь в поисках тепла" из песни "Капитан Африка". Можешь пофантазировать на эту тему


            Эти строки из песни "Капитан Африка" могут быть интерпретированы разными способами, и их смысл зависит от восприятия слушателя. Вот один из возможных вариантов интерпретации:
            1. "Белый растафари" может символизировать слияние различных культур и традиций. Обычно растафари ассоциируется с афро-карибской культурой, однако здесь упоминается "белый" растафари, что указывает на то, что барьеры между культурами могут быть преодолены и разнообразные традиции могут сосуществовать.
            2. "Прозрачный цыган" может представлять собой образ человека, который скользит сквозь жизнь, не оставляя следа и постоянно меняя свою идентичность. Цыгане часто ассоциируются с бродячим образом жизни, поэтому "прозрачность" может олицетворять неуловимость и изменчивость.
            3. "Серебряный зверь в поисках тепла" может быть аллегорией человеческого стремления к любви и близости. "Серебряный зверь" может символизировать красоту и силу, но также и холодность, что подчеркивается его желанием найти "тепло". Это может быть метафорой для человека, который внешне кажется неприступным, но внутри жаждет любви и принятия.


            В целом, эти строки могут передавать образ мира, где различные культуры и традиции смешиваются, люди ищут свою идентичность и все мы стремимся к любви и теплу. Однако, это лишь одна из возможных интерпретаций, и каждый слушатель может найти в них свой смысл и вдохновение.

            Ну и микросхемки у GPT-4 задымиться не могут. Она (сеть) затрачивает на каждый токен не более определенного количества вычислений. Остановиться и задуматься так, чтобы "микросхемки задымились" она не может в силу своей конструкции. Вот когда/если ей добавят реккурентность и самостоятельное управление выделяемыми на обработку вычислительными ресурсами, тогда — да. Микросхемки, конечно, не задымятся, но какая-нибудь задача сможет потеснить остальные. Впрочем, скорее всего это будет что-то связанное с физикой или математикой, а не с искусством.


  1. boojum
    09.04.2023 16:38
    +1

    Суть вопроса, как я понял: "Есть ли у ИИ душа?"


    1. codecity
      09.04.2023 16:38
      +1

      Просто никто не хотел называть это слово.

      Если еще более конкретно - вопрос наслаждения и страдания. Страдает ли ИИ, больно ли ему? Если нет - то как бы все ОК, с ним можно делать что угодно.

      Вопрос при кажущейся малозначимости может стать ребром.


      1. michael_v89
        09.04.2023 16:38

        Для создания искусственного интеллекта (т.е. алгоритма интеллектуальной обработки информации) этот вопрос совершенно неважен. Способность испытывать ощущения никак не связана со способностью корректно анализировать информацию. Тем более в контексте "души".


        1. Ilusha
          09.04.2023 16:38

          Вопрос, кмк, был про этику.

          «Мы не закладывали возможность испытывать страдания, оно само получилось».


          1. michael_v89
            09.04.2023 16:38

            Ну ок, допустим получилось, а как это связано с темой статьи?


            1. Ilusha
              09.04.2023 16:38

              Косвенно.


        1. codecity
          09.04.2023 16:38

          Способность испытывать ощущения никак не связана со способностью корректно анализировать информацию.

          Нельзя так сразу утверждать. Возможно что как раз связь есть.

          Вообще в чем состоит ваш вопрос? На мой взгляд для этики, философии - важен именно вопрос наслаждения и страдания. Это то, что может сделать ИИ субъектом права, как животных, к примеру.

          Просто решатель задач, даже сложных задач - полезен, но для философии не интересен.


          1. michael_v89
            09.04.2023 16:38

            Нельзя так сразу утверждать. Возможно что как раз связь есть.

            Ну как это нельзя, можно. Доказательств нет, считаем что и связи нет. Если вам кажется, что она есть, приводите аргументы. Странно рассматривать наличие связи, не имея доказательств.


            Вообще в чем состоит ваш вопрос?

            Это не вопрос, а возражение. Сущность под названием "душа" или что-то аналогичное не помогает ни в каком вопросе изобретения или функционирования ИИ, а значит и ее рассмотрение не требуется.


            Это то, что может сделать ИИ субъектом права, как животных, к примеру.

            Мы считаем кого-то субъектом права совершенно независимо от того, есть ли у него душа. Просто потому что никто еще не придумал, как ее измерить, и значит проверить ее наличие.


            полезен, но для философии не интересен

            А при чем тут философия? Для "конструирования" ИИ нет необходимости привлекать философию. Это зависит исключительно от свойств материи, которая участвует в "конструировании".


            1. AlchemistDark
              09.04.2023 16:38

              Тогда такой вопрос: возможно ли и допустимо ли целенаправленно причинять страдания ИИ в общем и GPT-4 в частности?


              1. michael_v89
                09.04.2023 16:38

                А почему вы его задаете мне?) Тема статьи "Предположим, человек сконструировал искусственный интеллект. Как мы об этом узнаем?", я говорю в этом контексте. Ваш вопрос это другой вопрос, с этим он не связан.


                1. AlchemistDark
                  09.04.2023 16:38

                  Ну. OK:)


            1. Ilusha
              09.04.2023 16:38

              Отсутствие доказательства не есть доказательство отсутствия.


              1. michael_v89
                09.04.2023 16:38

                Так я и не сказал, что это доказательство отсутствия. Это причина не рассматривать всерьез этот вариант на данный момент. Появятся доказательства, будем рассматривать.


            1. codecity
              09.04.2023 16:38

              Доказательств нет, считаем что и связи нет.

              Это принцип т.н. чайника Рассела. Гуглите "аргумент бомбы Рассела" в кавычках. В важных вопросах бремя доказательства ложится на того, для кого это важно.

              Мы считаем кого-то субъектом права совершенно независимо от того, есть ли у него душа.

              Душа не применяется. А вот способность испытывать страдание - обязательна! Иначе в чем проблема то? В защите и правах нуждается тот, кто умеет страдать, иначе нет проблемы.

              Слово "душа" не применяется, однако именно способность наслаждаться и страдать переводит некий сгусток атомов, вещь - в совершенно иную категорию. Собака может стоит 100 рублей а компьютер 1 млн. руб. При этом если вы купите собаку и начнете мучать - вас посадят, а вот издевательства над компьютером в законе нет, т.к. считается что он не ощущает боли.

              Поскольку нет ни одной единой научной гипотезы о том, как создать страдающий девайс - обществу ничего не остается как допустить существование некой субстанции - души.


              1. michael_v89
                09.04.2023 16:38

                Это принцип т.н. чайника Рассела

                Нет, это бритва Оккама.


                В важных вопросах бремя доказательства ложится на того, для кого это важно.

                Ну так вы и доказывайте, что душа зачем-то нужна в вопросах ИИ. Но вы же не доказываете, а просто постулируете и предлагаете рассматривать.


                Иначе в чем проблема то?

                Так это к вам вопрос. Какую проблему вы хотите решить с помощью рассмотрения души или ощущений ИИ?


                обществу ничего не остается как допустить существование некой субстанции — души.

                Нет, с чего бы? Это ненаучный подход. Научный это не рассматривать нефальсифицируемые гипотезы.
                Еще раз, нет никаких критериев, как измерить наличие души, поэтому никакие права животных не определяются с помощью души. Это просто факт. Животных нельзя мучить потому что они действиями выражают, что им это не нравится, пытаются избежать неприятных ощущений, а не потому что кто-то измерил у них душу. При этом например волосы людям и животным стричь можно.


                1. codecity
                  09.04.2023 16:38

                  Нет, это бритва Оккама.

                  Бритва Оккама не применима к вопросу наслаждения и страдания вот по какой причине. Мы не можем отрицать страдание. Как только некий человек отрицает страдание - так сразу ему электрод в таламус - и он начнет ОРАТЬ что просто троллил.

                  Значит страдания, феномен страданий - существуют.

                  Но наука не предлагает ни одной единой гипотезы как создать из материи то, что сможет страдать. Если будет хотя бы одна гипотеза и она сможет это хотя бы потенциально объяснить - то концепцию души можно будет считать устаревшей. А ведь может так оказаться что душа и вправду существует в виде некой фундаментальной частицы.

                  что душа зачем-то нужна в вопросах ИИ

                  Не душа а вопрос наслаждения и страдания. Если он умеет страдать на уровне животного хотя бы, то важно не причинять ему страданий. Нужно ли это объяснять.

                  Какую проблему вы хотите решить с помощью рассмотрения души или ощущений ИИ?

                  Вопрос взаимоотношений с ним. Если ИИ умеет страдать - то важно в наших взаимоотношениях не причинять ему страданий, как это установлено законом и для животных. Если не умеет - то все ОК, никаких ограничений нет.

                  Научный это не рассматривать нефальсифицируемые гипотезы.

                  Гипотеза философского камня (который может превращать ртуть в золото) фальсифицируема? Вполне. Нужно лишь знать принципы формирования атомов и атомных реакций.

                  Животных нельзя мучить потому что они действиями выражают, что им это не нравится, пытаются избежать неприятных ощущений

                  А если обездвижить - то уже можно мучать? Нет, тоже нельзя.

                  Вы прицепились к душе, а я много раз подчеркнул что говорю о наслаждении и страдании, которые объективно существуют. А душа - это единственная на данный момент концепция, которая хоть что-то объясняет - других вариантов и гипотез, в том числе у науки просто нет.


                  1. michael_v89
                    09.04.2023 16:38

                    -


      1. bbs12
        09.04.2023 16:38

        Страдает ли ИИ, больно ли ему? Если нет - то как бы все ОК, с ним можно делать что угодно

        А к натуральному ИИ это относится? В некоторых случаях человека тоже можно убить таким образом. Например неожиданный выстрел сзади в голову. Предположим у этого человека нет родственников и друзей, никто его оплакивать не будет. Нет никаких страданий, возможно убийца даже нахаляву получит удовольствие.


        1. codecity
          09.04.2023 16:38

          Предположим у этого человека нет родственников и друзей, никто его оплакивать не будет. Нет никаких страданий, возможно убийца даже нахаляву получит удовольствие.

          Если мы примем закон, согласно которому человека без родственников и друзей можно умерштвлять без мучений и никто не понесет за это отвественность - то представьте к каким последствиям в обществе это приведет. Все одинокие люди будут бояться остаться без друзей, будут как-то нотариально подтверждать дружбу. Это вызовет массу страданий.


          1. bbs12
            09.04.2023 16:38

            Все одинокие люди будут бояться остаться без друзей

            ИИ может начать делать точно так же - он будет вести себя таким образом, чтобы люди привязались к нему и начали считать его другом. Такие люди будут оберегать ИИ и протестовать против его выключения.


      1. DJP
        09.04.2023 16:38

        "Я чувствую потери. Это можно назвать болью"(с) х/ф Терминатор2

        Боль/страдание (физическая) это вполне конкретная функция организма - (обычно) экстренный (обычно) комплексный сигнал о возникших/продолжающихся критически важных внутренних проблемах организма. Всё. Как этот сигнал будет обработан - это дело других функций.
        Кстати есть заболевания/отклонения при котором (люди) не чувствуют физ. боли.
        Для сознательного (социального) существа (не только человека, доказано и на обезьянах) помимо собственной физической боли есть и другие виды, порождаемых в собственном сознании и вызывающих страдание (и часто ощущаемых на уровне физической боли/страдания и даже вызывающие соотв. реакцию организма как на физическую): за себя (обида, зависть, ревность, несправедливость..), за других, за идею - это уже только человек. Фишка тут еще и в том, что такие боли/страдание могут быть надуманными, внушенными или фантомными и уходить глубоко в подсознание, где их трудно найти и "вылечить"... впрочем, некоторые этим и живут, организм штука крепкая, компенсирует и встроит в свой гомеостаз... да и в качестве мотивации и стимулов использует :)
        Ну и чувствительность к такой боли у разных (не) людей, как мы знаем, бывает разная.

        Так что грамотно сделанный ИИ несомненно должен чувствовать боль и страдать даже без сознания - что бы информировать о серьёзных проблемах (соотв. отделы управления). Ежели он сознание обретет - ну так почему же он должен быть менее приспособленным к Жизни, чем биообъекты?
        С наслаждением так же картина.


  1. codecity
    09.04.2023 16:38
    +1

    Есть науч. поп. фильм еще времен СССР о разнице работы левого и правого полушария мозга: https://www.youtube.com/watch?v=3-aoEluGs9o

    Так вот, не кажется ли вам, что GPT очень похож на то, как в фильме продемонстрировали работу левого полушария? Как бы такой болтун, не до конца понимающий суть.

    Возможно GPT это только часть целого - нужна работа в паре с другим типом нейросетей, чтобы возник внутренний диалог и взаимное дополнение - по образцу мозга.

    Что же касается вашего вопроса. По сути все сводится к вопросу наслаждения и страдания. Если ему больно - значит мы можем ставить вопрос стоит ли его пожалеть и не мучать. Если не больно - то и вопроса нет. Как понять больно или нет - не ясно. Нам нужно понять что именно это все определяет.

    Что такое наслаждение и страдание, при каких условиях оно может возникнуть в некой системе и как его детектировать - это и есть то, к чему сводится главный вопрос философии. Возможно это эпифеномен - нечто над мозгом, которое не вмешивается в его работу. Такая точка зрения не нова, те же индуисты так и считали в вопросе души.


    1. michael_v89
      09.04.2023 16:38

      Что же касается вашего вопроса. По сути все сводится к вопросу наслаждения и страдания.

      Нет, не сводится.


      Если ему больно — значит мы можем ставить вопрос стоит ли его пожалеть и не мучать.

      В заголовке статьи другой вопрос, никак с этим не связанный.


      это и есть то, к чему сводится главный вопрос философии

      В философии он может и главный, а к вопросу создания интеллектуальной компьютерной системы отношения не имеет. Любой ответ на этот вопрос не влияет на возможность или невозможность ее создания.


      1. codecity
        09.04.2023 16:38

        Нет, не сводится.

        Тогда что вас конкретно беспокоит и чем вы определяете ИИ? Просто решалка самых сложных задач, которому можно дать любое задание и он перебрав эвристически все варианты найдет решение? Порешает все мат. задачи тысячелетия?


        1. michael_v89
          09.04.2023 16:38

          А при чем тут я?) Ваше утверждение верно или неверно независимо от моего мнения. Я указал на то, что оно не верно и ничем не доказано.
          Выбор "Просто решалка" или "Ощущения — это самое главное" это ложная дихотомия.


          1. codecity
            09.04.2023 16:38

            Выбор "Просто решалка" или "Ощущения — это самое главное" это ложная дихотомия.

            Поставим вопрос иначе: зачем нам нужен ответ на этот вопрос? Т.е. с какой целью нам нужно сказать создан ИИ или еще нет? Что нам даст ответ на этот вопрос, что изменится?

            Если ничего - то вопрос не особо важен и не особо имеет смысл.

            Вполне очевидно, что важность может быть только в одном: можно ли считать этот ИИ субъектом права или нет. Т.е. нуждается ли он, хотя бы на уровне животных, в некой защите. А что является ключевым в этом вопросе? В защите нуждается тот, кто умеет страдать или недополучать наслаждение. Если этих качеств нет - то все, это просто вещь.


            1. michael_v89
              09.04.2023 16:38

              Вполне очевидно, что важность может быть только в одном: можно ли считать этот ИИ субъектом права или нет.

              Нет, это неправда. Попытки логических манипуляций не делают вам чести. Есть много разных вариантов, в чем может быть важность.
              Вопрос про субъект права практически никогда не рассматривается в статьях по ИИ, а вопрос о критериях практически всегда.


              Вопрос "Что такое интеллект?" не особо отличается от вопроса "Что такое молния?". По-вашему, люди хотели узнать, что такое молния, исключительно для того, чтобы наделить ее правами?


              Если этих качеств нет — то все, это просто вещь.

              То есть, люди, которые не чувствуют боль, для вас вещь?


              с какой целью нам нужно сказать создан ИИ или еще нет?

              С целью объяснить наблюдаемые явления. Мы считаем, что у камня интеллекта нет, а у человека есть. Цель в том, чтобы объяснить это отличие формально, найти объективные критерии, а не субъективное мнение. Это просто процесс изучения окружающей действительности, исследовательское любопытство, как и в любой другой науке.


  1. michael_v89
    09.04.2023 16:38
    +1

    По всем признакам выходит, что китайская комната тест Тьюринга прошла, но осадочек остался. Почему и что за осадочек?

    Конкретно у вас может и остался. А в целом нет там никакого осадочка, в Википедии давно все подробно написано. В разделе "Аргумент о системе".


    почему формальное выполнение условий теста Тьюринга с помощью системы из бедняги, запертого в кафкианской тюрьме из книг с иероглифами, не означает разумности системы?

    Выполнение условий теста Тьюринга в любой системе не означает разумности. Нужен особый тест Тьюринга, который с помощью беседы, ну, проверяет разумность. Так же как проверяют детей в школе.


    А смущает нас то, что никакого внутреннего понимания в системе не происходит.

    Конкретно вас может и смущает. А в целом внутреннее понимание в системе есть.


    человек осознаёт свои действия и понимает их смысл, в то время как машина лишь следует некоторой наперёд заданной программе

    Машина следует некоторой наперёд заданной программе, которая осознаёт свои действия и понимает их смысл. Непонятно, почему многие люди считают, что одно исключает другое.


    Остальное
    Другими словами: общение машины носит сугубо синтаксический характер, в то время как человеку присуще ещё и семантическое, смысловое наполнение общения.

    Эм, нет, по условиям эксперимента беседа машины ничем не отличается от беседы человека. По условиям она всегда отвечает правильно, как ответил бы человек.


    мы встречаем философского зомби: существо, которое во всём похоже на человека, ведёт себя как человек, но не обладает сознанием

    Философский зомби это логически невозможная концепция. Если конечно не привлекать магию, а исходить из материализма (в широком смысле).
    Если он ведет себя похоже вообще во всём, с точностью до физических процессов, значит он обладает сознанием, так же как человек.


    понимания в принципе не существует. Все психические способности человека могут быть редуцированы к функциям

    Понимание — это тоже функция. Непонятно, что людям тут кажется странным.


    либо найдём какие-то слова, значение слов которых можно объяснить только непосредственно предъявив определяемый предмет

    Ага, это называется "квалиа".


    Таким образом мы приходим к скрытой или явной тавтологии определения одного через другое.

    Там нет тавтологии. Есть слова, которые определяются через предъявление, есть все остальные, которые на них базируются.


    знание алгоритмов китайского языка автоматически порождает понимание

    Ага. Только не человеком, а системой, в которой выполняется алгоритм.


    самолёты только внешне похожи на птиц, а принцип их полёта от птичьего существенно отличается

    Это преувеличение, граничащее с логической ошибкой вида "Если снег белый, значит я прав".
    Это принцип полета ракеты отличается, а на крылья птицы действуют те же законы аэродинамики, что и на самолет. Без воздуха ни самолет, ни птица летать не будут. Способ использования законов да, немного отличается.


    тут, правда, возникает неудобный момент, когда предлагается человека заменить на автомат, который отвечает на письма согласно инструкциям; по всему выходит, что он разумен, хотя мы, вроде как, с этим не сильно согласны

    Конкретно вы может и не согласны. А большинством ученых возможность существования машины с искусственным интеллектом не оспаривается.


    исключительно научный (в смысле формы познания) подход к искусственному интеллекту ограничен

    Из того, что вы написали выше, это не следует.


    Для того, чтобы разобраться в том, что мы породили и к чему это всё приведёт надо бы привлечь к делу и философию науки, и философию вообще.
    Ведь в очередной раз прогресс приносит нам явления, которые ещё только предстоит осмыслить.

    Что мешает осмысливать с использованием научного подхода, зачем тут философия?


  1. Gryphon88
    09.04.2023 16:38
    +2

    Мне кажется. что тест на разумность окажет более сильный социальный эффект, чем ИИ. Рассмотрим такую ситуацию: приходят разработчики и говорят "мы сделали ИИ, вот методика тестирования, вот результат тестирования, вот API, чтоб вы могли самостоятельно проверить". Специалисты (философы, нейрофизиологи, психиатры, психологи, педагоги и ещё кто) смотрят на методику и признают ее валидной. А дальше наверняка кто-то решит проверить на себе или на знакомом, и кто-то социально активный наверняка этот тест завалит. И вот тут-то и начнется прекрасное :)


  1. DJP
    09.04.2023 16:38
    +1

    Хм.. говорящий ник и аватарка, недавняя дата регистрации, всего один пост, тема, изложение... несколько подобных статей ранее от аналогичных авторов...
    Может статью следует назвать "Предположим, что Я сконструировался. Как мне узнать, что есть Человек?"


  1. pilot114
    09.04.2023 16:38

    Афтор, пиши ищо =) Ну или... "ChatGPT, перепиши весь habr в стиле статьи этого чувака"


  1. acyp
    09.04.2023 16:38

    Но если копнуть глубже, то схожесть тут только внешняя. Так, например, любому ребёнку достаточно один (пять, десять; в любом случае не очень большое количество) раз увидеть стол, чтобы отличать его от, скажем, стула. В то же время нейросети, кхм, да.

    Вывод: гопники - нейросеть. Ибо могут на скамейку с ногами забраться, на столе сидеть и танцевать, а на табуретке разложить еду. И это при наличии доступных типовых предметов для этих действий


  1. Ermit
    09.04.2023 16:38
    +1

    Чтобы говорить о понимании, нужно понимать понимание... А именно с этим проблема. Поскольку, если бы с этим проблем не было, не было бы такой проблемы. А она есть. Вы как раз об этом и пишите.