Попалась мне статься "GPT-апокалипсис отменяется", которая в очередной раз заставила меня задуматься на тему, почему вроде бы умные люди порой не видят очевидных для других вещей. Попробуем разобраться в данном вопросе.

Если человек решил заняться какой-то темой, то очевидно на то есть эмоциональные причины. В норме мотивацией заняться чем-либо выступает удовольствие от самого процесса познания нового.

Однако, не всегда получение удовольствия является единственной внутренней мотивацией заняться той же наукой. У любого человека есть еще один вид мотивации - это чувство боли. Чаще всего эта боль является душевной, а не физической. Способов с ней справиться у нас не так уж и много. Один из таких способов - это различные механизмы психологической защиты, к примеру рационализация.

Рационализация - механизм психологической защиты, при котором в мышлении используется только та часть воспринимаемой информации, и делаются только те выводы, благодаря которым собственное поведение предстаёт как хорошо контролируемое и не противоречащее объективным обстоятельствам.

Известно, что люди с разными расстройствами личности предпочитают разную деятельность. Например, чаще всего шизоиды занимаются науками - математикой или теоретической физикой.

Можно ли в случае шизоидного расстройства или акцентуации говорить о том, что единственной причиной заниматься физикой или математикой для человека является только лишь получение удовольствия от процесса? (если что, у меня нет цели обижать шизоидов, я и сам из вашего лагеря).

Наверняка многие замечали, что люди, имеющие примерно одни и те же знания и даже уровень интеллекта, могут при этом занимать очень разные позиции по тем или иным вопросам. Например, один исследователь может быть консервативных взглядов, а другой - либеральных. Чем обусловлено данное различие их позиций, если они обладают одними и теми же знаниями? Ведь тогда, по идее, должны быть одни и те же выводы?

Выводы будут разные, потому что консерватор имеет более сильный страх перемен из-за боле больших миндалин. Поэтому даже ученый консерватор может верить в какие-то очень неправдоподобные сказки государственной пропаганды, и весь "научный метод познания" оказывается "коту под хвост". Но данная статья не про различие либералов и консерваторов. Просто важно понимать, что наши эмоции играют куда большую роль, чем фактические знания, и по сути определяют то, как мы видим мир.

Согласно теории предсказательной обработки, к сожалению, все мы живем в подобии "галлюцинации", которая синхронизируется с внешним миром тогда, когда расхождение становится значительным. Мы не можем иметь представление о самой реальности, так как всегда имеем дело лишь с ее "симуляцией", которую нам рисует наш мозг, имея обрывочные представления о внешнем мире.

Если нам удобнее жить в мире, где чего-то нет, или наоборот, что-то есть, то в принципе нет никаких причин не сделать этот соблазнительный шаг на встречу иллюзиям. И тогда у человека с консервативными взглядами будет другой мир, другая реальность, по сравнению с либералом. Потому что одному человеку нужно жить в более удобной для него реальности по какой-то конкретной теме, а другому уже не нужно или менее нужно.

И так как никто не пытается анализировать сам себя, причину своих действий и причины особенностей своего восприятия, то значит и нет никаких попыток как-то выйти из собственной "матрицы", значит и нет никакого адекватного восприятия "реальности" и полноценной осознанной жизни. От сюда и различия во мнениях у людей с одинаковым уровнем знаний и IQ.

Различия обусловлены тем, что люди живут в разных "реальностях", у каждого своя "галлюцинация". Но кто-то всё же будет ближе к истине, потому что многие иллюзии рисуются уже поверх "реальных" представлений. И если нет причин в каких-то новых слоях иллюзий, тои восприятие будет более чистым и адекватным.

Ближе к объективности будет тот человек, кому нужно меньше защищаться от переживаний. Ведь суть не в том, что мы не имеем возможности воспринимать саму реальность (да, мы не имеем, но это не так важно сейчас). Суть в том, что когда наш мозг уже обладает некой информацией о внешнем мире, то уже поверх этой "объективной" информации рисуется более удобная для сознания реальность. Происходит искажение той информации, которую в принципе можно было бы и не искажать. Так что мы живем в многоуровневой "матрице" и подсознательно знаем, где правда, а где мы сами себе соврали.

В связи с этим нужно расширять научный метод познания, так как нужно учитывать тот момент, что все мы изначально искажаем восприятие в угоду нашим переживаниям. И данное искажение на практике очень сложно будет как либо обнаружить и переосмыслить.

Много ли есть на свете людей, которые во время споров меняют свою позицию? Такое почти никогда не происходит. Как можно это объяснить? Тут или все правы, что невозможно. Либо просто кто-то в споре не хочет прощаться со своими иллюзиями. Потому что иллюзии - это механизм защиты психики от чего-то неприятного. Поэтому решение данного вопроса, увы, лежит не в плоскости споров о физике или философии, а в кабинете у психотерапевта.

Никакие аргументы не убедят человека поменять свою позицию, если он будет находиться в какой-то иллюзии по данному вопросу, даже если он - человек науки. И дело тут будет не в том, что аргументы не достаточно убедительные. А просто потому что так не работает. Человек не сможет выйти из иллюзии, которая его защищает от чего-то крайне неприятного, пока не устранены сами эти переживания.

Теперь перейдем к главному. Если мы все склонны уходить в иллюзии, то наше мировоззрение чаще всего не более, чем нагромождение различных "костылей", помогающие нам уйти от болевых моментов. Поэтому очень редко бывает так, что человеку просто интересно заниматься физикой, просто интересна тема искусственного интеллекта, просто интересна наука сама по себе. К сожалению, скорее всего "не просто интересно", а это выполняет еще и роль построения некой иллюзии для эскапизма от болевых моментов.

Самое парадоксальное, что у человека, интересующегося наукой, может при этом быть самое настоящее "магическое мышление". Рациональность дает мощный инструмент не только познания мира, но и для ощущения себя "магом", которому весь мир теперь понятен, а значит все под его контролем, все разложено по полочкам. Это самое настоящее чувство псевдоконтроля над жизнью. Такая иллюзия просто защищает от тревоги, от страха смерти и от много чего еще, точно также, как и у суеверного человека. Поэтому такие "маги" рационалисты могут написать книгу про методы рационального мышления в магическом мире, какая ирония.

Такие вопросы, как устройство сознания, являются эмоционально значимыми, потому что где-то рядом с данной темой проходят такие вопросы, как собственная смерть. Поэтому трудно быть объективным, рассуждая про сознание в ИИ. И особенно труднее быть объективным, если ты посвятил свою жизнь данному вопросу. Потому что очень вероятно, что человек не просто так посвятил свою жизнь данному вопросу, а для ухода от каких-то внутренних противоречий.

Если люди, которые увлечены ИИ, скажут честно, что появилось раньше: желание видеть в машине нечто живое, некий разум, или объективная оценка такой возможности, то думаю сначала будет желание. А значит все остальное будет не более, чем подгонкой логики под это желание. И никакой научный метод им не поможет это увидеть, никакие знания, опыт машинного обучения и т.д. И все их философские выводы будут не более, чем одной большой такой красивой "сказкой". Но другим людям эта сказка не интересная и не нужна. Им уже нужны реальные основания что либо считать по данной теме.

Поэтому, если взять человека, который никакого отношения к ИИ не имеет, то скорее всего после ознакомления с информацией он более адекватно оценит те или иные опасности от ИИ и более адекватно ответит на философские вопросы про то же сознание. Потому что он будет просто более адекватен в своем восприятии, что гораздо важнее знаний и опыта.

Комментарии (132)


  1. damewigit
    04.04.2023 00:35
    +19

    Не совсем по теме вашей статьи вброс, но все же напишу, ибо держать в себе уже не могу :) Последнее время на хабре появилось очень много статей, на тему нашего совместного с ИИ будущего. От крайне алармичных до очень оптимистичных. Авторы последних довольно часто апеллируют к аргументу "это ведь просто языковая модель", "она не обладает разумом", это "китайская комната". Очень интересно, а чем сами авторы статьи отличаются от китайской комнаты? Для меня, как для читателя с другого конца провода - ничем.

    Мой месседж здесь, что очень глупо и опрометчиво считать что человек со своей нервной системой чем то принципиально отличается от языковой модели. Количественно - да, качественно - нет. Нейронов больше на порядки, да и сами нейроны ведут себя очень сложно, на каждый потребуется отдельная нейросеть для симуляции. Но, суть та же, мы биороботы, и никакого "сознания", "свободы воли", "разума" в его магическом смысле у нас нет.

    Подгорает у меня именно от попыток авторов этих статей провести жесткую границу, между тем, где начинается "разумное существо", а где "языковая модель". Это путь в никуда, можно перечислять живых существ, упорядочив их по сложности их нервной системы. Люди, обезьяны, собаки, насекомые, всякие там черви простые. Где существо начинает быть разумным, в какой момент? Также и с языковой моделью, причин считать что нам, людям, принадлежит какой-то уникальный перк - разум, глупо


    1. flancer
      04.04.2023 00:35
      +20

      А у меня подгорает от попыток других авторов ставить знак равенства между алгоритмом и до конца неизученным (непонятым) явлением. Если свести разум к восприятию среды существования, накоплению опыта и изменению среды существования, то да - черви разумны. Если же посмотреть, кто из живых существ планеты Земля осознанно вышел за пределы собственной атмосферы, то да - людям принадлежит какой-то уникальный перк. В рамках этой планеты, как минимум.


      1. DGN
        04.04.2023 00:35
        +2

        Считают ли себя особенными и уникальными летающие рыбы?


        1. flancer
          04.04.2023 00:35
          +3

          Летающих рыб не существует. Есть планирующие. Если у них есть способность отличать себя от окружающего мира, и способность находить в окружающем мире себе подобных, то да - они считают себя особенными. Считают ли они себя уникальными? Можно предположить, что - да, можно, что - нет, можно, что некоторые считают, что - да, а некоторые, что - нет. Боюсь, это будет сложно проверить.


        1. ednersky
          04.04.2023 00:35
          +1

          строят ли рыбы самолёты, чтобы летать?


          1. perfect_genius
            04.04.2023 00:35

            Зачем, если можно просто эволюционировать? :)


          1. sswwssww
            04.04.2023 00:35

            Не понял к чему этот риторический вопрос. Вы тоже не сможете постоить самолет. Означает ли это что вы неразумны?


            1. ednersky
              04.04.2023 00:35
              +2

              1. почему не могу? могу
              2. мы же говорим о такой вещи как "интеллект". Рыбы даже сообща не могут построить самолёт. Люди могут. Да, людям нужно для этого организовываться в команды, но и эта организация тоже интеллектуальное действие (команда > стадо)


              1. sswwssww
                04.04.2023 00:35
                +2

                После заявления, что вы можете построить самолет, ChatGPT мне кажется более разумным, чем вы. Удачи вам в создании языка для кооперации с товарищами, открытия таких концепций, как "воздух" и "аэродинамика", добычи нужных ископаемых ресурсов (для начала вам нужно будет понять, каких именно), далее изобретении двигателя внутреннего сгорания, создании завода с нужным оборудованием и т.д. Сколько миллионов лет ушло на все это у "человечества"? Около 3-х?

                Второй момент, в котором вы заблуждаетесь, заключается в том, что вы, почему-то, считаете, что "разум" существа, способного на создание палки-копалки (на что способны некоторые приматы), принципиально, качественно или структурно чем-то отличается от "разума" существа, способного создать адронный коллайдер. Правда в том, что различия только количественные. Приматы, например, не могут оперировать в голове одновременно с более чем тремя взаимодействующими друг с другом сущностями - камень, используемый как наковальня, орех, который нужно расколоть, и второй камень, которым нужно бить по ореху на "наковальне". А вот у людей этот показатель намного больше, что позволяет нам держать в голове более сложные концепции.

                Имея размеры мозга (количество нейронов), как у нас, а также физиологическое строение гортани, позволяющее извлекать больший спектр звуков, и строение рук, которое позволяет заниматься вещами в которых нужна развитая мелкая моторика - любой живой организм сможет породить высокоразвитую цивилизацию благодаря накапливающимся тысячами лет знаниям.


                1. flancer
                  04.04.2023 00:35

                  После заявления, что вы можете построить самолет, ChatGPT мне кажется более разумным, чем вы.

                  Братья Райт построили самолёт из говна и палок. Говна и палок вокруг достаточно. Самолёт можно построить в гараже.

                   благодаря накапливающимся тысячами лет знаниям

                  Для этого нужна письменность, как минимум. Кто из "любой живой организм" на этой планете, кроме человека, ещё обладает письменностью? Даже ChatGPT не обладает, пользуется нашей. Человек же обладает, поэтому и я, и вы (при желании), и уж тем более @ednersky(раз он сам об этом заявил) - все мы можем построить самолёт, пользуясь знаниями, накопленными до нас другими разумными существами. Кстати, ChatGPT в этом ряду "разумных существ" отсутствует, т.к. он не добывает знания, а использует уже добытые. И пока что на этой планете других следов письменности, кроме как человеческих, не обнаружено. Так насколько глупо судить об уникальности человеческого перка "разум"? Весь вопрос в том, что мы считаем разумом. Если разум это, например, способность ориентироваться в пространстве, то нет разум человека не уникален. Если разум включает в себя способность передавать свой опыт в письменном виде другим поколениям своего вида, то разум человека уникален.


                  1. Bronx
                    04.04.2023 00:35

                    Даже ChatGPT не обладает, пользуется нашей.

                    Если под "обладает" вы понимаете "владеет умением", то ChatGPT им как раз обладает, он общается исключительно в письменной форме.


                    Если разум включает в себя способность передавать свой опыт в письменном виде другим поколениям своего вида, то разум человека уникален.

                    Выходит если дать инстансам ChatGPT возможность писать друг другу и обмениваться опытом, то они немедленно станут разумными.


                    1. flancer
                      04.04.2023 00:35

                      Я так и сказал - "пользуется нашей". Это как раз и подразумевает "владеет умением". Вы всё правильно поняли.

                      Как только один ChatGPT родит другой ChatGPT ваше понимание фразы "передавать свой опыт ... другим поколениям" тоже станет правильным.


                      1. Bronx
                        04.04.2023 00:35

                        Как только один ChatGPT родит другой ChatGPT

                        В смысле, осилит команду "copy"?


                1. ednersky
                  04.04.2023 00:35

                  Правда в том, что различия только количественные

                  в школе мы изучали марксистско-ленинскую диалектику и там было такое понятие "переход количества в новое качество".


                  Так вот, конечно палку-копалку можно найти и у птиц и у обезьян, но это настолько сильно различающееся количество, что это иное качество.


      1. Bronx
        04.04.2023 00:35

        Если же посмотреть, кто из живых существ планеты Земля осознанно вышел за пределы собственной атмосферы

        Вы строите аргумент об некой уникальности вида лишь на основании преодоления этим видом некоторого природного барьера и расширения экологической ниши. Как насчёт выхода из океана на сушу — это тоже какой-то триумф, делающий мозг сухопутных животных чем-то совершенно несравнимым с мозгом морских обитателей?


        1. flancer
          04.04.2023 00:35

          Но это всё равно не позволило им начать плавить железо. Наверное для того, чтобы начать плавить железо нужно нечто большее, чем приспособляемость? Возможно, это нечто большее и есть разум.


          1. Bronx
            04.04.2023 00:35

            Т.е. теперь вы основываете свой аргумент уникальности на появлении способности управлять новыми химическими реакциями?


            1. flancer
              04.04.2023 00:35

              Плавление железа это не химическая реакция, а физический процесс.


              1. Bronx
                04.04.2023 00:35
                +1

                Плавят руду, чистое железо же из неё получают восстановлением из окислов, что есть химическая реакция.


                1. flancer
                  04.04.2023 00:35
                  -2

                  Если бы хотел написать про руду, я бы так и написал: "плавят руду". А я написал "плавят железо".

                  Вы не очень внимательный человек.


                  1. Bronx
                    04.04.2023 00:35
                    +2

                    А вы увернулись от ответа на мой вопрос. Хорошо, задам его заново, с вашей несомненно важной поправкой. Итак:


                    Теперь вы основываете свой аргумент уникальности на появлении способности управлять новыми химическими реакциями физическими процессами?


      1. Rikhmayer
        04.04.2023 00:35

        Т.е. до 1961-го года люди не были разумны?


    1. DGN
      04.04.2023 00:35
      +7

      Человек концептуально отличается от языковой модели. Просто потому, что языковая модель это очень небольшая подсистема человека. К примеру, реальные "маугли" не сформировали совместимую с человечеством языковую модель и считаются "дикарями". К сожалению, пока никто не проводил эксперимента по обучению мозга в пробирке на текстах. Может ли он вообще быть поставлен? Вроде как, органеллы мозга выращиваются... Вспоминается рассказ, где всем управляют "пиццы", органелы мозга на подложке, в картридже размером с коробку из под пиццы.

      В принципе, сделать еще несколько подсистем не должно быть сложно, особенно если начать обучение модели на эмуляторе физической среды. В дальнейшем, телом модели может стать робот. Фактически, это для нее будет, как для нас ездить на велосипеде или пилотировать истребитель.

      Но совершенно не понятно, как дать почувствовать модели боль. Думаю, это самое сильное препятствие к полноценному AGI.


      1. flancer
        04.04.2023 00:35
        +1

        У меня в детстве была машинка, которая не падала со стола и разворачивалась, если утыкалась в стену. Я её разобрал - чистая механика. Но со стороны некоторым могло показаться, что у неё есть какое-то подобие разума.

        Боль - это сигнал с высоким уровнем приоритета.

        Думаю, что автопилот в Тесле уже в какой-то степени является таким роботом, который вы имели в виду.

        Человек концептуально отличается от языковой модели.

        Абсолютно верно. К ChatGPT ещё нужно, как минимум, добавить устройства взаимодействия с окружающей средой (для её изменения и получения обратной связи) и целевую функцию (на фига ему вот это всё?). Только после этого можно будет говорить о каком-то разуме (червячьем, рыбьем или человечьем). По-большому счёту агрессивность ИИ к кожаным мешкам зависит от целевой фукнции. Можно и в Теслу заложить цель поиграть с людьми в Кармагеддон.


        1. DGN
          04.04.2023 00:35
          +2

          Автопилот Теслы не имеет языковой модели, его поведение, скорее всего, полностью инстинктивно.

          Если боль это приоритет, не завидую я моделям. Зато очень понятно, от чего они такие выдумщики. Люди под пытками примерно так же сочиняют, и со всем соглашаются.


          1. flancer
            04.04.2023 00:35

            Автопилот Теслы я привёл в качестве "искусственного интеллекта", обладающего "телом". Да, у него "модель разума" отличается от "модели разума" ChatGPT полной инстинктивностью. У ChatGPT "инстинктивность" размытая - в "размышлениях" используется генератор случайных чисел. Похоже, разрабы хотели добавить в приложение немного женственности.

            Боль - это сигнал, во-первых. Приоритетный - лишь во-вторых. Тела человеков так устроены, что сигналы с высоким приоритетом ими ощущаются как боль. Истории известны личности, которые могли игнорировать приоритетные сигналы во имя великих целей ("не выдал даже под пытками"), ставя духовное над телесным. Да и всякие шествия с самопобиением или самопротыканием на этой планете достаточно распространенное явление (хотя и из другой оперы).


            1. Arhammon
              04.04.2023 00:35
              +1

              Болевой порог не константа, у разных живых существ он базово разный изза разного отбора. Полюс внутренняя химия запросто может отключать боль, если есть более приоритетные сигналы. За собаками например, надо глаз да глаз во время игры, тк. они запросто будут игнорировать травмы ради возможности поиграть с мячиком. Что чревато... И это не какие-то отдельные случаи самопобития, это абсолютно рядовой случай.


              1. DGN
                04.04.2023 00:35
                +1

                Описаны люди и вовсе без боли, они постоянно травмировались. Вытеснение боли возможно, иногда дети не замечают сломаной руки, солдаты ранения, опять таки обезболивание психотерапевтическими тезниками. Но механизм довольно древний, и в основном работает стабильно хорошо.


      1. kometakot
        04.04.2023 00:35
        +3

        языковая модель это очень небольшая подсистема человека. К примеру, реальные "маугли" не сформировали совместимую с человечеством языковую модель и считаются "дикарями"

        Не просто дикарями, они считаются безнадёжно умственно отсталыми, а не просто немыми. Не такая уж и маленькая, эта подсистема. Она полностью вмещает в себя то, что называют "социальной личностью" человека. Отбери у человека способность говорить и размышлять, и останется примат.


        1. DGN
          04.04.2023 00:35
          +1

          Что интересно, если есть хотя бы два ребенка предоставлены сами себе, они образуют язык. Называется язык близнецов.


          1. perfect_genius
            04.04.2023 00:35
            +1

            Видимо, это базовая функция нейрона — создавать язык общения с соседним нейроном.


      1. DaneSoul
        04.04.2023 00:35
        +4

        Но совершенно не понятно, как дать почувствовать модели боль. Думаю, это самое сильное препятствие к полноценному AGI.

        Существует очень редкое генетическое заболевание, когда люди не способны чувствовать боль. Разума их это не лишает.


      1. smx_ha
        04.04.2023 00:35

        К сожалению, пока никто не проводил эксперимента по обучению мозга в пробирке на текстах. 

        Да даже обычного человека никто еще не пробовал обучать только на текстах, ведь даже у слепоглухонемых людей есть осязание

        Но совершенно не понятно, как дать почувствовать модели боль. 

        Ну почему же непонятно, надо делать все то же самое что происходило в ходе эволюции, в первую очередь надо делать AI самостоятельным и способным умереть.


        1. DGN
          04.04.2023 00:35
          +1

          Обычных не получится, висцернальную систему никуда не деть.

          Способность умирать нужна лишь для отбора. Да и модели умирают, вытесняемые новыми версиями.


        1. perfect_genius
          04.04.2023 00:35

          надо делать AI самостоятельным и способным умереть.

          Почему обучение под это не подходит? Самостоятельно ищет ответ на вопрос человека, если не нашёл — принудительно изменяется, т.е. текущий вариант как бы убивается, не пройдя отбор.


          1. smx_ha
            04.04.2023 00:35

            самостоятельный в смысле автономный, те такой чтобы мог существовать даже если все люди исчезнут


      1. evgeniiworkst
        04.04.2023 00:35
        +1

        Не стоит делать из человеческих чувств что-то мифическое. Либо это можно как-то логически обосновать, либо у нас еще пробелы в данной теме.

        Например "боль" - это всего лишь эволюционная защита от разрушения организма. Нам даже необязательно знать, почему разрушение организма это плохо. Допустим в начале эволюционного развития были существа "с болью" и "без боли". Вторые отсеялись и вымерли, т.к. теряли руку, ногу, хвост и умирали от потери крови. А тот, кто чувствовал боль - смог сохранить свой организм, прожить дольше, дать потомство и т.д. и т.п. Поэтому боль - очень банальная функция организма.

        По такой же аналогии можно разобрать "эмоциональную боль".

        Реализация боли на "ИИ + физическая оболочка" тоже осуществимая - мониторинг и обработка всех частей "тела" или даже каждого милиметра "кожи". (Боль у человека - всего лишь мощный импульс нейрона от точки до мозга). Даже необязательно сразу хардкодить боль андроидам, дайте просто вариативность каждому и эволюция сделает своё дело и оставит только дроидов с "болью".


        1. ednersky
          04.04.2023 00:35
          +1

          Реализация боли на "ИИ + физическая оболочка" тоже осуществимая — мониторинг и обработка всех частей "тела" или даже каждого милиметра "кожи".

          проблема в том, что то, что пока зовут ИИ — всего навсего набор фикс программ + нейросети способные интерполировать. Нейросети кроме интерполяции не умеют ничего.


          1. Bronx
            04.04.2023 00:35

            проблема в том, что то, что пока зовут ИИ — всего навсего набор фикс программ + нейросети способные интерполировать

            Почему это проблема?


            Нейросети кроме интерполяции не умеют ничего.

            Человеческий мозг является нейросетью, значит он не умеет ничего, кроме интерполяции.


            1. flancer
              04.04.2023 00:35

              Человеческий мозг нечто большее, чем "просто нейросеть". Мы ещё не настолько хорошо его изучили, насколько уверенно вы тут заявляете.


              1. Bronx
                04.04.2023 00:35

                Если вы утверждаете, что там есть что-то больше, чем нейросеть, то вам и доказывать этот тезис. Я не могу доказывать отсутствие чего-то незримого.


                1. flancer
                  04.04.2023 00:35

                  Запросто. Мозг человека это не "просто нейросеть", он состоит из:

                  • больших полушариев

                  • среднего мозга

                  • мозжечка

                  • варолиева моста

                  • продолговатого мозга

                  Всё взято из вики.

                  То, что вы называете "нейросетью" является моделью (упрощением) того, что есть на самом деле в человеческом мозге.

                  А теперь вы докажите ваше утверждение, что "человеческий мозг является нейросетью, значит он не умеет ничего, кроме интерполяции"


                  1. Bronx
                    04.04.2023 00:35

                    Вы перечислили разные отделы мозга, каждый из которых состоит из нейронов, т.е. является нейросетью по определению. Что это доказывает?


                    1. flancer
                      04.04.2023 00:35

                      Это доказывает, что вы видите только то, что хотите видеть. Например, мою просьбу доказать, что "человеческий мозг является нейросетью, значит он не умеет ничего, кроме интерполяции" вы не увидели. А ещё это доказывает то, что вы не в курсе, что в случае сложных систем, типа мозга, "свойство целого принципиально не сводится к сумме свойств составляющих элементов". Т.е. свойства совокупности элементов != совокупности свойств элементов.


                      1. Bronx
                        04.04.2023 00:35

                        мою просьбу доказать, что "человеческий мозг является нейросетью, значит он не умеет ничего, кроме интерполяции" вы не увидели.

                        Я же написал: мозг состоит из нейронов, объединённых в сеть, значит он по-определению является нейронной сетью. Что тут доказывать — определение?


                        То, что у этой нейросети можно выделить области, не делает её не-нейросетью.


                        свойства совокупности элементов != совокупности свойств элементов.

                        Т.е. совокупность нейросетей способна к большему, чем просто интерполяции?


                      1. flancer
                        04.04.2023 00:35
                        -2

                        Я уже отметил в другой ветке, что вы невнимательны. Здесь вы, например, не увидели вторую часть своего же утверждения "не умеет ничего, кроме интерполяции". Поэтому и не сообразили, что же именно я просил доказать.

                        Я отмечаю бесплодность наших с вами дискуссий в силу вашей невнимательности и слабой сообразительности. Боюсь, что всё ценное из общения с вами я уже извлёк :)


                      1. Bronx
                        04.04.2023 00:35
                        +1

                        вы, например, не увидели вторую часть своего же утверждения "не умеет ничего, кроме интерполяции"

                        Эта часть была утверждением ednersky, а не моей. Я пытался показать её абсурдность.


                        Хотите обсудить вашу невнимательность и несообразительность?


                      1. mvv-rus
                        04.04.2023 00:35
                        +2

                        Я же написал: мозг состоит из нейронов, объединённых в сеть, значит он по-определению является нейронной сетью. Что тут доказывать — определение?

                        Доказывать тут надо, что нечто, называемое нейросетью — GPT и иже с ними — состоит пусть не из нейронов (физических), но из их достаточно полных и адекватных моделей. И вот это как раз не очевидно.


    1. ELEKTRO_YAR Автор
      04.04.2023 00:35
      +1

      "Очень интересно, а чем сами авторы статьи отличаются от китайской комнаты?"
      Об этом будет следующая статья.


    1. geher
      04.04.2023 00:35
      +4

      Подгорает у меня именно от попыток авторов этих статей провести жесткую границу, между тем, где начинается "разумное существо", а где "языковая модель".

      Возьмем нейросетку, работающую с изображением. Она видит картинку, или просто транслирует один набор значений в другой?
      Почему свет человек видит, а звук слышит? Почему конкретный цвет человек видит именно таким? Ведь нейросетке все это совсем не нужно для трансляции светового и звукового сигнала в мехагическое движение тушки.
      Вот когда будут точные, доказанные ответы на эти вопросы, тогда и поговорим о наличии точных границ и их положении, о том, является ли человек тупо нейросеткой, или там есть что-то еще и т.д., и т.п.


      1. gxcreator
        04.04.2023 00:35
        +4

        человек видит

        Вы пишите так, будто это какой-то магический процесс, отличающийся от чтения с аналоговых датчиков ака колбочек и палочек.


        1. conopus
          04.04.2023 00:35
          +2

          Вообще-то в глазе есть постообработка сигнала, сигнал в мозг попадает не "сырым". К сожалению, ссылки на источник не приведу, читал давно в бумажной книге, которой под рукой нет.


          1. gxcreator
            04.04.2023 00:35
            +2

            Так и в матрице тоже обработка есть, принципиально ничего не меняет.


        1. geher
          04.04.2023 00:35

          Эти крпсивые картинки не значат ничего.
          "Датчики" в глазах формируют сигнал. Этот сигнал проходит обработку. То, что человек видит - результат этой обработки. Ну сформировалось где-то в мозгу некоторое электрическое и химическое состояние. Это все просто и понятно.
          Вопрос совсем про другое. Почему сигналу красного (т.е, если упрощать, определенной комбинации сигналов трех датчиков) соответствует ииенно красный цвет (не формальное название, которое всего лишь договоренность между индивидами, а именно ощущение красного цвета), а сигналу зеленого именно зеленый, а не наоборот. Что оно вообше такое - это ощущение картинки? Почему не простая трансляция в электрические и химические процессы, которые в итоге приведут к какой-то ответной реакции тушки (изменение химии и движение частей).


          1. developer7
            04.04.2023 00:35

            То что вы описали это так называемое "чувство". И самый типичный представитель это — боль. Человек чувствует боль. Испытывает страдания. Может ли машина также чувствовать боль?
            В бессознательном состоянии (или состоянии гипноза и подобного), человек не чувствует боли. Его можно оперировать. Значит ли что боль — это свойства именно сознания?
            Есть мнение что чувства это эффект возникающий в сложной информационной системе. Которая должна моделировать внутри себя субъективную картину мира. А также субъект себя в этой картине.
            Собственно мозг в следствии эволюции превратился в машину для предсказания будущего исходя из смоделированного внутреннего мира. Что бы выжить. Что то от типа не влезай — убъёт. Та штука выглядит опасно — не лезь сдохнешь.


            Т.е. чувства это эффект возникающий в этом сгенерированном внутреннем мире. Такой же эффект ка центробежная сила — которой не существует как сила сама по себе. или архимедова и подобного.


            1. ednersky
              04.04.2023 00:35

              а чувство самоосознания?


              1. developer7
                04.04.2023 00:35

                Чувство самосознания это всего лишь внутренний диалог. Когда вы сами себе задаёте вопрос: я есть, и сами же можете дать ответ — Да. В обычной жизни как по мне человек процентов 80%-90% работает как автомат. Попробуйте идти куда то, например в магазин, и при этом не думайте не о чём. Вы собственно как робот дойдёте до магазина. С вождением машины точно также. Впринциепе если не думать ни о чём — то вы будете вести себя как конечный автомат.


                Когда вы ведёте диалог, и если не вести при этом внутренний диалог — от вы не особо будите отличатся от ChatGPT.


                Как я уже писал — человек, его Я, самосознание это генерация и модуляция мира и его как субъекта мира в быстрой памяти. Остальное это ChatGPT.


                1. ednersky
                  04.04.2023 00:35
                  +1

                  не не, из чувства самоосознания вытекают многие абстракции и вопросы. вроде "в чём моё предназначение?" итп


                  1. developer7
                    04.04.2023 00:35

                    Я про это и говорю — возможность задавать вопросы, и самому на них отвечать. Забери у человека возможность задавать вопросы про себя — и он превратится в ChatGPT.
                    А какие это вопросы — азм есть? Или как прожить до получки за оставшиеся 100 рублей, не суть важно.


                    Внутренний диалог — это как бы и есть пресловутое самосознание.


                    И да дополню — вся путаница кто есть человек, самосознания, Я и прочего происходит от того, что как правило спорящие стороны рассматривают одну сторону сложного механизма — человека.
                    А он по сути машина с одновременно работающими системами — автоматом, обеспечивающим неосознанные реакции. И внутренним диалогом — как бы осознанные. В один момент времени они работают либо одновременно либо какая то из них. Мы можем заставить себя не дышать, а в другой момент времени вообще не задумываемся о дыхании.


                    Ну и ещё дополню — самосознание напрямую зависит от появления неокортекса и появлении речи.


                    Вот тут говорят мол маугли как бы не говорят но самосознанием вроде как обладают. Они обладают животным самосознанием — которое ближе к аппаратному, это самосознание генерирует мир и субъект мира себя, для предсказания будущего. При этом внутренний диалог отсутствует т.к. отсутствует речь.


                    1. Znaya
                      04.04.2023 00:35

                      Я так понимаю, достаточно ChatGPT прикрутить функцию задавать вопросы самому себе и отвечать на них и он эволюционирует в разумное существо, как мы представляем разум.


                      1. developer7
                        04.04.2023 00:35

                        Ну и строить внутри себя проекцию виртуального мира на внешний. И поместить себя в этот мир как субъекта. И управлять этим миром — предсказывая поведения реального.


                        У человека есть ещё богатая биохимия — она задаёт почти все поведенческие направления.


                        А химия эта обусловлена эволюцией. Размножение рода тяга к противоположному полу, страх — адреналин, голод.


                        У железяки этой химии нет. Поэтому направление поведения должны задаваться программно. Как по мне само собой оно не возникнет. Отсюда просто нелепо опасение, что сам по себе ИИ захочет истребить людей. Сам по себе ИИ скорее всего не захочет ничего. А вот уже поведение которое будет заложено в архитектуру модели на начальном этапе )))) Тут может быть что угодно )))


                        Собственно железяка без полного набора человеческих интерфейсов, по типу биохимии и прочего, уже будет похожа на человека. Но будет работать несколько по иному. Например как тут уже упомянули — есть болезнь когда у человека отсутствует короткая память — и он похож на ChatGPT по поведению. Или шизофрения — когда из точных коротких ответов, строится неточная общая картина — опять же похоже на ChatGPT. По этому мы можем получить совершенно разные типы поведения. Вопрос насколько они будут лучше человека или хуже. Достаточно просто установить определения "лучшести". Да и не важно это. На самом деле никому не надо точная копия человека. Т.к. сами человеки то и не очень точны сами себе. Надо лишь что бы ИИ делала определённые вещи лучше чем человек. Даже если это — выживание. Определённо ИИ на это способен будет.


                        И да, насколько я знаю, текущий ChatGPT не меняет свои веса в зависимости от поступления свежей информации, т.е. не находится в постоянном дообучении. Человеческий же мозг просто постоянно нарастает и уничтожает гиганское количество синапсов.


                1. Moskus
                  04.04.2023 00:35

                  Чувство самосознания, прежде всего - дифференциация внешнего и внутреннего.


            1. geher
              04.04.2023 00:35

              То что вы описали это так называемое "чувство".

              Оно, родимое. И никто толком не может сказать, как это в реальности на физическом уровне работает. Всегда в наличии только рассуждения об источнике данных для чувства, но ни слова про само чувство. Причем эволюционной необходимости в чувствах в общем-то нет.

              Та же боль не нужна. Нужен просто высокоприоритетный сигнал, меняющий поведение. Страдать для этого совершенно необязательно.

              И что характерно, про механизм возникновения собственно боли тоже ничего. Только про источник данных для нее расписывают.


              1. developer7
                04.04.2023 00:35
                +2

                Причем эволюционной необходимости в чувствах в общем-то нет.

                Как раз исключительно эволюцией боль и была создана. Как заставить тушку не лезть туда куда не надо?


                С точки зрения голого технического представления боль это возбуждение нейронов, например кожи, передача сигнала с частотной модуляцией по синапсам в мозг и каскадное срабатывание нейронов в определённых участках мозга.


                Но мы находясь в сознании чувствуем боль.


                Я думаю что на ранних этапах эволюции — сигнал боли воздействовал только на двигательные рецепторы. Ткнули червяка иголкой, он сжался. Поэтому страдания как человек он не испытывает. У человека такой подобный аппаратный механизм сохранился до сих пор — от горячего мы отдёргиваем руку раньше, чем осознаём это.
                Но с появлением неокортекса (почти у всех высших млекопитающих), появился механизм моделирования реальности внутри мозга. И что бы заставить такое животное запоминать травмирующий опыт (для дальнейшего выживания), сигнал боли превратился в эффект страданий внутри этого сгенерированного мира.


                Понятно что что такое боль простыми словами не описать. Но есть факт — она определённо для человека есть. Человек сложная информационная машина. Боль появляется как эффект в такой машине. Значит если сделать такую же сложную информационную машину но на другом носителе, кремний, оптроника, то ничего не мешает появится этому эффекту и там. Т.е. машины тоже смогут чувствовать боль.


                Может показаться что чувство боли это какое то наведённое состояние на сознание, а раз оно наведённое, искусственное, то может его нет? Может долгая медитация способна помочь осознать что боли как токовой нет? Хотя это эзотерика уже какая то.


                1. geher
                  04.04.2023 00:35

                  С точки зрения голого технического представления боль это возбуждение нейронов, например кожи, передача сигнала с частотной модуляцией по синапсам в мозг и каскадное срабатывание нейронов в определённых участках мозга.

                  Это не боль. Это всего лишь сигналы. А вот как оно дает это самое ощущение боли? Вопрос без ответа.

                  Значит если сделать такую же сложную информационную машину но на другом носителе, кремний, оптроника, то ничего не мешает появится этому эффекту и там. Т.е. машины тоже смогут чувствовать боль.

                  Абсолютно безосновательно. Вы можете сделать сколь угодно сложную машину, которая даже будет сообщать вам, что ей больно. Но далеко не факт, что вы не упустите какой-то мелкий, но важный фактор, и никакой боли у машины на самом деле не будет. А все потому, что вы таки не згаете, как появляется боль из сигналов.


                  1. Bronx
                    04.04.2023 00:35

                    Откуда вы знаете, что другие люди ощущают боль? Вы же не можете почувствовать чужую боль, только догадываетесь из сообщений. Может все лишь говорят, что у них боль, но такой настоящей боли, как у вас, они никогда не чувствовали, может только её жалкую тень.


                  1. developer7
                    04.04.2023 00:35

                    Знаете в чём парадокс вашего видения мира? Вы стоите на позиции что можно в принципе узнать есть боль или нету. Но при этом вы используете правила — по которым никогда в абсолюте этого не узнать. Т.е. вы никогда в абсолюте не станете машиной и собой одновременно. Что бы сравнить боли. Как минимум вы можете быть в машине и в себе по очереди — но это уже не подходит под ваши условия сравнения. Боль в вашем понимании это как Чайник Рассела В парадигме которой сущность практически приравнивается к несуществующей. Это как 0 делить на 0.


                    Поэтому ваши утверждения должны звучать так. Мы никогда не узнаем существует ли боль у других сущностей. Что же. Такая позиция имеет право на существование — но она не интересна. Она тупиковая.


                    Есть другая позиция. Ставить критерии. Их может быть огромное количество, но их количество конечно. И вот если критерии двух явлений равны — то мы условно принимаем равенство явлений. При этом количество может нарастать со временем. И вот по этой парадигме уже можно строить модели — и предсказывать будущее. Собственно так физика современная и работает.


                    И к чему я всё это написал. А написал я это к тому, что существование боли это лишь принцип видения мира. Т.е. любой принцип это не истина в последней инстанции. Это всего лишь придерживания правил которые дают наибольший профит.


                1. vconst
                  04.04.2023 00:35

                  Понятно что что такое боль простыми словами не описать. Но есть факт — она определённо для человека есть

                  Почему не описать? Нервные пути все известны
                  По большей части, боль — это сигнал за границей определенного порога, температуры, давления и тп


                  Сложнее с отраженной болью — но она, вроде как, передается по путям от температурных рецепторов


                  Обьяснить машине, что звук снимаемый с динамика больше определенного количества децибел — это "больно" и может ей повредить чисто физически — и она будет реагировать


                  1. developer7
                    04.04.2023 00:35

                    Имеется ввиду не техническая составляющая. А почему боль воспринимается сознанием именно как боль. Именно как страдания. А не например как просто тактильный сигнал. Когда простой сигнал с синапсов у червяков, который приходил напрямую на мышцы, трансформировался у высших млекопитающих (и не только), в ощущения страданий?


                    Отсюда более общий вопрос — почему сознание воспринимает чувства, как оно собственно их и воспринимает. Даже описать это как не особо получается.


                    Я собственно описание опытов таких и не встречал, казалось бы всё для этого есть, бери да экспериментируй на себе. Могу сказать что глубоко анализируя что же такое боль, я например смог на не сильной боли, придти к состоянию что этого чувства нет. В противоположность — очень сильная боль, кажется отключает сознание. Остаются только аппаратные проявления.


          1. mayorovp
            04.04.2023 00:35

            Почему сигналу красного (т.е, если упрощать, определенной комбинации сигналов трех датчиков) соответствует ииенно красный цвет (не формальное название, которое всего лишь договоренность между индивидами, а именно ощущение красного цвета)

            Вопрос не имеет смысла. Красный цвет — это и есть формальное название, договорённость между индивидами.


    1. Robastik
      04.04.2023 00:35
      +7

      нейроны ведут себя очень сложно

      И скоро станет ясно, что 99% их "поведения" не имеют ничего общего с когнитивными функциями, а представляют собой погрешности эволюции и физиологию.


    1. exwill
      04.04.2023 00:35
      -2

      Человек отличается качественно. Говоря простыми словами, он не детерминирован. А языковая модель детерминирована. Да, у нас нет технической возможности (или ресурсов) отследить в деталях причинно-следственные связи в работе нейронной сети. Но она действует "по причине" (я в курсе про рандом). А человек действует без причины. В этом отличие


      1. t13s
        04.04.2023 00:35
        +5

        То есть качественное отличие человека только в том, что у нас (пока) нет инструментов его дебаггинга, позволяющие вычленить причинно-следственные связи?

        Справедливо ли это наоборот: как только мы будем не способны разобраться в сложной нейронке, она автоматически станет "человеком"?


      1. BlackMokona
        04.04.2023 00:35
        +5

        Человек так же полностью детерминирован(Я в курсе про квантовую физику, но её как и рандом выделяем за скобки) Если сделать полный коннектом человеческого мозга и загрузить в полную математическую модель, то мы сможем получить этого человека в коробочке. Где каждую его мысль можно будет точно проследить через всей нейроны. Составить таблицы и всё такое прочее. Поэтому не детерминированность людей это только слабость наших измерительных инструментов.


        1. Stiver
          04.04.2023 00:35

          Не совсем. Мысли человека — это в конечном счете химия, изменение локальной концентрации определенных веществ. Чтобы они были полностью детерминированы, нужно иметь возможность предсказывать броуновское движение в жидкости. Что на сегодняшний день невозможно.


          На практике сигналы как правило действительно можно предсказать не спускаясь на молекулярный уровень, т.к. концентрации и их градиенты достаточно велики. Но какой-то процент граничных случаев потеряется. Возможно как раз те самые "внезапные божественные озарения" :)


          1. gxcreator
            04.04.2023 00:35
            +2

            Ну то есть это всего лишь упирается в точность нашей модели. Если использовать память без коррекции ошибок, то по этой логике и нейросеть становится недетерминированной?


            1. Stiver
              04.04.2023 00:35
              -1

              Если использовать память без коррекции ошибок, то по этой логике и нейросеть становится недетерминированной?

              Теоретически да, но в общем случае "бессмысленно недетерминированной". Чтобы влияние случайных факторов было сравнимо с их значением для мозга, должны выполняться как минимум еще два условия:
              1) все случайные изменения должны вести к разрешенным и валидным состояниям (т.е. не вылетать с исключением)
              2) функция случайных изменений должна быть непрерывна в математическом смысле (химические концентрации не прыгают с 0 до 100, а проходят через все промежуточные значения)


              1. Bronx
                04.04.2023 00:35

                химические концентрации не прыгают с 0 до 100

                В достаточно маленьком объёме — прыгают.


          1. BlackMokona
            04.04.2023 00:35

            А мы можем предсказать такое движение жидкости, мы не может предсказать отдельную молекулу. А вот их массу проще простого. (не кидайтесь в меня тапками работники аэродинамики, гидродинамики т прочих сложных наук)


          1. 0xd34df00d
            04.04.2023 00:35

            Предсказать классическое поведение каждого электрона в транзисторе вы тоже не можете. Наделяет ли это сетку, гоняемую поверх миллиардов таких транзисторов, свободой?


        1. exwill
          04.04.2023 00:35

          А почему мы квантовую физику выделяем за скобки?


          1. 0xd34df00d
            04.04.2023 00:35

            Потому что квантовая физика тоже детерминирована, но понять это сложнее.


            1. exwill
              04.04.2023 00:35

              Что значит детерминирована? Неравенства Белла не работают?


              1. 0xd34df00d
                04.04.2023 00:35
                +3

                Значит, что если у вас есть данная волновая функция и данный оператор эволюции системы, то результат вполне себе детерминирован.


                Неравенства Белла не работают?

                Не могу не отметить иронию, что в квантмехе как раз они и не работают, в отличие от классической физики. Но да, я понимаю, что вы имели в виду.


                1. mvv-rus
                  04.04.2023 00:35

                  Значит, что если у вас есть данная волновая функция и данный оператор эволюции системы, то результат вполне себе детерминирован.

                  Это смотря что называть результатом. Если — волновую функцию в результате взаимодействия, то да, такой варинт детерминирован.
                  Но вот если нам нужен результат измерения некоей величины, то вот он будет совсем не детрминирован (ну, кроме вырожденного случая, когда волновая функция совпадает с собственной функцией оператора этого измерения). Ну и, заодно, волновая функция после измерения поменяется — на ту собственую функцию оператора измерения, которая соответствует полученому результату (собственному значению оператора). А потому толк от такой детерминированности довольно ограничен, до детерминированности из классической механики — в которой, если в принципе в принципе, можно предсказать все — она по возможностям не дотягивает.


      1. TonyEscobar
        04.04.2023 00:35
        +2

        Кажется, что говорить о том, что человек однозначно не детерминирован не совсем верно (если речь идет о свободе воли, творчества и подобном). Как показали некоторые исследования, нашим сознательным действиям предшествуют физиологические процессы, так же как именно они во многом определяют психическое состояние человека. И если есть прямая зависимость нашего состояния (настроения, работоспособности) от физиологии, то наша полная детерминированность оказывается под сомнением (равно как и полная обусловленность поведения/мысли физиологией).

        По итогу мы все находимся где-то посередине между "тупые кожаные мешки, мозг которых постоянно взламывают НЛП-шники, биохакеры, спецслужбы и прочие" с одной стороны, и "единственные и неповторимые, преисполнившиеся в своем познании и отринувшие оковы бренного тела разумы" с другой.


    1. Moskus
      04.04.2023 00:35
      +2

      С одной стороны, вы весьма правы в том, что человек в той или иной ситуации может проявлять когнитивные способности на уровне или ниже уровня языковой модели, т.е. вести себя, как настоящий олигофрен, при этом не являясь олигофреном в медицинском смысле.

      С другой стороны, вы совершенно не правы в том, что вы говорите о количественном и качественном различии. Потому что "количественно" (в конкретно-предметных тестах) ML-системы могут побить человека абсолютно без проблем. Например, на операции сравнения множеств. А вот "качественно" - пока что не очень, потому что анализ и синтез (абстрактные операции) языковым моделям "не завезли".


      1. leventov
        04.04.2023 00:35

        пока что не очень, потому что анализ и синтез (абстрактные операции) языковым моделям "не завезли".


    1. FunnyBlort
      04.04.2023 00:35
      +4

      Вот - ещё один сильно до**я умный но не имеющий никакого отношения. Количество нейронов не является показателем. У слона например мозг больше, и нейронов в нём тоже - но он тупее и примитивнее. Загвоздка? Количество межнейронных связей на которых качество и скорость мозга строятся.

      Есть у нас и сознание, и свободная воля и разум. На этот счёт посвящены целые научные работы которые довольно хорошо описывают как и номенклатуру так и механики работ, каким образом мы оцениваем разум, его сложность и грубо говоря умность. Всего-то несколько слов в различии нашего генома и генома обезьяны - но из за того как работают хаотические системы (chaotic theory) - из этого различия вырастает целый набор и сложность функционала. Так и начинается существо разумное. "Достаточно одной таблэтки расхожести".

      Существо начинает быть разумным в тот момент когда полностью осознаёт себя и может понять абстракцию а также провести само-рефлектирование на логическом уровне, и/или когда логическо-когнитивный цикл по используемости выше чем инстинктивный.

      P.S/ "На каждый нейрон потребуется отдельная нейросеть" да вашуж мамашу. "Для каждой детали лодки потребуется целая 3д модель лодки" дядь, не кури. И не отсыпай, не хочу. Что за тавтология такая? Модель она и есть модель. Модель может быть как и упрощённой так и точно-следующей. Ну да у нас пока понятие diminishing echoing signal не настолько хорошо сделано в моделях. Да пока что вместо биологической симуляции кровосистемы и веществ используется векторный шум. Смысл примерно тот же. Сложность модели пониженая.


      1. Moskus
        04.04.2023 00:35
        +1

        Строго говоря, самосознание критично только для некоторых абстрактных когнитивных операций. Для "отвечалки на вопросы" оно не обязательно, если вопросы не включают, явно или косвенно, понятие себя.


      1. damewigit
        04.04.2023 00:35

        Интересный у вас конечно стиль общения, но да ладно, оставим это на вашей совести. Все что я тут написал, я не придумал сам. Это компиляция информации которая мне понравилась, нашла отклик в моем интуитивном ощущение сабжа, но я просто как обезьянка слово в слово ее цитирую.

        да вашуж мамашу. "Для каждой детали лодки потребуется целая 3д модель лодки" дядь, не кури

        Пример с нейросетью нейросетей придумал не я, я подслушал это у Вячеслава Дубинина вот здесь https://www.youtube.com/watch?v=0qlgd8HLn_M и эта идея мне очень понравилась, учитывая как сложно сейчас линейными алгоритмами заходить нейрон, не такой уж это и бред

        У слона например мозг больше, и нейронов в нём тоже

        Проблема в том что слону нужно тратить большинство своих нейронов на моторику, контроль мышц. Не было бы у слона такого массивного тела, нет причин считать что он не был бы умным.

        Есть у нас и сознание, и свободная воля и разум

        Тут я тоже просто проецирую мнение видных нейробиологов. Например Роберт Сапольский так считает, или вот например Николай Кукушкин, в своей книге Хлопок одной ладонью четко об этом говорит. Есть исследования, которые показывают, что решение принимается в мозге за некоторое время до того как субъект начнет его осознавать. Исследователи смогли с помощью функционального МРТ предсказывать выбор человека с очень большой точностью, до того как он его принял. Есть эксперименты с людьми, у которых нарушена связь полушарий. Им в разные глаза показывают разные картинки, просят нащупать предмет что они видят, и произнести его название. И вот человек держит кубик в руках, а говорит что видит шар. В какой полушарии осталась его "свобода воли" и "самосознание"?) Что оно сейчас воспринимает, шар или кубик?

        Существо начинает быть разумным в тот момент когда полностью осознаёт себя и может понять абстракцию

        OpenAI GPT4 умеет в абстракцию. Она уже разумна?

        описывают как и номенклатуру так и механики работ, каким образом мы оцениваем разум, его сложность и грубо говоря умность

        Классификации это здорово конечно, особенно когда на них гранты дают, (Плутон - планета, да, да) но есть проблема. Их постоянно нужно менять. Эти противные люди, то обезьяну научат словам, то нейронки свои проходящие тесты Тьюринга и и умеющие в Theory of mind собеседника накодят, . Мы постоянно будем находить в природе или создавать, феномены, которые в эти классификации уже не укладываются. Можно сколько угодно классификаций сделать, по одной мы будем разумными вместе с плоскими червями, в другой человек будет венцом творения, и не позовет с собой даже обезьяну, сути вещей это не меняет, как не классифицируй, явление остается тем же.


        1. ednersky
          04.04.2023 00:35

          Проблема в том что слону нужно тратить большинство своих нейронов на моторику, контроль мышц. Не было бы у слона такого массивного тела, нет причин считать что он не был бы умным.

          слон — млекопитающее
          насколько я помню, все млекопитающие имеют сходный скелет (количество позвонков итп) и сходный набор мышц (разница только в рудиментированных или атрофированных).


          Соответственно, у слона не больше мышц, нежели у человека (во всяком случае не в разы): да хобот есть, но пальцы, например, не такие гибкие.
          В общем — паритет по количеству.


          масса? Да, большая. Но и люди встречаются с массой до 500-1000 килограмм. От такой массы они не становятся тупее только потому, что им нужно управлять таким огромным телом.


        1. ednersky
          04.04.2023 00:35

          OpenAI GPT4 умеет в абстракцию. Она уже разумна?

          все нейросети — суть "метод интерполяции" не более того.
          что такое метод интерполяции (ну или проще — аппроксимации)? Это когда у вас есть две точки, и вы по ним можете вычислить значение третьей (вычислить == предположить, с какой-то точностью).


          Всё что умеют нейросети, можно делать, например с помощью математических рядов: ну скажем разложение в ряды Фурье.


          Берём 10 имеющихся точек (замеров), при помощи рядов Фурье вычисляем функцию, проходящую через эти точки, затем, используя полученную функцию, можем отвечать на вопросы: "а какое значение будет в 11 точке" (экстраполяция) и "а какое значение будет между 5 и 6 точками?" (интерполяция, или, если приблизительно — аппроксимация).


          Так вот, ряды Фурье и прочая точная математика работают тогда, когда точек немного. А вот если их много, то тут математики разработали численные методы — вот те самые нейросети. Смысл этих методов в том, что если при построении функции учли 10 точек, то добавить к учёту 11-ю — это не переделать всю работу с нуля, а скорректировать коэффициенты у 10 методом обратного перерасчёта. Эту коррекцию называют обучением. Но от названий "нейро-" или "обучение" интеллект всё ещё не появился.


          Как был метод интерполяции (усреднения 100500 измерений и предсказание по ним 100501-го) так и остался.


          OpenAI GPT4 умеет в абстракцию.

          OpenAI не умеет в абстракцию. Никакие программы пока и в обозримом будущем не умеют в абстракцию и не будут уметь.


          1. damewigit
            04.04.2023 00:35

            OpenAI не умеет в абстракцию. Никакие программы пока и в обозримом будущем не умеют в абстракцию и не будут уметь.

            Сможете сочинить простой текстовый вопрос для меня, умеющего в абстрактное мышление, на который я смогу ответить, а искусственная нейросеть нет?


            1. developer7
              04.04.2023 00:35

              Представь семь красных линий таким образом, чтобы все они были строго перпендикулярны друг другу, причем некоторые зелёным цветом, а некоторые — прозрачным. А теперь опиши тип боли который ты испытываешь.


              1. damewigit
                04.04.2023 00:35

                Неплохо :) Я схожу с этим в OpenAI и вернусь к вам с ответом


                1. ednersky
                  04.04.2023 00:35

                  поскольку эта шутка есть в интернете, то OpenAI выдаст какой-то усреднённый текст по ней (та самая интерполяция).


          1. damewigit
            04.04.2023 00:35
            +1

            Сори за мои лонгриды, мой посыл из всего это треда укладывается в два пункта.

            1. Глупо искать священный Грааль в человеке, качественно отличающий нас по мышлению от животных и теперь уже нейросетей или выдавать за неоспоримый очевидный факт. Мол сеть это программа, а я душа со свободной волей, между нами пропасть. Не надо так :)

            2. Еще довольно часто люди недооценивают важность языка. Они воспринимают его как способ сериализации своих мыслей, идей, образов. И я их понимаю, я ровно также это субъективно ощущаю. Но из того что я прочитал и посмотрел на эту тему за последнее время, я пришел к выводу, что язык и есть эти мысли, образы и идеи. Абстрактное мышление без языка тоже довольно сложно представить, люди Маугли например совсем не могут абстрактно мыслить.


      1. Bronx
        04.04.2023 00:35

        Есть у нас и сознание, и свободная воля и разум. На этот счёт посвящены целые научные работы

        Точно также существет куча научных работ, ставящих под сомнение наличие свободы воли. И?


    1. DummyBear
      04.04.2023 00:35

      Как минимум, человеческий разум - это не только языковая модель. У нас есть ещё и другие органы для осязания реального мира, и никакие тексты не убедят меня, что холодное - это горячее, когда я это холодное держу и ощущаю в руках. А текстовые боты могут сколько угодно писать отсебятину на незнакомые им темы, но у них нет инструментов для познания мира, за исключением людей, написавших об этом текст.


  1. shrikelovesyou
    04.04.2023 00:35

    Картинка в начале поста гениальна - умер на рабочем месте от смеха)


  1. flancer
    04.04.2023 00:35
    +5

    Потому что он будет просто более адекватен в своем восприятии, что гораздо важнее знаний и опыта.

    Ну, как бы адекватности без опыта не бывает. Адекватность - производная опыта. Своего или чужого, почерпнутого из каких-либо информационных источников. Адекватность - это соответствие чего-то чему-то. В рамках статьи - представления человека о реальности самой реальности.

    Адекватен в восприятии... Тут вообще не понятно, о чём это. Что с чем сопоставлять? Восприятие реальности - это уже её искажение (согласно изложенного в самой статье). Так чему должно соответствовать восприятие, чтобы судить об адекватности этого самого восприятия? Уже сформировавшимся на момент восприятия иллюзиям? В таком случае мы тут все адекватные в восприятии. Каждый по-своему.


    1. DGN
      04.04.2023 00:35

      Адекватность воприятия можно оценить из точности прогноза. Если прогнозы точны, точна и модель.


  1. mvv-rus
    04.04.2023 00:35
    +10

    Ничего не могу поделать с собой, но мне как человеку, учившемуся в СССР, где материализму (причем — диалектическому) учили в добровольно-принудительном порядке, хочется при чтении подобных статей взять какой-нибудь аргумент потяжелее. Например, когда на глаза попадается рассуждение вроде этого:

    все мы живем в подобии «галлюцинации», которая синхронизируется с внешним миром тогда, когда расхождение становится значительным. Мы не можем иметь представление о самой реальности, так как всегда имеем дело лишь с ее «симуляцией», которую нам рисует наш мозг, имея обрывочные представления о внешнем мире.

    — то у меня возникает желание поинтересоваться: а грабли, которые ударили по лбу наступившего на них — это тоже «галлюцинация» или, там, «симмуляция»? Или это все же — часть объективной реальности, которая, как нас учили, дана нам в ощущениях: в примере с граблями — в ощущении боли от удара и нащупываемой на лбу шишки? И будут ли эти ощущения существенно отличаться у разных людей, одинаково наступивших на одни и те же грабли? Вопрос, как говорится — риторический.
    Но это частности. А в целом, (если придерживаться естественнонаучной точки зрения, конечно) то мозг у человека развился ради простой цели — обеспечить для этого человека возможность добычи средств для существования. Точнее — для существования группы людей, иначе — общества.
    Почему?
    Потому что, во-первых, одиночный человек не может добыть средства к существованию без помощи других. А, во вторых, одиночный человек подвержен запланированному устареванию: каких-то несколько десятков лет — и все, был человек — и нет человека.
    Так вот, мозг — это орган, предназначенный для создания модели окружающего мира. Модель создается, начиная с неполной и неточной, но она постепенно пополняется за счет практики в процессе добычи этих самых средств для существования. А если говорить не об отдельном человеке, а об обществе, членом которого человек неизбежно является (почему — см спойлер выше), то, благодаря способности членов общества к коммуникации, модель объективной реальности разделяется членами общества (в диалектическом материализме это называется общественным сознанием).
    Собственно, автор это даже понимает:
    Теперь перейдем к главному. Если мы все склонны уходить в иллюзии, то наше мировоззрение чаще всего не более, чем нагромождение различных «костылей», помогающие нам уйти от болевых моментов.

    Но он игнорирует главное: причину появления этих «болевых моментов» — что они возникают от столкновения «иллюзий» (т.е. модели мира в сознании) с той самой объективной реальностью. Модели могут быть устроены по-разному: от «костылей» типа набора табу в первобытном племени, до стройных научных теорий современности. Но есть нечто, что их роднит: они изменяются в резульате взаимодействия людей с реальностью в таком направлении, чтобы лучше ей соответствовать. Почему именно в таком? А это — результат отбора: общества, не научившиеся двигаться в правильном направлении (и притом двигаться достаточно быстро), проигрывают своим конкурентам и сходят со сцены истории.
    А вот теперь, когда я вкратце описал устройство процесса познания в рамках диалектического материализма, можно вернуться к нашим баранам — к GPT. GPT тоже создает модель, но другую — модель языка и изложенных на нем утверждений. То есть — модель модели, части общественного сознания, которой является язык (ну, и отбраженные на этом языке факты). Взаимодействия с объективной реальностью у GPT нет. А даже если бы и было — далеко не факт, что GPT будет способен строить модель этой самой реальности. Хотя бы потому, что реальность (и ощущения от нее) структурированы куда хуже, чем язык вместе с зафиксированными на нем фактами, которые уже есть продукт первичной переработки результатов взаимодействия (общественной практики, если на языке диалектического материализма). Собственно, статья Zangasta, как я ее понял — она как раз об этом.
    PS Прошу простить избыток философских терминов в комментарии (причем — из одной философской школы): меня учили именно на таком языке, а своими словами я это изложить затрудняюсь.


    1. Wizard_of_light
      04.04.2023 00:35
      +2

      GPT тоже создает модель, но другую — модель языка и изложенных на нем утверждений

      Вот зря вы так пренебрежительно о языке. Просто надо их с midjorney подружить, и будет практически наше сознание. Собственно, и интернет так взлетел потому что подавляющая часть нашего мышления - слова и картинки.


    1. ti_zh_vrach
      04.04.2023 00:35
      +4

      — то у меня возникает желание поинтересоваться: а грабли, которые ударили по лбу наступившего на них — это тоже «галлюцинация» или, там, «симмуляция»?

      Мне кажется, грабли — пример для этого высказывания в статье:


      которая синхронизируется с внешним миром тогда, когда расхождение становится значительным.

      Удар по лбу — значительное расхождение между галлюцинацией "грабель нет" и реальностью "грабли есть".
      А будет ли человек дальше убеждать себя в отсутствии грабель — отдельный вопрос. И ответ на него вовсе не очевиден. Всякое бывает.
      Более того. Мне кажется, что удар по лбу совсем не обязательно был на самом деле. Особенно, если момент удара человек не помнит по вполне очевидным причинам. Его могли ударить. И не граблями. Но сказали, что он сам наступил, дурак этакий. Фантомные боли бывают. И шишка может быть вовсе не шишка. А может и не быть.
      Я конечно утрирую. Но всё же.


  1. Breathe_the_pressure
    04.04.2023 00:35
    +5

    Закрадывается подозрение, что эта статья тоже иллюзия.


    1. vin2809
      04.04.2023 00:35
      +4

      и написана чат-ботом...


    1. leventov
      04.04.2023 00:35
      +1

      Роллаут языковой модели, то бишь "симуляция" или "конфабуляция". "Иллюзия" имеет другую коннотация - что-то что и "не собиралось" сходиться с реальностью. Как художественная литература. А если текст не художественный - он все таки хочет что-то выразить про реальность. Насколько у него получится описать реальность точно - это другой вопрос.


  1. haldagan
    04.04.2023 00:35
    +1

    От сюда и различия во мнениях у людей с одинаковым уровнем знаний и IQ.

    Эта "иллюзия", как вы ее называете - продукт многолетнего процесса формирования личности, набора опыта и формирования модели мироустройства.
    А вы сводите это просто к "одинаковому уровню знаний и IQ".

    Потому что иллюзии - это механизм защиты психики от чего-то неприятного

    То, о чем вы говорите называется "когнитивный диссонанс" и, подчас, чтобы принять какой-то один простой факт, человеку придется переосмыслить не только обсуждаемый вопрос, но и кучу окружающих его теорий и идей, с которыми он живет уже давно, что сделать не так-то просто.
    Для уменьшения диссонанса человеку проще придумать причину того, почему факт не важен, чем переосмысливать всю картину целиком.

    рассуждая про сознание в ИИ

    Если вы про Юдковского, то я наискосок читал его старые статьи на тему ИИ.
    Они не очень убедительны (ИМХО), но он призывает кастрировать ЛЮБОЙ прогресс в ИИ (даже такой "незначительный" как чатгпт), потому что это неизбежно приведет к созданию полноценного ИИ.
    Т.е. его позиция не "чатгпт - сильно умный и убьет нас, давайте срочно удолим", а "не стоит делать ИИ вообще, а чатгпт - неплохой такой шаг в ту сторону, поэтому давайте срочно удолим".


  1. antiquar
    04.04.2023 00:35
    +2

    Попалась мне статься "GPT-апокалипсис отменяется", которая в очередной раз заставила меня задуматься

    А как, собс-но, Ваши размышления связаны с тезисами статьи "GPT-апокалипсис отменяется"?

    По видимости, только использованием аббревиатуры ИИ.


    1. ti_zh_vrach
      04.04.2023 00:35
      +2

      А как, собс-но, Ваши размышления связаны с тезисами статьи "GPT-апокалипсис отменяется"?

      Я не автор но попробую ответить.
      Обратите внимание на заголовок текущей статьи. Приведённая в пример статья написана человеком, который не может быть полностью компетентен в вопросе ИИ. Автор той статьи — экономист. Он наверняка хорошо разбирается в экономике. Но это не значит, что он будет хорошо разбираться в её отдельном компоненте — будь то кофейня на углу, договор купли-продажи гвоздей у китайского поставщика или языковая модель GPT4.


      1. antiquar
        04.04.2023 00:35
        +1

        Это же про автора. А сама статья ("GPT-апокалипсис отменяется") никак не затрагивается.


      1. vconst
        04.04.2023 00:35

        Приведённая в пример статья написана человеком, который не может быть полностью компетентен в вопросе ИИ. Автор той статьи — экономист

        //смеется


        Автор той статьи — считает сметы в компании, которая строит коттеджи в Подмск. К экономике это относится… Ну так себе, как и к машинному обучению


        А та статья короткая заметка (4.5к знаков), написана как последняя попытка пропиарить книгу текст, который за пять лет — так и не взлетел


        Не стоит его слишком строго судить )))


  1. diakin
    04.04.2023 00:35
    +12

    GPT это только инструмент, апокалипсис устроят сами люди. Хотя и без GPT как-то обходимся постоянно.


  1. SADKO
    04.04.2023 00:35

    Автар маладэц но не арёл :-) Нашел вроде бы правильную ниточку, но клубочек не стал распутывать, от того и многие утверждения и вывод . . кривые . . но в духе культурной повесточки, не взирая на абсурдность оной.

    Обывательские рассуждения, суть споры о неведомом боге, а специалисты по богу, попы, говорят красиво и складно вокруг не менее неведомого бога :-)

    Иное дело, какой-нибудь наблюдатель звёздного неба, который тоже не увидит там бога, но вот затмения, то есть гнев божий, не будут для него внезапными.

    Будет ли он посягать на хрупкий душевный мир обывателя или специалиста, или примерит роль пророка?


  1. ermolalex
    04.04.2023 00:35

    Вопрос к автору: а вы находитесь в данный момент в иллюзорном мире?
    Если да, то собственно к кому вы обращаетесь? Мы, читатели, для вас никто, иллюзия...
    Если нет, то почему?


    1. ELEKTRO_YAR Автор
      04.04.2023 00:35

      Морфиус, это ты?

      Ну, если очень утрированно, то конечно же я всегда имею дело только лишь с миром своего восприятия, в том числе с симуляцией людей, так как реальные их чувства, мысли, и будущее поведение мне не может быть известно напрямую. Все что у меня есть - монитор, который мне показывает текст сообщения. Поэтому я общаюсь с "выдуманными" людьми, но это воображение синхронизировано с реальность на столько, на сколько это возможно через анализ текста, и на сколько это мне удобно с точки зрения моих внутренних проблемок.

      Например, мне может начать казаться что все меня критикуют, и причем это может быть безосновательно, т.к. скорее всего не все. Очевидно, что такие воображаемые "критики" менее соответствуют реальности, но больше подходят мне для каких-то уже эмоциональных потребностей.


      1. ermolalex
        04.04.2023 00:35

        Я задал вопрос не для того, чтобы подколоть. (собрался было даже отредактировать, но не успел).
        Я к тому, что если допустить иллюзорность мира, в том числе и себя, "полностью", то все встает на свои места )).
        Я как отдельная личность - иллюзия, мир вокруг меня - иллюзия.
        Реален только вселенский разум, который я собственно и представляю, сам про это не зная, который через меня играет в игры, в частности в ChatGPT. Я сам себя спрашиваю, сам же и отвечаю.

        Уже несколько авторов отмечали, что чем подробнее задаешь вопрос, тем адекватнее получаешь ответы. Что логично. Но "чем подробнее задаешь вопрос" - это уже половина, а то и больше - ответа. Т.е. задающий почти знает ответ, и в каком то смысле он спрашивает самого себя.


  1. VincentoLaw
    04.04.2023 00:35
    +1

    Автор, берёт за основу верные аргументы, и использует их, чтобы без обоснований намекнуть на абсолютно необоснованый вывод! Какие эмоции движут автором в этот момент?

    Если люди, которые увлечены ИИ, скажут честно, что появилось раньше: желание видеть в машине нечто живое, некий разум, или объективная оценка такой возможности, то думаю сначала будет желание. А значит все остальное будет не более, чем подгонкой логики под это желание.

    Может быть это страх перед неизвестным движет теми, кто не хочет признать, что GPT может представлять угрозу и это надо обсуждать? Или страх показаться некомпетентным в условиях новой волны хайпа? Почему автором делаются именно выводы только в одну сторону?)

    Скажу честно, когда начинался хайп, я довольно скептично относился к возможностям GPT, пока не попробовал. Я точно не хотел увидеть в машине нечто живое. Сейчас, неплохо разбираясь в нейронных сетях и теме AGI, я могу сказать что есть большая вероятность того, что GPT имеет уровень мышления и понимания, близкий к человеку. Так что у меня произошла ровно обратная история, от "вряд ли текущими мощностями с текущей несовершенной моделью нейронов можно повторить мышление" к "ого, эта модель точно умеет абстрагировать информацию, и применять её в других областях, умеет осуществлять трансфер знаний между языками, обладает абстрактной логикой и способна решать задачи, которые никогда не видела".

    Попробую обосновать эти утверждения. Но сначала про "это всего лишь статистическая модель". Тут есть хороший контраргумент. Каковы отличия нашего мозга от статистической модели, которая предсказывает будущее? Сможете ли вы ответить на этот вопрос в функциональных терминал, объясняя человеческое мышление? Главный разработчик GPT говорит что мы можем смотреть на нейронные сети, обученные таким образом, как на способ сжатия информации, который помогает эффективно предсказывать будущее. И он утверждает, что именно так работает мозг. Я скорее соглашусь с ним. Основная разница в том, что у мозга 5 чувств для восприятия, GPT же воспринимает мир только через текст. Чтобы эффективно предсказывать следующее слово, модели пришлось научиться глубокому уровню понимания мира через призму текста. Попробую ниже обосновать про глубокий уровень понимания.

    GPT проходила сложные тесты на знание самых разных предметных областей, на разных редких языках, на которых даже нет книг на эти темы (600 тыс. носителей языка). И проходила их успешно. Она умеет мапить понятия из одних языков в другие (при том что её этому не обучали), и использовать их для решения задач. Эти задачи, которые решала GPT, не встречались в интернете. Это трансфер знаний. В более полной форме по той же схеме человек может использовать знание из финансовой сферы в IT, изобретая DeFi, это очень серьёзный когнитивный навык. Пруф - презентация GPT-4 от openAI.

    Я сам давал ей разные задачи на логику, которые средние люди не могут решить, она справляется на ура. Даже если переформулировать задачу на свою, которой никогда не было в интернете. Я дал ей задачу на изобретение мат индукции (про 12 мудрецов и изумруды). Она ошиблась в подсчёте в одном месте, но успешно изобрела математическую индукцию с нуля. Что ещё раз доказывает что она не копирует интернет, а абстрагирует, переосмысляет, и пытается использовать в других сферах. Что уже очень высокий уровень когнитивных способностей, и претендует на "понимание".

    Напомню презентацию GPT4, где по изображению GPT создаёт сайты или видит что из жареный крылешек люди выложили нечто похожее на карту мира. Ещё один факт трансфера знаний. Я склонен доверять этой презентации после ежедневного использования GPT4.

    В целом на GPT4 мои аргументы гораздо более заметны. Она действительно очень мощная.

    Про китайскую комнату. Уж очень бесит этот аргумент. В китайской комнате понимание текста находится в наборе правил, которые отдаются человеку на исполнение. Либо китайская комната невозможна. Вот основные ответы на этот вообаржаемый эксперимент. У вас есть другие ответы? Если китайская комната возможна, значит, скорее всего, понимание это информационный процесс обработки данных. А значит он может исполняться, вероятно, на любых тьюринг полных вычислительных машинах, и даже, возможно, на куче карточек с правилами. Кто-то скажет абсурд, кто-то скажет нет, но где аргументы за версию что это абсурд?

    Про сознание у GPT. У нас до сих пор нет определения сознания и квалиа. Мы не знаем ответа на проблему философского зомби. Поэтому это вопрос больше предпочтений. Те, кто согласны, что некоторые животные проявляют формы самосознания (дельфины, слоны), могут предположить что и GPT имеет некоторую форму самосознания в зачаточной форме. GPT способна замечать своё существование в мире. И способна проявлять эмпатию (по описанию действий человека угадывать его эмоциональное состояние). Мы не знаем, достаточно ли этого для самосознания, и что это вообще такое. Так что можно спорить бесконечно.


    1. janatem
      04.04.2023 00:35

      Про китайскую комнату. Уж очень бесит этот аргумент.

      Когда слышу про китайскую комнату, я хватаюсь за бритву. Китайская комната — это в точности компьютер, ни больше, ни меньше. Таким образом, это совершенно бесполезная метафора для обсуждения феномена сознания. Ну, разве что для людей, которые никогда не видели компьютер и не читали про машину Тьюринга.

      Ошибка Сёрла (автора метафоры) состоит в том, что он задает вопрос о понимании китайского языка человеком, находящимся внутри комнаты (и дает отрицательный ответ с последующим выводом о невозможности алгоритмизации сознания). Но роль человека в комнате очень мала — это просто компьютерный процессор, который представляет собой всего лишь конечный автомат, притом небольшой. Если уж ставить вопрос о том, обладает ли комната сознанием, то искать его нужно, очевидно, не в процессоре, а в состоянии памяти.

      Я думаю, в любой дискуссии все упоминания китайской комнаты можно смело выбрасывать и заменять на тезис о том, что сознание (не)алгоритмизуемо.


      1. Moskus
        04.04.2023 00:35

        Пойдем дальше. Упоминание китайской комнаты - метафора, потому уже по своей природе - упрощение, которое может только иллюстрировать, но не доказывать. Потому мы просто обязаны сначала сказать об алгоритмизации, описав механику явления, а потом уже можно говорить о "комнатах", пытаясь наглядно проиллюстрировать явление. Иначе, мы скатываемся к конкретно-предметному мышлению и действительно становимся на одну ступень с ML-системами.


  1. vdudouyt
    04.04.2023 00:35

    Поэтому, если взять человека, который никакого отношения к ИИ не имеет, то скорее всего после ознакомления с информацией он более адекватно оценит те или иные опасности от ИИ и более адекватно ответит на философские вопросы про то же сознание.

    Оценка качества моделей полученных на основе машинного обучения это намного более нетривиальная проблема, чем может показаться обывателю на первый взгляд.

    И человек, имеющий хоть какое-то отношение к ИИ по крайней мере это понимает и не будет вестись на научпоп сказки для инвесторов в стиле "наша революционная модель дает 99% точности определения остеохондроза левой пятки правой ноги по фотографии волос на наших тестовых данных, а завтра будет давать 99.9%". Или, по крайней мере, воспримет подобную новость с должной степенью скептицизма.

    А вот обыватель - и прочитает (причем стараниями корпоративных блогеров вполне возможно, что и на этом ресурсе), и примет за чистую монету.


  1. HaL_gcedon
    04.04.2023 00:35

    Debunking Illusions in Science.

    HaL G

    Ответь на статью и укажи недостатки:

    будет не в том, что аргументы не достаточно убедительные. А просто потому что так не работает. Человек не сможет выйти из иллюзии, которая его защищает от чего-то крайне неприятного, пока не устранены сами эти переживания.

    Теперь перейдем к главному. Если мы все склонны уходить в иллюзии, то наше мировоззрение чаще всего не более, чем нагромождение различных "костылей", помогающие нам уйти от болевых моментов. Поэтому очень редко бывает так, что человеку просто интересно заниматься физикой, просто интересна тема искусственного интеллекта, просто интересна наука сама по себе. К сожалению, скорее всего "не просто интересно", а это выполняет еще и роль построения некой иллюзии для эскапизма от болевых моментов.

    Самое парадоксальное, что у человека, интересующегося наукой, может при этом быть самое настоящее "магическое мышление". Рациональность дает мощный инструмент не только познания мира, но и для ощущения себя "магом", которому весь мир теперь понятен, а значит все под его контролем, все разложено по полочкам. Это самое настоящее чувство псевдоконтроля над жизнью. Такая иллюзия просто защищает от тревоги, от страха смерти и от много чего еще, точно также, как и у суеверного человека. Поэтому такие "маги" рационалисты могут написать книгу про методы рационального мышления в магическом мире, какая ирония.

    Такие вопросы, как устройство сознания, являются эмоционально значимыми, потому что где-то рядом с данной темой проходят такие вопросы, как собственная смерть. Поэтому трудно быть объективным, рассуждая про сознание в ИИ. И особенно труднее быть объективным, если ты посвятил свою жизнь данному вопросу. Потому что очень вероятно, что человек не просто так посвятил свою жизнь данному вопросу, а для ухода от каких-то внутренних противоречий.

    Если люди, которые увлечены ИИ, скажут честно, что появилось раньше: желание видеть в машине нечто живое, некий разум, или объективная оценка такой возможности, то думаю сначала будет желание. А значит все остальное будет не более, чем подгонкой логики под это желание. И никакой научный метод им не поможет это увидеть, никакие знания, опыт машинного обучения и т.д. И все их философские выводы будут не более, чем одной большой такой красивой "сказкой". Но другим людям эта сказка не интересная и не нужна. Им уже нужны реальные основания что либо считать по данной теме.

    Поэтому, если взять человека, который никакого отношения к ИИ не имеет, то скорее всего после ознакомления с информацией он более адекватно оценит те или иные опасности от ИИ и более адекватно ответит на философские вопросы про то же сознание. Потому что он будет просто более адекватен в своем восприятии, что гораздо важнее знаний и опыта.

    Статья утверждает, что интерес человека к науке и технологиям может быть не только результатом познавательного стремления, но также служить средством эскапизма от личных проблем и болевых моментов, что может привести к иллюзиям и неправильным выводам. Также автор указывает на то, что интерес к темам, связанным с сознанием, может быть связан с желанием обрести контроль над собственной жизнью и защититься от страха смерти.

    Однако, статья не уделяет должного внимания тому, что интерес к науке и технологиям может быть связан не только с эскапизмом, но также с желанием преодолеть сложности и решить глобальные проблемы человечества. Кроме того, автор не предоставляет достаточно доказательств и аргументов, чтобы подтвердить свои утверждения, что делает статью слишком спекулятивной и неполноценной.

    Также следует отметить, что автор слишком категорично и обобщенно рассуждает о всех ученых и специалистах в области искусственного интеллекта, считая их всех эскапистами, стремящимися к контролю над жизнью и избеганию страха. Это является недостатком статьи, так как все люди индивидуальны и у каждого свои мотивации и цели.

    В целом, статья представляет интересный взгляд на интерес к науке и технологиям, но требует более серьезных аргументов и учета различий в мотивациях людей.

    Сгенерировано ChatGpt


    1. ELEKTRO_YAR Автор
      04.04.2023 00:35

      Также автор указывает на то, что интерес к темам, связанным с сознанием, может быть связан с желанием обрести контроль над собственной жизнью и защититься от страха смерти.

      Однако, статья не уделяет должного внимания тому, что интерес к науке и технологиям может быть связан не только с эскапизмом, но также с желанием преодолеть сложности и решить глобальные проблемы человечества.

      Т.е. выходит, что человек хочет решить глобальные проблемы просто так, а не потому что ему потом в этом мире жить, и если не решить глобальные проблемы, то будет как минимум менее приятно жить. Или даже вовсе не получится жить дальше.


    1. ELEKTRO_YAR Автор
      04.04.2023 00:35

      Также следует отметить, что автор слишком категорично и обобщенно рассуждает о всех ученых и специалистах в области искусственного интеллекта, считая их всех эскапистами, стремящимися к контролю над жизнью и избеганию страха.

      Если рассматривать конкретную тему, то эскаписты не все. Будут ведь разные мнения на один и тот же счет. А значит кто-то эскапирует, кто-то менее.

      Если же рассматривать человека в принципе, причем любого, то да, мы все эскаписты.


  1. XanKraegor
    04.04.2023 00:35
    -1

    На мой взгляд, важнейшее отличие биологической нервной системы — самопроизвольная инициализация, генерация сигналов. Алгоритм нейронки, каким сложным бы он ни был, по определению запускается кем-то извне и работает по каким-то детерминированным принципам. Пускай и настолько сложным, что сейчас они перестали поддаваться анализу. Нейроны же, вероятно, связаны не только с вводами и выводами, но и с неизученными стохастическими процессами.

    Иными словами, современные нейронки и биологические нервные системы допустимо сравнивать только если доказуемо и доказано, что последние тоже можно свести к машине Тьюринга.


    1. Dertamio
      04.04.2023 00:35
      -1

      Но человек также создан извне, так как сама вселенная создана из вне, при этом какой-то принципиальной границы конца этого толчка при создании вселенной нет, так что и человек и нейросеть по сути включаются одинаково


  1. idregerge
    04.04.2023 00:35
    -2

    забавно читать комментарии, как люди погруженные в рациональность, пытаются оправдать свои идеи. Ничего нового не сказали, по существу разговор с зеркалом. Такое ли большое отличие от ботов? Разум идёт в первую очередь от социума, без него он не существует. Поэтому если мы хотим думать что нейросетка стала разумной, нужно дать ей обратную связь от общения, либо возможность общаться самой с собой


    1. ednersky
      04.04.2023 00:35
      -2

      Разум идёт в первую очередь от социума, без него он не существует

      1. осознание собственной смертности (у неразумных нет)
      2. страх смерти
      3. вытекающий из пунктов 1 и 2 вопрос о смысле бытия
      4. поиск ответов
      5. 42?


  1. dasgutenberg
    04.04.2023 00:35

    Если спросить сам чат, то он выдает следующее мнение: "ИИ может быть опасен, если он используется неправильно или в неподходящих условиях. Например, если ИИ используется для принятия важных решений, таких как выдача кредитов или диагностика заболеваний, то его ошибки могут иметь серьезные последствия для людей. Поэтому важно разрабатывать ИИ с учетом этических и социальных аспектов, а также обеспечивать прозрачность и ответственность при его использовании."


  1. vconst
    04.04.2023 00:35

    Согласно теории предсказательной обработки, к сожалению, все мы живем в подобии "галлюцинации", которая синхронизируется с внешним миром тогда, когда расхождение становится значительным. Мы не можем иметь представление о самой реальности, так как всегда имеем дело лишь с ее "симуляцией", которую нам рисует наш мозг, имея обрывочные представления о внешнем мире.

    Во-первых, эта теория не доказана на физиологическом уровне
    Во-вторых, она касается только чисто сенсорного восприятия, вы пытаетесь натянуть ее на сознание


    Не надо так