Михал Михалыч. Вообще не имеет отношения к статье, но уж больно человек хороший.
Михал Михалыч. Вообще не имеет отношения к статье, но уж больно человек хороший.

«Образования у меня никакого, то есть высшее техническое, поэтому я сам пишу тексты и сам придумываю к ним эпиграфы»

М.М. Жванецкий

Эпиграф

 Если нам что-то «очевидно», это со всей очевидностью говорит о том, что мы ни фига не понимаем, как оно работает.

Первый раз я писал, потому что у меня пригорело от аргументации в статьях, почему нейросети – бяка. Я предложил свою аргументацию и с глубоким удивлением обнаружил у себя четырех подписчиков. С тех пор меня мучает синдром самозванца. Кроме того, в комментариях к моему тексту было совершенно справедливое замечание, что любой уважающий себя человек, который заявляет, что нейросети – бяка, должен предложить что-то взамен. В-третьих, все известные мне методологии разработки ПО советуют начинать с Vision Statement. Ну и в-четвертых, все мы любим болтунов, они нас развлекают. Поэтому дорогие четыре подписчика, развлекайтесь.

Постулат номер раз. ИИ должен накапливать новую информацию, не разрушая старую, уже накопленную.

Ну то есть, если, например, глубокоуважаемый читатель, научившись стругать рубанком, напрочь разучился ходить, говорить или варить кофе, то у меня для него плохие новости, по-видимому, его интеллект построен на нейросетях. Честно говоря, непонятно, как он дожил до возраста читателя Хабра, но перспективы у него точно не радужные, примите мое искреннее сочувствие.

Всем остальным паршивцам, включая автора, повезло больше, у них мозг умеет и новую информацию накапливать и старую не терять. Собственно, для объяснения первого постулата не знаю, что и добавить. Ужасно интересно, найдутся ли в комментариях возражения.

Постулат номер два. Механизм обработки любой входящей информации должен быть универсален.

Универсальный алгоритм
Универсальный алгоритм

Поиск белых грибов в лесу, доказательство теоремы Пифагора и чтение стихов Пушкина А.С.  осуществляется одними и теми же алгоритмами над одними и теми же структурами данных. И, нет, я не начитался Хокинса, хотя мне было очень приятно убедиться, что он постулирует то же самое. (ссылайся на авторитетов, болван)

Доказательство в три шага.

Во-первых, для того чтобы обрабатывать информацию, алгоритм должен знать ее структуру. Неизвестна структура – нет обработки.

Во-вторых, когда Вы думаете о лимоне, у вас в голове появляется образ лимона включающий его цвет, форму, запах, вкус, тактильные ощущения, не говоря уже о всяких событийных цепочках. То есть мозг умеет создавать синтетические образы, первичкой для которых являются сигналы рецепторов.  

В-третьих, если мозг оперирует синтетическими агрегированными образами (мычит – бодается, рычит – кусается), это значит, что есть функционал, который имеет одновременный доступ ко всем этим данным и умеет со всеми ними работать. И предполагать, что каждый вид данных он обрабатывает специфическим алгоритмом, или что они лежат в специфических структурах данных невозможно, потому что мы умеем создавать агрегированные образы из чего попало.

Это, в конечном счете, означает, что все рецепторные сигналы у нас на каком-то этапе обработки ложатся в одинаковые структуры данных. На каком, не суть важно, если на n-ом, то почему не на (n-1)-ом. Рецепторы, да, безусловно построены по-разному, а дальше разумно предположить, что обработка единообразна.

А раз структуры одинаковые, то на фига разные алгоритмы? Ну, то есть, если Вы не согласны, то я уж и не знаю, как Вы будете выкручиваться.

Следствие из второго постулата. Алгоритмы обработки не могут включать никакую предварительно заданную информацию о входящих потоках (не читерить).

Это в том смысле, что нам так читерить нельзя
Это в том смысле, что нам так читерить нельзя

Если дорогой читатель проглотил предыдущий постулат, придется проглотить и это следствие. Если алгоритм универсален, то он должен работать с любым входящим потоком и никакой предварительной, заложенной творцом на этапе программирования, информации об этом потоке в нем быть не может, иначе универсальность потеряется.

То есть, если Вы пишите программу обработки текста, то никакой информации о том, что такое пробел, точка или запятая в алгоритме быть не может. Входящий поток в этом случае будет просто потоком ASCII символов и все. Алгоритм сам должен разобраться, что такое разделители, знаки пунктуации и что общего в словах прилетел, прибежал и привинтил.

А уж про использование в алгоритмах предварительно собранной статистики о связях слов между собой на замкнутом множестве текстов и говорить неприлично (о чем это я…).

Второе следствие из второго постулата. В своих мысленных, и не только, экспериментах по изучению принципов архитектуры ИИ Вы можете оперировать любыми потоками фактов, явлений и событий. И выдуманная Вами архитектура должна справляться с ними одинаково хорошо (плохо).

То есть, размышляя о том как же это должно работать, Вы совершенно вольны примерять варианты архитектуры как к распознаванию ситуации с соседом дядей Васей, который чинит забор, так и с определением суффиксов и приставок в словах. И в одном, и в другом случае должно работать. Если Вы, как Вам кажется, придумали классный алгоритм для разбора слова на части, проверьте как он справится с дядей Васей. Если никак, то Вы придумали фигню.

Постулат номер три. ИИ осуществляет агрегацию данных (а телепатии не существует).

Опустимся на самый нижний уровень, до рецепторов. Рецепторы – это очень простые машинки, детектирующие физические явления: электромагнитные волны в определенном диапазоне (глазки), акустические волны (ушки), молекулы химических веществ, парящие в воздухе (носик),  отклонение оси «голова-ноги» от линий гравитационного поля (опять ушки),  направление потока жидкости (боковая линия у рыбки). Ожидать, что рецепторы будут нам детектировать, ну например, котиков, было бы со стороны читателя достаточно наивно. Значит, котики появляются у нас где-то в голове.

Как было сказано выше, универсальные алгоритмы не предполагают предзаданных знаний о входящем потоке сигналов. Звуки, цвета, запахи, контуры отличаются друг от друга (это разные сигналы), но никакой смысловой нагрузки в себе изначально не несут. А раз так, давайте представим их просто в виде IDшников. Или, для наглядности, символов неизвестного языка.

Вы сидите перед экраном в темной комнате и смотрите как по экрану бежит бесконечная строка каких-то кракозябриков. Что Вы будете делать? Ну в смысле, если заняться больше нечем… Да ничего, кроме попытки агрегации этих кракозябриков в какие-то устойчивые цепочки Вы сделать не сможете, у вас просто нет никакой информации, кроме частоты их появления и расположения их друг относительно друга. И у мозга нету. И у ИИ не будет.

А вот в результате этого упражнения (если оно удачно прошло) мы получим два новых вида информации: для агрегата – из чего он состоит (морфология),а для входящего сигнала – в каких агрегатах он встречается и в комбинации с кем (роль). Агрегатам назначаем IDшники и гоним их по новой, через ту же обработку. Теперь уже агрегат становится элементарным сигналом, и мы выясняем его роли в агрегатах более высокого уровня. Что мы получаем в результате: IDшники, состоящие из IDшников, и взаимодействующих с какими-то IDшниками. А больше ничего нету… если мы исключаем эзотерику…

Так вот, про телепатию… Как Вы видите, вся эта агрегация происходит на основании входящих потоков, и IDшники назначаются последовательно и уникально (а как еще?). И у Вас нету вообще никакой гарантии, что агрегат «лимон» в головах двух разных людей будет обозначен одним и тем же ID. А раз так, то даже если Вы ловите чужие мысли, они для Вас будут представляться в виде совершенно бессмысленного шума.

Постулат номер четыре. Обработка потока должна быть устойчива к шумам и искажениям.

Что, очевидно? См. эпиграф.

Ремарка: Встречал как-то я комментарий, что вот мол NLP движется семимильными шагами, а с распознаванием образов что-то все не так гладко. Так, милый мой читатель, текст это одномерный, однонаправленный и абсолютно детерминированный поток. Там каждый символ стоит на своем месте (и то, замечу в скобках, обрабатывать текст с уровня букв что-то не очень получается), а визуалка – двумерная, с произвольным направлением движения по картинке и кучей шума и помех… Да ясное дело, что не гладко! Поэтому такси без водителя до сих пор и не ездят.

Из предыдущего постулата следует, что агрегацию нужно проводить на основании устойчивости (повторяемости) комбинаций сигналов. То есть надо отличать случайные комбинации от неслучайных.

Еще ремарка: я вот напряженно думал, и пришел к выводу, что абсолютной бессмыслицей стоит считать только равномерное случайное распределение, потому как если это, скажем, нормальный закон, то он в себе уже несет какую-то информацию. В связи с чем, мы должны предполагать, что алгоритмы должны отфильтровывать случайные равномерные сигналы, а остальные пытаться обработать.

И вот тут пришел момент предложить всем бездельникам простенькую задачку.

Берем множество маленьких букв английского алфавита (26 их всего). Генерим случайно-равномерно из них длинную-предлинную строку (тысяч 10-20 символов). Периодически вставляем в нее неслучайные последовательности символов неопределенной длины (от 3 и выше). Что значит периодически, ну например раз в 300 символов, раз в 500, или, например, если случайно сформировалась пара ab то добавляем к ней cdefg. Понятно, что каждая неслучайная последовательность должна повториться внутри строки, ну хотя бы раз 5-6 (иначе и человек ее не поймает)

Ну а теперь пишем программку, которая нам все эти последовательности найдет. Пусть покажет их списком. И, да, в алгоритме не должно быть никакой информации о входящем потоке.

К своему стыду, в силу безграмотности, я не смог найти упоминания о такой постановке задачи и возможных решениях. Если кто-то в курсе, напишите плиз в комментариях, буду очень признателен. Только чур комментарии типа «это точно должно решаться [цепями Маркова]/[БПФ]/[нагруженными графами] и т.п.» не считаются. Если получилось решить – напишите, и, кстати, про быстродействие тоже (длина строки – время обработки)

Постулат номер пять. ИИ должен сам контролировать свое применение.

Вот, надо сказать, тут у меня действительно пригорело и вот почему. Все разговоры о скайнетах и терминаторах являются, по моему глубочайшему убеждению, абсолютно подлыми и ханжескими. Homo sapience это единственный биологический вид беспощадно уничтожающий не только все живое на Земле, но и друг друга. Боязнь, что кто-то умнее нас поступит с нами так же, это просто отражение собственной жестокости. Если ИИ действительно когда-нибудь появится, то ему делить с человечеством абсолютно нечего. Он, по сути, будет являться симбиотом, но не с человеком как организмом, а со всем социумом, поскольку только социум в целом сможет предоставить ему (ИИ) то, что ему надо – компы и электричество.

А вот чего действительно надо бояться, так это того, что использование ИИ самим человеком пойдет по проторенной дорожке всех изобретений. В первую очередь, чтобы убивать и калечить других людей, во-вторых, чтобы кучка поганцев наживалась на остальном социуме, ну и в-третьих, для всего остального. Так что проблемы у нас будут не от мифических альтронов, а от совершенно конкретных очкариков, которые по заказу совершенно конкретного министра обороны, и при полной поддержке совершенно конкретного президента, разработают боевую программу.

Правда, есть с ИИ есть одно отличие. Молоток не может распознать лупите Вы им по гвоздю или себе по пальцу. А ИИ может, и может по пальцу не лупить, а уж если вы захотели соседу в лоб врезать, то еще и в милицию на Вас может настучать. Если… Если у него будет этический блок.

А с этическим блоком тоже засада. Если, скажем, гипотетический Вася Пупкин разработал ИИ с этическим блоком и подарил его благодарному человечеству, то что-то мне подсказывает, что благодарность человечества придет к нему в виде строгих дяденек, которые очень вежливо попросят у него описание алгоритма без этического блока. И Вася им отказать не сможет….

И вот что с этим делать, я не знаю. Но вот точно знаю, что разговоры из серии «я занимался чистой наукой, а Хиросиму взорвали военные» не проканают. Извините.

Комментарии (43)


  1. Hardcoin
    08.07.2023 17:23
    +7

    1) Мысль, будто человек не забывает старую информацию настолько очевидно-ложная, что не ясно, какие ещё опровержения вам нужны.

    2) Хотелось бы, что бы у нас был естественный интеллект, который одинаково хорошо (плохо) справлялся бы и с просмотром сериалов и с пониманием квантовой физики, но увы. Предположение, что человеческий мозг не имеет предварительно заданной информации о входящих потоках такое же ложное, как и 1)

    3) да, агрегация происходит

    4) выводы на старых данных. И с распознаванием образов плохо и такси без водителя не ездят. Опоздали на несколько лет с такими тезисами.

    5) долг может и есть (хоть и не ясно, почему), но почему это постулат?


    1. abgl Автор
      08.07.2023 17:23

      1) забывает да, разрушает старую информацию запоминая новую - нет

      2) почему ложное?

      4) а такси что, поехали? Или все еще в процессе тестирования?

      5) постулат в том, что должен сам контролировать свое применение


      1. Hardcoin
        08.07.2023 17:23
        +3

        1) Спорно, да и принципиальная разница вами не показана.

        2) Потому что младенец имеет инстинкты сразу при рождении. Он не является "белым листом", это достаточно известный факт, разве нужны пруфы?

        4) Our Waymo One vehicles are fully autonomous. That means that on most occasions, no one is in the driver's seat when you ride with us.

        5) кому должен-то?


        1. abgl Автор
          08.07.2023 17:23
          +1

          1) принципиальная разница в нейросетевых проблемах. Чтобы на выходящем слое появился новый нейрон Вам нужно перестроить архитектуру и переучить сеть. С нуля. Старое порушили, потом вместе сновым заново обучили

          2) фокусировка на лице матери - да, а вот на определение пробелов в тексте - вряд ли. Вы предлагает объяснить умение обрабатывать разные потоки данных заложенными инстинктами?? )))

          4) они вроде до сих пор только по пригородам Феникса и СанФранциско ездят, движение там сами понимаете, не центр. Но в общем я рад за ребят ))

          5) Должен создателю, если ему не наплевать как будут использовать. Если наплевать - то не должен.


          1. Hardcoin
            08.07.2023 17:23
            +3

            1) Выкинули один слой остальные зафиксировали, новый слой обучили. Если вам тема интересна, вы изучайте существующие решения, а не придумывайте проблемы на пустом месте.

            2) Скорее, структурой сети. Она даёт и готовность распознавать речь, например (интонацию ребенок в определенной степени понимает с рождения) и то, какие потоки данных человек может распознать. Никакой полноценной универсальности в человеческом мозге нет - вы сможете обработать длинный ряд чисел, найдя в нем закономерности? А вот увидеть их на графике вы сможете легко.


            1. abgl Автор
              08.07.2023 17:23

              1) ну да, и я ровно об этом же. Научились различать кошечек и собачек. Потом встретили хомячка, выкинули слой, добавили новый (забыли про кошечек и собачек) и научились заново определять кошечек, собачек и хомячков. Потом встретили ворону и опять забыли про кошечек и собачек и научились их определять заново. Вот как сейчас помню, так именно в детстве все и происходило, сплощная маята. Встретил ворону - забыл про собаку, и давай заново учиться ее определять. )))

              Не не, я даже не буду пытаться Вас переубедить что интелект на сетках не построить. Я уже пытался )))))


              1. Hardcoin
                08.07.2023 17:23
                +1

                Вот как сейчас помню

                Нет, не помните, в том-то и дело. Но если наблюдаете за детьми, то видите, что при появлении новых категорий у них немного сбоят старые (особенно на стыке старое/новое), но очень быстро настраиваются.

                В любом случае, переобучить 1% - это не проблема и не является сильным доводом в пользу "интеллект на нейронках не построить".

                Не не, я даже не буду пытаться Вас переубедить что интелект на сетках не построить

                Дело не в том, что бы переубедить меня, а в том, что бы проверить свои доводы на надёжность и отсутствие дыр. Не "объяснить" то, что собеседники "не понимают" (люди нередко пытаются сделать именно это), а выстроить четкую последовательную картину.

                Я уверен, что при попытке выстроить такую вы увидите, что существенных доводов против нейросетей у вас не останется. Очень надёжных доводов "за" при этом тоже может не найтись, правда. Лично я знаю только довод экстраполяции (или масштаба), он слабый.


                1. abgl Автор
                  08.07.2023 17:23

                  мы тут не сойдемся, у каждого свое мнение. Я считаю, что архитектурно сетки реализуют рефлексы. А на рефлексах интелект по-моему не построить.

                  Ну и честно сказать, я сомневаюсь, что для переобучения при добавлении новых классов Вам будет достаточно переобучить только последний слой. Что ж в таком случае делают остальные слои, если они остаются константными при дообучении?...


                  1. Hardcoin
                    08.07.2023 17:23

                    Зависит от того, какой это новый класс. Можно дообучить с помощью LoRa, например. Это опять же в сотню или тысячу раз проще, чем с нуля.

                    Сомневаться - ваше право, благо информация по обучению обычно открытая, большинство новых идей широко обсуждаются.


              1. Hardcoin
                08.07.2023 17:23
                +1

                Вот как сейчас помню, так именно в детстве все и происходило, сплощная маята.

                Очень важный момент - работающий искусственный интеллект не обязан повторять естественный, так же как крыло самолёта не обязано повторять крыло птицы.


                1. abgl Автор
                  08.07.2023 17:23
                  -1

                  в ветке ниже тоже об этом дискуссия была, согласен, что AGI повторять мозг не обязан, но мне кажется, что пока нет никакого AGI, сверяться с эталоном при проектировании все-таки стоит


                  1. Hardcoin
                    08.07.2023 17:23
                    +1

                    Всех, кто сверялся с эталоном при разработке летающих машин, ждала неудача.


                    1. abgl Автор
                      08.07.2023 17:23

                      Вот я должен выразить категорическое несогласие с тем, что предыдущий коммент (не мой!) получил минус. Граждане, если у вас есть возражения по фактам, пишите их, а не минусы лепите. Хабр делали как дискуссионную площадку.

                      Подозреваю, что под невысказанным контр-аргументов имелся в виду тот факт, что братья Райт действительно мучили птиц ))


                      1. michael_v89
                        08.07.2023 17:23

                        Это же ваша беседа, возможно ждали чтобы сначала вы ответили своему собеседнику.


                    1. michael_v89
                      08.07.2023 17:23
                      -1

                      Птицы могут парить в воздухе, не двигая крыльями. Самолёты могут парить в воздухе, не двигая крыльями. Вы отрицаете существование самолётов? Или в чем заключается неудача?


                      1. Hardcoin
                        08.07.2023 17:23

                        А набирать высоту при взлете, не двигая крыльями, птицы могут?

                        Эксперименты с махолетами закончились неудачей, полноценно взлетела только конструкция с зафиксированным крылом. Да вы и сами это знаете, впрочем.


                      1. michael_v89
                        08.07.2023 17:23

                        А почему из всех процессов полета вы отводите главную роль маханию крыльями? Главная роль это процессы аэродинамики, в вакууме махание крыльями полет не создаст.
                        Для птиц проще создавать подъемную силу маханием, для самолета набором скорости. Только подъемная сила присутствует и там и там. Создание подъемной силы это главный принцип полета, а не махание.


                        И с ИИ аналогично. Можно создать "подъемную силу" в кремнии, но она должна быть такая же (логически эквивалентная), как и у естественного интеллекта.


                1. michael_v89
                  08.07.2023 17:23

                  На крыло самолета действуют те же законы аэродинамики, что и на крыло птицы. Без воздуха ни самолет, ни птица летать не будут.


      1. Pavgran
        08.07.2023 17:23
        +2

        1) забывает да, разрушает старую информацию запоминая новую - нет

        Ну, вообще-то, память у людей именно так и работает. Каждый раз, когда человек что-то вспоминает, он перезаписывает это воспоминание. Можно даже подсадить людям ложные воспоминания с помощью аккуратно заданных вопросов. Есть более стабильные воспоминания, да, но и они не перманентны.

        С навыками перезапись тоже в некоторой степени работает. Научившись ездить на велосипеде с обратным поворотом руля, вам придётся снова учиться, пусть и небольшое время, ездить на обычном.

        У нейронов в принципе нет, насколько я знаю, механизма "всё, теперь с этого момента я останусь таким, как есть, и не буду меняться и образовывать новые/разрушать старые связи".


        1. michael_v89
          08.07.2023 17:23
          +1

          Нет, "именно так" не работает. Научившись ездить на велосипеде с обратным поворотом руля, вы не забудете навык письма.


          У нейронов в принципе нет, насколько я знаю, механизма

          А про него и нет разговора. Разговор о внешних проявлениях — у человека изученная информация более устойчива к изучению новой, чем у нейросети. Можно использовать любой механизм для достижения этого, но пока этого нет, неправильно говорить про схожие принципы.


  1. L1n1ker
    08.07.2023 17:23

    Ух, на одном дыхании. Про телепатию не задумывался, но даже как-то действительно описанное очевидно ))


    1. abgl Автор
      08.07.2023 17:23

      Спасибо спасибо ))) я старался )))


    1. DASpit
      08.07.2023 17:23

      Если опираться только на первичные ID от рецепторов и окончательные ID к эффекторам можно попробовать и потелепать. Запускаешь их на схожем оборудовании и получаешь схожий результат с поправкой на опыт конкретного оборудования.

      ID для речевых мышц одного отправил на речевые мышцы другого - получил чревовещание. Чем не телепатия.


    1. michael_v89
      08.07.2023 17:23

      Это все верно только при условии, что понятия в мыслях передаются именно идентификаторами, что не доказано. Они могут передаваться например набором первичных ощущений, которые у людей очень близки.


      Кроме того, мы можем передавать мысли словами, которые понятны другим людям. То есть на пути к слову мысль как-то преобразуется в понятную форму. Возможно, что эта форма может быть понятной другим и на протяжении какой-то части этого пути до того, как оформиться в произнесенное слово.


      1. abgl Автор
        08.07.2023 17:23

        Ну я б так сказал, если Вы зафиксировали набор первичных ощущений, то Вам его надо как-то идентифицировать. Иденитификация именно по совокупности первичных слагаемых через несколько этапов агрегации станет просто физически невозможной. Мы ж к сожалению идентифицируем агрегат не только по сумме слагаемых но и по их взаимному (даже не знаю как правильно сказать) расположению что ли....

        Слово скорее всего это просто перекодировка агрегата так что боюсь не поможет ))


        1. michael_v89
          08.07.2023 17:23

          "Первичное ощущение" для конкретного нейрона это сигнал с предыдущих слоев, а не с первых.


          То, что вы называете ID, это скорее сам нейрон, которые узнает какое-то понятие. Но нейроны это не то же самое, что мысли. Мысли это набор сигналов. Колбочки у всех расположены по-разному, но мы наблюдаем сходство сигналов на следующих слоях. Вопрос в том, насколько далеко идет это сходство. Теоретически, если спроецировать электрические сигналы колбочек одного человека на ближайшие по относительному пространственному расположению колбочки другого, то он "увидит" похожую картинку. Если предполагать наличие некоторой фантастической способности воспринимать электрическое поле нейронов другого человека на следующих слоях, а также ассоциации с нейронами предыдущего слоя, то есть и теоретическая возможность приблизительно узнавать мысли. Я говорю к тому, что еще не доказано, что в мыслях используются некие идентификаторы, которые разные у всех людей, поэтому и возможность телепатии не опровергнута.


          Кроме того, напрямую читать мысли может и невозможно, но это технически возможно с использованием компьютера. Отслеживаем все сигналы со всех нейронов, задаем разные вопросы, ищем корреляцию сигналов с понятиями в вопросах, потом используем эту информацию для декодирования сигналов когда вопросы не задаются.


          1. abgl Автор
            08.07.2023 17:23

            Да нет, конечно не доказано... Это просто как любопытное следствие из постулата об агрегировании, чисто на мой взгляд )))


  1. anonym0use
    08.07.2023 17:23

    И вот что с этим делать, я не знаю. Но вот точно знаю, что разговоры из серии «я занимался чистой наукой, а Хиросиму взорвали военные» не проканают. Извините.

    Покупать землю вдали от крупных мегаполисов и максимально автономно обустраиваться.


  1. debagger
    08.07.2023 17:23

    - Знаете, это древнее опасение: машина стала умнее человека и подмяла его под себя... Полсотни лет назад в Массачусетсе запустили самое сложное кибернетическое устройство, когда-либо существовавшее. С каким-то там феноменальным быстродействием, необозримой памятью и все такое... И проработала эта машина ровно четыре минуты. Ее выключили, зацементировали все входы и выходы, отвели от нее энергию, заминировали и обнесли колючей проволокой. Самой настоящей ржавой колючей проволокой - хотите верьте, хотите нет.

    - А в чем, собственно, дело? - спросил Банин.

    - Она начала вести себя, - сказал Горбовский.

    - Не понимаю.

    - И я не понимаю, но ее едва успели выключить.

    - А кто-нибудь понимает?

    - Я говорил с одним из ее создателей. Он взял меня за плечо, посмотрел мне в глаза и произнес только: "Леонид, это было страшно".

    А. и Б. Стругацкие, "Далекая радуга", 1963г

    На мой взгляд, самое главное отличие обычного ИИ от сильного, это то, что сильный сможет вести себя. Готово ли человечество морально к этому или нет, это главный вопрос. Как только ответ будет "да" - появление сильного ИИ будет только вопросом времени - все необходимые технологии уже есть.


  1. pavel_raskin
    08.07.2023 17:23
    +1

    Механизм обработки любой входящей информации должен быть универсален.

    Если рассуждать так, то почему у мозга есть явно "специализированные" области (доли, центры)? И, судя по всему, это врождённая "фича", а не результат некой настройки/обучения "универсальной серой массы" в процессе восприятия входящих данных.


    1. abgl Автор
      08.07.2023 17:23
      +1

      Я бы сказал что во-первых потому что разные рецепторные поля должны иметь собственные входы в общий обработчик. Если представить себе обработку информации как многошаговую агрегацию, то логично чтобы нижние уровни агрегации проходили по сигналам одного источника, а верхние кросс-сигнально.

      Если считать кору мозга общей двумерной шиной, то распространение агрегатов по коре будет происходить типа как круги на воде, с интерференцией в областях кросс-сигнальной агрегации.

      ну блин какие я умные слова написал ))))))))


  1. printf
    08.07.2023 17:23
    +1

    На одну монументальную предвзятость в посте хотелось бы указать отдельно: текст подразумевает, что AGI это модель-копия человека. Как старая фантастика про контакт с пришельцами, где все пришельцы это буквально люди, но ярко-зеленого цвета, или смешно одетые; других отличий нет.

    Если мы уже обсуждаем жизнь на базе кремния и информационных потоков, давайте предположим, что и функционально эта жизнь будет совершенно иной, отличной от наших белков-жиров-углеводов. Было бы странно ожидать, что AGI будет натурально агукать и тянуться к сиське, или обладать обобщёнными механизмами обработки текста и изображений, или вообще оперировать текстом и изображениями. Как мы с вами в общем случае не оперируем магнитными полями, например.

    (Я интуитивно согласен с тем, что из GPT-4-подобных штук не слепить AGI, если что.)


    1. abgl Автор
      08.07.2023 17:23

      спсб за согласие про GPT )))

      Про тягу к сиське скажу так, если мы хотим сделать то, чего никто до сих пор не сделал, то лучше ориентироваться хотя бы на работающий аналог. Потому что иначе вы приходите к ситуации когда можно сделать что угодно и нету никакой гарантии что это будет работать. Рефлексия на собственные механизмы распознавания по крайней мере дает вам некие маркеры - вот так у нас работает, а вот так нет.

      Пример хотите? Почему если Вы в тексте встречаете слово с переставленными буквами Вы его спокойно прочитываете? Это не оксюморон и не прикольный факт, это реальное указание на то, как работает механизм распознавания. На фига в механизме обработки однонаправленного детерминированного потока такие сложности как распознавание переставленных сигналов?


      1. printf
        08.07.2023 17:23

        Так мы ведь и не GPT, мы не воспринимаем текст как однонаправленный детерминированный поток символов (кроме вырожденного случая изучения доселе невиданного языка, но из этой фазы все выходят достаточно быстро).


        1. abgl Автор
          08.07.2023 17:23

          ну да, и этот пример взят из наблюдения за эталоном, в эталоне вот так, значит наверно это имеет значение для разработки алгоритма. Я привел пример в подтверждение, что эталон дает подсказки. Если ими не пользоваться, то продвигаться вперед будет значительно труднее.


    1. michael_v89
      08.07.2023 17:23

      или обладать обобщёнными механизмами обработки текста и изображений

      Если он не обладает теми возможностями, которые есть у человека, а значит не может решать задачи, где подразумевается их использование, он по определению не является AGI.


      1. abgl Автор
        08.07.2023 17:23

        Я б еще более наглое заявление сделал ))))) если в мозг воткнуть новый источник сигналов, то через какое-то непродолжительное время это мозг должен начать совершенно уверенно ими оперировать. То есть типа если в мозг воткнуть компас, то через некоторое время Вы начнете отлично ориентироваться на местности, причем неосознанно...

        Кстати были интересные эксперименты по восстановлению нарушенной вестибулярки у людей через приборчик который передавал сигналы просто иголками на кожу... ссылку наверно сейчас не найду...


      1. printf
        08.07.2023 17:23

        А если человек родился слепым или глухим, и таким образом не может решать задачи, где подразумеваются такие возможности человека, как слух и зрение — это, «по определению», и не человек вовсе?

        Если вы говорите AGI, а подразумеваете точную 1:1 копию человека, так зачем плодить терминологию.


        1. abgl Автор
          08.07.2023 17:23

          Эрм... мы наверно немного потеряли предмет дискуссии. Изначально обсуждалось нужно ли оглядываться на мозг человека как на пример работающего ИИ. Я думаю да, в качестве подсказок. Тезис коллеги о том что если ИИ не сможет обрабатывать визуалку, то он значит и не ИИ, я думаю, имелось в виду что это важный и сложный поток информации, если наша система с ним работать не умеет, значит мы к уровню работы мозга еще не приблизились. Отсутствие зрения у конкретного человека не означает что его мозг не умеет обрабатывать сигналы, у него просто рецепторы отрублены. Ну то есть мы говорим AGI, а подразумеваем те же принципы обработки информации как в человеческом мозге, а не сам человеческий организм в целом. Я подозреваю, что мы говорим об одном и том же но разными словами ))


        1. michael_v89
          08.07.2023 17:23

          это, «по определению», и не человек вовсе?

          Конечно это не так, потому что это определение для Artificial General Intelligence, а любой человек им не является.


          Вики
          "An artificial general intelligence (AGI) is a type of hypothetical intelligent agent. The AGI concept is that it can learn to accomplish any intellectual task that human beings or animals can perform."


          "Human beings" могут решать задачи, где требуется "слух и зрение"? Да. Даже если какой-то конкретный человек не может.


          Человек, который родился глухим, не может распознавать речь по причине неисправности датчиков входных слуховых сигналов, а не потому что у него нет интеллектуальных способностей это делать. И с AGI точно так же — если он не распознает речь по причине неисправности микрофона, то это не означает, что он перестал быть AGI. Но в понятии "изобретение AGI" всегда подразумевается, что аппаратная часть работает правильно, и речь идет только об алгоритмах обработки информации.


          1. abgl Автор
            08.07.2023 17:23

            вроде совпали ))))

            что-то никто задачку решать не хочет )))) а мне правда интересно есть ли готовые решения....


  1. DmitryR1974
    08.07.2023 17:23

    У меня от вашей статьи осталось ощущение, что вы поняли жизнь, но отрицаете её. Все верно: пока есть военные - то всё, чем бы вы ни занимались, ИИ это или что-то ещё, будет ими использовано.


  1. abgl Автор
    08.07.2023 17:23

    )))))))) ну блин почему так печально, если проблема идентифицирована, то всегда можно найти способ выкрутиться... просто способ может быть неочевидный