одна из самых яростных работ Жана-Мишеля Баскии, материальное воплощение его неукротимой энергии, злости и бунта.
одна из самых яростных работ Жана-Мишеля Баскии, материальное воплощение его неукротимой энергии, злости и бунта.

Немного пафоса вместо предисловия

В качестве иллюстрации к этой статье я выбрал картину Жана-Мишеля Баскии, написаннаю в 1984 году и купленную на аукционе в 2017 году за 110.5 миллионов долларов. Она привлекает сочностью цвета и отталкивает бесчеловечностью образа человеческого лица. Кажется, что это рисунок машины, появившийся за 30 лет до нейронных сетей, способных создавать подобные изображения (например работы от ruDALL-E Malevich от Сбера, которые можно генерить, например, в Телеграме).

Современные большие нейросетевые модели привлекают и завораживают своей сложностью и мощью и пугают своей похожестью на нас и одновременно своей чуждостью нам, своим потенциалом превзойти нас.

Человеку удалось создать алгоритм, логику работы которого он уже не может объяснить (GPT-4 от OpenAI исследуется не как математическая модель, а как человеческий разум). Десятки и сотни миллиардов элементарных математических функций, соединенные в один вычислительный комплекс, обрели способности, которые до недавнего времени были доступны только одному существу в известной нам части Вселенной, нам самим.

Историческое введение

Отсчет истории "искусственного разума" можно начать с первых больших вычислительных машин, а можно с арифмометра Лейбница, но я начну с конца последней зимы искусственного интеллекта, примерно с 2010 года.

В 2011 году в книге "Физика будущего" Митио Каку описывал эксперимент в котором моделировался мозг крысы, имеющий 100 млн. нейронов. Для эксперимента понадобился суперкомпьютер Пентагона.

Hidden text

Blue Gene от IBM  это первый компьютер серии IBM Blue Gene, разработанный совместно с Ливерморской национальной лабораторией. Его теоретическая пиковая производительность составляет 360 терафлопс, а реальная производительность, полученная на тесте Linpack, около 280 терафлопс. После апгрейда в 2007 году реальная производительность увеличилась до 478 терафлопс при пиковой производительности в 596 терафлопс.

Суперкомпьютер был в состоянии удерживать работающую модель несколько секунд.

По оценкам 2011 года для создания компьютерной модели, содержащей количество параметров, соизмеримых с человеческим мозгом (порядка 100 миллиардов нейронов и связей между ними), понадобился бы суперкомпьютер, чье энергопотребление составило бы 1ГВт, что соответствует мощности одного энергоблока атомной электростанции. Для охлаждения этого суперкомпьютера потребовалось бы отвести целую реку и провести ее через этот компьютер ("Физика будущего", Митио Каку, М. Альпина нон-фикшн, 2014, стр. 142)

"...на полное понимание механизмов мышления или на создание машины, способной дублировать функции человеческого мозга, не приходится рассчитывать раньше конца XXI века." (там же, стр. 146)

Однако, уже в следующем после издания книги, 2012 году произошел прорыв в области машинного обучения. Использование сверточной многослойной нейронной сети сети дало резкий скачек в качестве распознавания образов (задача, которая не поддавалась исследователям и инженерам на протяжении десятков лет). А дальше "понеслось" и вот уже в 2014 году Рэймонд Курцвейл обещает, что Гугл к 2020 году создаст систему, которая сможет понимать естественный язык и общаться с человеком.

К 2020 году Гуглу не удалось создать систему, понимающую естественный язык. Однако, в 2017 разработана удачная архитектура нейронных сетей, названная «Трансформером», благодаря которой был совершен прорыв в компьютерной лингвистике. Это позволило резко поднять качество компьютерного перевода а также появились новые инструменты для классификации, кластеризации, генерации текстов, создания вопросно ответных систем и т. п. (Трансформеры активно применяются и в других областях – компьютерное зрение, распознавание речи, предсказательные модели и т. п. но мы тут про язык). Совершилась маленькая революция, значение которой могли оценить только специалисты в области машинного обучения.

Революция ChatGPT

И вот в 2022 году, по прошествии 11 лет после экспериментов с вычислительной моделью мозга крысы и предсказаниями Митио Каку, что между человечеством и "искусственным разумом" многие десятилетия и через 2 года после срока, предсказанного Курцвейлом, компания OpenAI на основе Трансформерной архитектуры разработала и обучила модель GPT-3.5, ставшую известной, как ChatGPT.

ChatGPT это нейронная сеть, созданная на базе GPT-3 (GPT расшифровывается как  Generative Pre-trained Transformer, или «трансформер, обученный для генерации текста») относящаяся к классу «больших языковых моделей» (LLM или Large Language Model) имеющая 175 млрд. параметров (что в 2000 раз больше, чем нейронов у мозга крысы и соизмеримо с количеством нейронов в мозгу человека). Компьютерная инфраструктура OpenAI выдерживает  запросы от десятков миллионов пользователей. Слово Generative (генеративная) в названии означает, что ее ответы полностью сгенерированы нейросетевым "мозгом" машины (не берутся из базы знаний или базы текстов, как это делает Интернет поисковик).

ChatGPT умеет отвечать на вопросы без ограничения по тематикам. Сочиняет истории и даже стихи на заданные темы. Может создавать программный код на разных языках программирования (часто рабочий). Генерирует документы, по моей просьбе написала вполне сносное "Техническое задание" на разработку лингвистического сервиса, так же умеет рисовать (создавать рисунки по запросу пользователя). И все это получая задание от человека на естественном языке. Попробовать модель можно через Телеграм-бота (вдруг кто-то еще не...)

Если не критически относиться к истинности высказываемых суждений и приводимых фактов, то все утверждения сети и ее ответы выглядят убедительными. Формулировки не уступают ответу образованного человека с хорошо подвешенным языком, легко жонглирующего цифрами и специальными терминами.

Наиболее революционным в работе этой модели является качество понимания запросов пользователей (интентов, если пользоваться терминологией чат-ботов). Она практически всегда понимает, что от нее хотят, умение удерживать контекст длительного диалога (еще пару лет назад это считалось не решаемой задачей для чат-бота). Качество генерируемых ответов позволяет утверждать, что «тест Тьюринга» в его первоначальной формулировке пройден с большим запасом.

Отдельно нужно отметить, что OpenAI уже запустила и предоставляет платный доступ к следующему поколению своего виртуального андроида GPT-4 (доступ из РФ закрыт, впрочем, как и к ChatGPT). GPT-4 модель по своим возможностям существенно превосходит ChatGPT. Говорят, что в недрах OpenAI уже тестируется GPT-5 и будет опубликована в этом году...

Будет ли монополия на искусственный разум

На сегодняшний день можно обозначить два полюса развития высокотехнологичных систем. На одном находятся поисковики, непрерывно индексирующие Интренет (Яндекса, Гугл и им подобные), занимающие монопольное положение на рынке поиска и скрывающие используемые алгоритмы ранжирования выдачи. На другом продукты, создаваемые на основе свободно распространяемого программного обеспечения, к которым относятся большинство библиотек машинного обучения.

Например «глубокие нейросетевые архитектуры» (те самые Трансформеры типа BERT, GPT-2, GPT-3 и т. п имеющие сотни миллионов параметров), которые являются очень сложными вычислительными комплексами, были созданы и предобучены айти гигантами типа Гугла, Фейсбука, Майкрософт, Байду и т.п., способными вкладывать неограниченные ресурсы в исследования и разработки, обладающие безграничными вычислительными мощностями.

Однако, через некоторое время эта архитектура, задавшая новый стандарт качества в решение интеллектуальных задач, стала доступной для широкой публики. Одновременно подтянулись вычислительные возможности. Появились облачные сервисы и достаточно мощные видеокарты, позволяющие за разумные деньги использовать эти модели.

На сегодняшний день, через 4 года после создание BERT есть большое количество библиотек, которые может использовать любой желающий (самая популярная https://huggingface.co/ предоставляющая доступ к огромному количеству нейросетевых моделей). Появились методы, позволяющие дообучать эти модели под свои задачи на видеокарте домашнего компьютера. Трансформерная архитектура стала стандартом в приложениях по переводу, классификации, кластеризации текстов, прочих лингвистических задач и в разработке чат-ботов.

Будут ли модели аналогичные ChatGPT, GPT-4, GPT-5 и их потомки и аналоги монопольно принадлежать нескольким крупным вендорам или относительно доступными (при наличии достаточных вычислительных мощностей) сказать сложно.

С одной стороны после медийного и коммерческого успеха ChatGPT, OpenAI, поступившись собственной философией, закрепленной в названии компании, закрыла доступ к технической информации о своих моделях (и к методологиям их обучения). Задав тренд на закрытие информации о новых разработках в области машинного обучения.

Отличный ролик на данную тему от Татьяны Шавриной из Сбера, известной в узких кругах, как Кали Новская:

С другой есть открытые библиотеки больших языковых моделей. Например, Яндекс выложил в открытый доступ модель, имеющую 100 миллиардов параметров или вот тут целый список больших моделей, которые относительно свободно распространяются (пока свободно).

Если технология ChatGPT, ее потомки (и аналоги) повторит путь Трансформеров, то через 2-5 лет дообучение и использование этих моделей станет доступным небольшим командам и отдельным разработчикам, которые смогут приспосабливать этот программный комплекс под частные задачи. Возможно, появятся компании, предоставляющие виртуальных андроидов – секретарей, бухгалтеров, юристов, программистов, продавцов, других офисных работников, разговаривающих с заказчиком на естественном языке.

Если же окажется, что такие модели будут только у технологических монстров типа Майкрософт, Гугл, OpenAI, Baidu и т. п. (после успеха ChatGPT все они в спешном порядке клепают свои LLM), то эти компании сконцентрируются на развитии своих моделей. На превращении их в «супер интеллект», владеющий всем доступным человечеству знанием. Возможно будут созданы API для «дообучения» пользователями этих моделей.

Ограничения Искусственного разума

Пожалуй самый важный вопрос на сегодняшний день (возможно более важный, чем экология, свобода выбора пола и сексуальной ориентации, неравенство и локальные войны) – какие у этих моделей есть принципиальные ограничения (и есть ли они?). Порассуждаем об этом.

Ограничения, связанные с обучением

Информация о том, как обучалась ChatGPT очень скудная. Неизвестно, есть ли возможность дообучать (переобучать) модель без доступа к ее коду. Можно ли, например, объяснить ей, что килограмм железа и килограмм моркови весят одинаково (некоторое время назад ChatGPT была уверена, что килограмм железа тяжелее килограмма моркови, сейчас она отвечает правильно) и закрепить это «знание», посредством диалога с моделью.

Другой вопрос - можно ли дообучить «свой кусочек» сети, не повлияв на всю сеть. Для классических архитектур нейронных сетей это представляет отдельную проблему. От наличия (или отсутствия) такой возможности напрямую зависят дальнейшие подходы к созданию и развитию систем на основании LLM. А так же изменения ожидающие рынок экспертных систем и поиска в Интернете в ближайшие 5 - 10 лет

Отдельный вопрос, как будет выглядеть процесс «дообучение» больших моделей. Совсем не обязательно для этого понадобятся программисты (за исключением обеспечения инфраструктуры для запуска и функционирования моделей) или «датасаентисты» в том виде, в котором мы их знаем (вот уж воистину, "посеявшие ветер...").

Фундаментальные ограничения

Вероятностная природа генерации ответов

Генеративные модели являются вероятностными моделями. Они выбирают наиболее вероятную последовательность выдаваемых слов в ответ на входящий к ним запрос. При этом, как бы хорошо не была обучена модель, всегда есть не нулевая вероятность, что она выдаст «безумный» ответ. У большой модели никто не сможет предсказать момент и условия генерации такого ответа (все, что можно предсказать, будет исправлено в процессе обучения).

На сегодняшний день нет гарантированного решения по устранению этого недостатка. Вполне возможно, что % ошибок таких систем будет существенно ниже, чем у среднего (а может быть даже у выдающегося) человека, но сами ошибки могут шокировать. Например, виртуальный андроид только что абсолютно верно рассказал вам Теорию относительности Эйнштейна и правильно ответил на самые каверзные вопросы по квантовой механике и тут же уверенно сообщил, что 2х2 без сомнения равно 7.

Это накладывает определенные ограничения на использование таких систем (особенно в критичных областях, таких как медицина, судопроизводство и т. п.).

Данные для обучения

Одной из предпосылок, обусловивших текущий триумф нейронных сетей связан с доступностью для обучения больших объемов данных. В частности, языковые модели обучаются на сотнях гигабайт и терабайтах данных, доступных в Интернете. Парадоксальным образом этот факт может стать вторым принципиальным ограничением нейросетевых моделей. Эти модели способны усваивать гигантские объемы информации, трансформировать и комбинировать эту информацию. Но смогут ли они «генерировать новое» (знания, литературные сюжеты, музыку, направления в живописи)? Ответ на этот вопрос не очевиден.

Данное ограничение ИИ не является критическим (в отличие от предыдущего) для использования моделей. Однако, если оно принципиальное и непреодолимое, то это дает человечеству (по крайне мере отдельным его представителям) шанс остаться востребованными в мире, в котором «вкалывают роботы» (а счастлив ли человек?)

Отсутствие связи с реальным миром

Фразы «вода жидкая», «камень твердый» кодируют чувственный опыт человека. Через ощущения увязывается человеческий язык или символьная система, моделирующая реальный мир с этим самым миром. У нейронной сети нет ощущений, через которые она может верифицировать собранные при обучении в Интернете данные.

Грубо говоря, выбор между «вода жидкая» или «вода твердая» такие модели осуществляют на основании частоты упоминания той или иной фразы в текстах, на которых она обучалась (возможно с последующей корректировкой, проводимой специальными асессорами, которые, очевидно, не могут охватить все вопросы и все темы).

Система не имеет встроенной возможности проверить истинность того или иного утверждения. Специалисты, обучающие такие системы, пытаются научить их выбирать правильный (или похожий на правильный) ход рассуждений. В результате, генерируемые рассуждения выглядят, как доказательства средневековых схоластов, убедительные с точки зрения формы подачи, но без какой бы то ни было гарантии (гарантии со стороны модели) их соответствия материальному миру.

Это ограничение не ставит крест на использовании моделей, но требует дополнительных усилий и подходов для их обучения и верификации ответов.

Вместо заключения

В 2016 году в распоряжении компьютерной лингвистики были довольно простенькие модели, такие как Doc2Vec, LSI, LDA, LSTM, TF-IDF, BM25, CNN, fasttext и им подобные, в 2018 к ним присоединились "Трансформеры" (BERT, RoBERT, Sbert, GPT-2, GPT-3 и прочие). При всей мощи трансформеров и существенном приросте качества, эти модели одного уровня - инструменты для решения узких технических задач.

Появление в 2022 году ChatGPT ознаменовало переход количества (моделей, прилагаемых усилий, вложенных денег, выделенных вычислительных мощностей и т. п.) в новое качество. ChatGPT (и ее "потомки") система нового уровня. Ее работа действительно похожа на "сильный" (общий) искусственный интеллект или человеческий интеллект.

Угадать, как такие системы будут развиваться и как повлияют на нашу жизнь, скорее сможет нелинейное мышление фантаста, чем специалисты в области того же машинного обучения. Я специально начал с исторического экскурса в совсем недавнее прошлое, чтобы показать, что динамика в области искусственного интеллекта опережает ожидания, построенные на базе аппроксимации прошлого опыта.

Ну и наконец, дадим слово самой ChatGPT:

Вопрос ("затравка"): Напиши завершение текста про ChatGPT. Обобщи те возможности, которые несут новые технологии, в частности ChatGPT и те риски, которые связаны с их использованием

ChatGPT:

Новые технологии, такие как ChatGPT, предоставляют широкие возможности для автоматической обработки естественного языка и создания интеллектуальных помощников, способных общаться с людьми. Это имеет множество практических применений, от автоматизации работы в сфере клиентского обслуживания до создания умных домов, где устройства могут общаться с людьми на естественном языке.

Однако, с развитием новых технологий, возникают и новые риски. Одним из них является угроза конфиденциальности данных. Поскольку обработка больших объемов личной информации становится все более распространенной, возникает риск утечки данных, а также использования этой информации в неправомерных целях.

Другой риск, связанный с использованием ChatGPT и других новых технологий, заключается в возможности создания поддельных сообщений и манипуляции информацией. Это может привести к распространению неправдивой информации и повлиять на принятие решений людьми.

В целом, новые технологии, такие как ChatGPT, предоставляют огромный потенциал для улучшения нашей жизни, но необходимо быть осторожным и внимательным к рискам, связанным с их использованием. Важно, чтобы производители этих технологий принимали меры для обеспечения безопасности и конфиденциальности данных, а также чтобы пользователи понимали, как использовать эти технологии безопасно и ответственно.

Комментарии (25)


  1. sergeyafichin
    18.04.2023 05:39

    Этот прогресс нейронных сетей и исскуственного разума не остановить


    1. alexey_nichnikov Автор
      18.04.2023 05:39

      Кажется, наоборот, сейчас туда будут вкладывать даже сильно не причастные (государства и далекие от АйТи бизнесы), и одновременно секретить решения


  1. Cerberuser
    18.04.2023 05:39
    +1

    На обложке этой статьи

    ...которую не видно, если открыть статью не из ленты, а, например, из "читают сейчас". Это так и задумано?


    1. alexey_nichnikov Автор
      18.04.2023 05:39

      не задумано )
      я давно ничего не публиковал, не знаю, как сделать, чтобы было видно

      добавил картинку внутрь статьи


  1. Poliska
    18.04.2023 05:39
    +1

    Прорыв, конечно, огромный, но здесь все ещё больше хайпа, чем реальной пользы. Из опыта общения с ботом есть ощущение, что он дообучается, но совсем не в сторону улучшения ответов. Они становятся все более общими и неправдивыми. В начале все это забавно, но потом понимаешь, насколько ответы однообразны и скучны. И к практической копирайтерской или редакторской работе прикрутить его я так и не смогла, а хотелось )))

    И, кстати, может, на железе и моркови он и дообучился, но с аналогичными задачами так и не справляется )))

    Катерина:

    Что тяжелее, килограмм золота или килограмм живых цыплят?

    ChatGPTBot:

    это ничего не зависит от количества цыплят, а зависит от их массы. Средний вес одного цыпленка составляет около 0,75 килограмма. Так что килограмм золота будет тяжелее, поскольку он имеет большую плотность, чем цыплята. Однако не стоит забывать, что цыплята могут быть разной массы, так что правильным ответом будет "зависит от того, сколько цыплят".


    1. alexey_nichnikov Автор
      18.04.2023 05:39

      В статье, ссылку на которую которую я привожу (https://arxiv.org/pdf/2303.12712.pdf) ChatGPT исследована вдоль и поперек (в сравнении с GPT-4, которой и посвящено исследование). Вопрос не в том, насколько хорошо именно это техническое решение (скажу, как причастный, если его можно дообучать, то под любую частную задачу (например писать код в какой-то области на уровне Мидла), ее можно заточить за довольно короткое время но за большие деньги).

      Если это решение "законсервируется", то это будет очередной "хайп", о котором все забудут через год (кроме тех, под чью работу ее "кастомизируют").

      Отдельный вопрос - что дешевле, использовать такую модель, дообучать ее или нанять живого разработчика (бухгалтера, юриста, т. п.)).

      Надо смотреть не на эту модель, а на динамику, не прошло и года, вышла GPT-4 (в статье выше показывают, что она качественно лучше, чем ChatGPT) и до конца 2023 OpenAI грозится выкатить GPT-5.

      Дальше можно делать предположения, как оно все будет развиваться (есть разные аппроксимационные предположения, я на них намекнул в статье, чтобы сколько-нибудь затронуть эту тему (дальнейшие сценарии) надо написать еще одну (не одну) большую статью (там же не только языковые модели, это широкий фронт, одним своим "крылом" выходящий на робототехнику). Но, как я показал в примере с прогнозами Митио Каку (не самый глупый и весьма информированный человек) линейные прогнозы не реализуются.

      Процесс или должен упереться в какое-то принципиальное, непреодолимое ограничение, либо пойти по какому-то не линейному пути.


      1. Poliska
        18.04.2023 05:39

        Да, предсказывать тут что-то – гиблое дело. Говорю только о практическом опыте на сегодня. Сейчас чатждипити выглядит как типичный филистер – многословный, самодовольный, невежественный и абсолютно бесполезный. Примеры с тем, как он у кого-то собаку вылечил или, наоборот, мужика довел до самоубийства, считаю случайностью или стремлением выдать желаемое за действительное.

        Но, разумеется, опыта общения с джипити-4 у меня нет. И все может измениться в любой момент и в любом направлении. Наблюдаем )


      1. uvic
        18.04.2023 05:39

        Даже если это решение "законсервируется" то все равно последствия будут глобальными. По крайней мере это революция в компьютерном интерфейсе.

        Смерть командной строки так точно. Чем запоминать команды можно будет сказать - найди на моем жестком диске все фотографии с зеленым попугаем, выбери с самым большим, перекрась попугая в жёлтый цвет и отправь по email.

        Я знаю - что фотошоп может заменить фон ( но я не умею - нужно разбираться как )
        Я знаю - что маткад может взять интеграл в символьном виде ( но я не знаю как точно это сделать - нужно разбираться как ).

        Я знаю - что звуковой редактор может поменять тональность звукового сообщения ( но я не умею - нужно разбираться как )
        Я знаю - что на bash можно написать простенький скрипт ( но я не знаю синтаксиса ).

        Я знаю - по набору данных можно делать разные выборки ( но нужно знать язык выборок )

        И т.д. и т.п.

        От 99% процентов идей что можно было-бы что-то не сложное сделать, я отказываюсь, не заморачиваясь с разбором. А с остальными - нахожу решения типа "сделай фотку красивой на нашем сайте в один клик за просмотр рекламы"

        Проблему сложности интерфейсов осознали давно - появились  Wizard -ы. Но идея не взлетела совсем. А сейчас если ChatGPT дообучить пользованию конкретными программными пакетами и командами ОС - получится совсем другой уровень взаимодействия человека и компьютера.


        1. Poliska
          18.04.2023 05:39

          Да, вполне возможен такой вариант (хотя подавляющее большинство юзеров и так не пользуются командной строкой, и интегралы им ни к чему).

          Но мне кажется, вряд ли развитие языковых моделей законсервируют. Если только упремся в принципиальные ограничения


          1. uvic
            18.04.2023 05:39

            Идеальный вариант - включаешь компьютер: белый экран и запрос - чего желаете?.

            "Хочу создать таблицу" - опаньки на белом экране нарисована таблица и две кнопки add row и add column. Ввожу данные. "Хочу раскрасить таблицу" - опаньки добавилась панелька выбора цветов. И т.д. И в конце - "запомни этот вид экрана - может ещё пригодится"

            Умрут и понятия файла и понятие ОС и понятие приложения и т.д. Что 99% людей навязали как костыли эпохи начала компьютеризации.

            Вот что по моему стоило-бы желать от ИИ. А не глубокомысленных и логичных рассуждений о смысле жизни или решений крутых головоломок. Или текстов фактологически выверенных лучше статей с Большой Советской Энциклопедии ;)))


            1. qw1
              18.04.2023 05:39

              Гораздо важнее начинать не с белого экрана, а помнить контекст на много лет назад.


              Если пользователь увлекается создание умного дома, он не должен каждый диалог начинать с километрового промта "у меня умный дом на контроллерах Siemens, который включены так и так. Я хочу..." Помощник должен идеально знать все скопившиеся за годы требования и локальную кодовую базу, чтобы при внесении изменений не делать типовые решения, а делать как, как нравится пользователю и давно обговорено.


              1. uvic
                18.04.2023 05:39

                Ну в идеале - "По вашим запросам и действиям я понял - что у вас пробелы в таких-то вопросах теории построения умных домов. Я составил кратенькую методичку с структурированной информацией по основам этих вопросов. Не желаете ли знакомится? Могу почитать в слух..." ;)))


                1. qw1
                  18.04.2023 05:39

                  Это не идеал, это провал. "Какой-то бот будет меня учить тому, чем я занимался всю жизнь?"


  1. qw1
    18.04.2023 05:39

    Попробовать модель можно через Телеграм-бота (вдруг кто-то еще не...)

    хорошо, уговорили. попробую я ваш chatGPT


    Скрытый текст

    ![image]()


    1. alexey_nichnikov Автор
      18.04.2023 05:39

      я ответил на возражение подобного толка, заданное немного раньше
      https://habr.com/ru/articles/729408/#comment_25458266


      1. qw1
        18.04.2023 05:39

        Тут скорее ситуация из статьи


        виртуальный андроид только что абсолютно верно рассказал вам Теорию относительности Эйнштейна и правильно ответил на самые каверзные вопросы по квантовой механике и тут же уверенно сообщил, что 2х2 без сомнения равно 7


  1. uvic
    18.04.2023 05:39
    +1

    Позволю себе усомниться в основном тезисе статьи - необходимости чувственного опыта.


    1) Ещё в советские времена были методики обучения слепоглухих детей, позволившие некоторым получить lдаже высшее образование.
    2) Дети-маугли. При огромном чувственном опыте от жизни на природе - хождение на четвереньках и без речи отсутствие сознания.

    3) В конце концов - чем принципиально отличаются три высказывания - "вода жидкая","если упадешь с большой высоты - убьешься","земля круглая". Первое проверяется чувственно, второе гипотетически можно проверить ( но не хочется ) и третье обычный человек проверить особо не может. Все три 100500 раз встречаются в разных текстах. Нужен ли тут чувственный опыт?

    Анатомически человеческий мозг от мозга обезьяны не отличается. Рискну предположить что на земле вообще одно единственное! сознание - "Логос". Заключенное в речи: во всех письменных и устных текстах. Логос живой и живет своей жизнью. А человек это "хард", на котором крутится ( и бэкапится ) часть "программы" этого всемирного Логоса. Без него - он маугли...
    Так почему этот "хард" обязательно должен быть человеческим мозгом?

    P.S. Я лично считаю что весь возможный чувственный опыт человека УЖЕ отражен в письменных текстах. Но даже если это не так - что мешает прокрутить перед ИИ миллиард любых роликов с ютуба, на которых небо вверху, земля внизу, камень падает вниз, небоскреб больше наперстка, лошадь бегает быстрее человека и т.д. и т.п.


    1. Poliska
      18.04.2023 05:39

      Часто об этом думаю ) Выглядит как план: 1. Накопление локаций и условий для получения разнообразного опыта и создание множества вариантов биологического кода.

      1. Появление разумов, которые дают всему этому имена и в целом способны описать сущее, осмыслить и перекодировать в удобные смысловые единицы.

      2. Описания сущего в разных форматах (текст, аудио, изображения, видео) в большом количестве оцифрованы и перенесены в интернет.

      3. Появление разума, способного увидеть не фрагменты сущего (как люди), а охватить и понять все целиком

      4. Что дальше? ))


      1. uvic
        18.04.2023 05:39
        +1

        Проблема Соляриса. Может ли быть у Соляриса ( нашего Логоса ) самосознание?


        Имхо самосознание возникает из первичного разделения ( я и не я, я и остальной мир ).
        Солярис - он для себя весь мир. Для него ничего ( отдельно от него и вне него ) - нет.

        Так и для нашего Логоса ( мира речи и идей ) - ничего кроме него нет ( как в материальном мире - нет ничего за границей вселенной, ни стенки ни пустоты )

        Так что имхо - будет бесконечно развиваться и усложняться. Но уже без какого-то качественного перехода...


        1. Poliska
          18.04.2023 05:39

          Таки Солярис, как мы помним, создавал разные сущности внутри себя и для себя даже до того, как появились другие, с которыми тоже можно было повзаимодействовать )

          Если следовать разным не очень-то новым представлениям, другого и не существует, а есть игра, майя, смысл которой в том, чтобы единому притвориться многими и забыть про это. А потом эти многие долго и мучительно пытаются снова понять, что они по сути одно. Наступает конец игры, а потом опять по новой.


          1. qw1
            18.04.2023 05:39

            Солярис создавал, потому что он был придуман человеком.
            А если бы никаких людей не было, и других сознаний не было, не факт, что Солярис додумался бы до того, что их можно/нужно создать.


            1. Poliska
              18.04.2023 05:39

              Я имею в виду не людей ))) Симметриады он там всякие создавал сам для себя и прочее.

              Так-то да, конечно, Солярис придумал человек. И единственный пока разум, который мы знаем, все время что-то пытается создать, в том числе вот уже и другой разум. Может, и способен существовать разум, у которого нет самосознания и который не пытается осознать себя через другого. Но как понять, что это разум?


    1. alexey_nichnikov Автор
      18.04.2023 05:39
      +1

      Слепоглухонемых детей обучают взаимодействовать с реальным миром через доступные им каналы обмена информации (телесные ощущения, так как остальные - звуковые и визуальные у них отсутствуют). И благодаря этой связи с внешним миром эти люди достигают определенных успехов (правда, насколько я знаю, слепоглухонемой человек, получив высшее образование, покончил с жизнью, но к дискуссии это отношение не имеет).

      Выросший "Маугли" вполне адаптирован к окружающей среде, он не может научиться говорить, читать, писать и усвоить достижения цивилизации (исследователи считают, что освоение языка происходит на ранней стадии развития мозга ребенка, если этот момент упустить, то уже ничего нельзя поделать). Но если оставить Маугли в покое и выдать ему такую же девочку, то у них появится плодовитое потомство и они проживут свою жизнь, возможно даже вполне счастливо. Их потомки может быть даже со временем построят цивилизацию, которая создаст "Искусственный разум". Именно благодаря пониманию окружающей среды и взаимодействию с ней они принимают правильные решения и выживают.

      В виртуальном мире нет ограничений (точнее они совершенно другие, мало имеющие отношения к реальному миру), а значит там нет понятия "правильного решения для реального мира". Вы предлагаете смоделировать для ИИ "реальный мир", в рамках которого он будет принимать решения и выдавать их нам. Именно это и пытаются сделать "датасаентисты", обучая ChatGPT и прочие нейросетевые модели. В 80х-90х годах прошлого века (в до нейросетевую эпоху) делали ставку на "онтологии" - логическое описание реального мира. "Онтологические попытки" (во всяком случае универсальные) потерпели неудачу из-за сложности задачи, описать реальный мир не удалось. "Онтологический" ИИ предпочтительнее того, который мы сегодня имеем в виду интерпретируемости принимаемых им решений.

      Но "модель реального мира" это не реальный мир. "Реальный мир" сам показывает "субъекту" (кто в нем действует), где субъект прав, а где нет (особо грубые ошибки заканчиваются смертью субъекта и позволяют естественному отбору отбраковывать негодных к взаимодействию с реальным миром)). Речь об этом. Для того, чтобы сеть действовала правильно, ей нужно создать модель реального мира, а это очень не просто из-за его сложности. У самой сети нет возможности эту модель "тестировать на практике" и "самообучаться". Она полностью зависит от "обучающего" (и от своих внутренних логических ограничений, которые мы не до конца понимаем в случае LLM). Отсюда совершенно глупые ошибки и ограниченность (одна из) в применении. Не знаю, насколько я мне удалось донести идею (мы очень сложный вопрос обсуждаем, один из ключевых).


      1. uvic
        18.04.2023 05:39

        Я считаю что если взять все тексты мира ( на всех языках ), ранжировать их по доверительности :
        (написанное в учебниках с миллионными тиражами имеет бОльшой вес, написанное в блоге под названием "Записки сумасшедшего" с тремя подписчиками - малый ) и проанализировать их - можно узнать свойства мира не экспериментируя!

        Если в большом количестве текстов и учебников написано - "камень сам упал в низ",
        а в малом количестве текстов встречаются слова "камень сам улетел вверх", причем в соседстве со словами "чудо", "псих", "вещества", то видимо тому что означает слово "камень" свойственно стремиться к чему-то, что означает слово "низ" ( и не свойственно стремиться к тому, что обозначается словом-антонимом "верх" )

        Весь чувственный опыт обычного человека уже описан в текстах ( причем на разных языках, разными семантическими конструкциями и так и этак ).
        В конце - концов, что реальный человек узнает из опыта?
        Пожалуй только моторные кинетические навыки - с какой силой нужно нажать на стамеску, если глаза видят что слои дерева "перепутаны". Это да - непосредственный мышечный опыт столяра. Но он-то ИИ не нужен... А то что нужно быть особо аккуратным при резьбе по дереву около сучков, а то будут сколы - в какой-то книжке уж обязательно написано.

        Большинство того что мы знаем - мы восприняли на веру со слов ( устных текстов ) других людей. Таблицу умножения редкий школьник проверял сложением ( верил учителям, книжкам и калькулятору ).

        Я смог придумать только один опыт ( эксперимент или проверку утверждения ) доступный обычному человеку и ещё возможно не описанный ни в одном тексте :
        Сыграть на том что чисел бесконечно много - возможно верного утверждения, что ( 123 456 * 123 ) / 13 = 1 168 083,6923076923076923076923077 нет ни в одном тексте в мире, т.к. математических выражений бесконечно много...
        Хотя правила арифметических действий в десятичной системе описаны. И мой эксперимент банально из них вытекает и ценности не представляет.

        Все остальные эксперименты которые я могу поставить при помощи "кошки, палки и верёвки" уже давно поставлены и наверняка описаны.

        Новое ( не описанное ) знание от взаимодействия с миром получают единицы: летчики испытатели, ученые ЦЕРН, спелеологи и полярники...

        Так что я считаю - непосредственный опыт человека не нужен ( он уже есть в текстах ). Все упирается в то как:

        1. Как взять все тексты мира на всех языках ( а если не все - то сколько? ).

        2. По какому алгоритму отранжировать их по доверительности?

        3. Ну и собственно алгоритм нейросети...

        P.S. Голый человек в лесу - без справочника ( хотя-бы без справочника по выживанию ), без инструментов ( в которых опосредованно заложены знания других людей ), без советчиков и помощников в виде других людей, с которыми он коммуницирует при помощи речи....
        Что он из себя представляет? И какие эксперименты ему помогут от смерти...


        Значение того что  "Реальный мир" сам показывает "субъекту" сильно преувеличено.
        Мы - это то что мы узнали от других людей из текстов ( устных и письменных ). И только один из 10 000 нас обогатил эти тексты чем-то новым...


  1. uvic
    18.04.2023 05:39

    del