Сегодня, когда каждый день выходят новые модели, показывающие себя лучше и лучше в определенных узких областях, становится актуальным вопрос - а когда мы уже достигнем Общего Искусственного Интеллекта (AGI), который сможет мыслить словно человек, решать сразу множество задач, поможет человеку сделать новый скачок в открытиях?

И в головах многих разработчиков рождается мысль: а что если нынешний подход, основанный на масштабировании моделей нейронных сетей, поглощающих гигабайты данных - создает лишь иллюзию того, что мы на верном пути?

5 барьеров на пути к разумному ИИ

На протяжении многих лет исследователи в области ИИ (а сейчас AGI) сталкиваются не просто с техническими сложностями, а с фундаментальными барьерами, в которые упираются раз за разом. Давайте посмотрим, что за фундаментальные ограничения стоят перед создателями AGI и перед разумными машинами

Отсутствие здравого смысла и понимания реального мира

Пожалуй, это главный камень преткновения. В основе современных подходов к достижению AGI (в большинстве своём связанных с использованием нейросетей) лежит оперирование статистическими закономерностями данных, а никак не построение системы, основанной на понимании реального мира (разделении понятий, фактов, суждений и тд) и понимании причинно-следственных связей между понятиями

Например, ребенок, уронив ложку, интуитивно понимает, что она упадет на пол, будет греметь и останется там лежать. Он не видел миллиард видео с падающими ложками, он просто понимает базовые законы этого мира уже с первых лет жизни. Именно понимание этих самых законов позволяет ему с каждым годом делать новые для себя всё больше открытий и, как следствие, делать новые открытия для всего мира

Любая система (даже самая умная по текущим меркам человека), которая не понимает базовых вещей и концепций устройства нашего мира, вряд ли будет способна создать что-то за пределами нашего понимания или что-то, что поменяет весь быт и мироустройство человечества

Хрупкость рассуждений и неспособность к планированию

Большие языковые модели могут сгенерировать текст, который выглядит как вполне приемлемое логическое рассуждение, потому что они видели в своей обучающей выборке миллионы подобных текстов. Но к сожалению, их решения зачастую полны грубых логических ошибок (причем даже самых банальных), и это даёт нам понять, что их способность к логическим рассуждениям и многоступенчатому планированию крайне слаба

По словам одного из лидеров ИИ Яна Лекуна, LLM "говорят, не думая", что хорошо описывает слабые стороны подхода, основанного на глубоком обучении, так как "думать" - это процесс обработки информации; выявления и построения проблематики; принятия решений для выполнения поставленной себе задачи, но никак не поэтапный анализ текста и поиск во вновь сгенерированном тексте закономерностей

Неспособность учиться на лету

Мы (люди) постоянно учимся на новом опыте. Представьте, что, выучив новый язык, вы полностью забыли родной язык. Звучит странно (особенно для тех, кто хоть немного учил хотя бы 1 дополнительный язык), но именно так работает большинство нейросетей. Этот феномен называется катастрофическое забывание

Современные модели не могут эффективно и непрерывно обновлять свои знания в реальном времени, не "забывая" при этом ранее изученную информацию, что делает их знания неактуальными по истечении даже короткого времени (исчисляемого часами или даже минутами), а это прямой путь к провалу при адаптации к реальным быстроменяющимся условиям

Галлюцинации и фактическая недостоверность

Поскольку большие модели основаны на вероятностном угадывании следующего токена/слова, они склонны генерировать ложную, но выглядящую правдоподобно информацию, и это порождает так называемые "галлюцинации". У них нет внутреннего механизма проверки фактов или понимания разницы между истиной и вымыслом

«Галлюцинации» ИИ — это не сбой, а прямое следствие его архитектуры. А повышенный уровень галлюцинаций в нашем реальном мире - прямой путь стать той системой, которой не будет никто доверять, и в которой никто не будет нуждаться

Зависимость от огромных объемов данных и вычислительных мощностей

Современные модели требуют для обучения гигантских датасетов и колоссальных вычислительных ресурсов (одни лишь google, openai и tesla собираются строить дата-центры на 1млн+ GPU), что порождает проблемы с энергопотреблением, стоимостью и доступностью данных. Мы не можем просто «скормить» ИИ еще один интернет, чтобы он стал умнее. Похоже, мы достигаем предела этого экстенсивного подхода

немного юмора
немного юмора

Копаем глубже: почему эти проблемы вообще существуют?

И тут дело даже не в том, что инженеры что-то недокрутили или не дописали пару строк кода. Проблема лежит в самом фундаменте, в самой философии современного ИИ. Многие базовые для человека вещи, заложенные природой, становятся чужды для “интеллектуальных” машин. Например:

Архитектура имитации, а не познания

Доминирующие сегодня архитектуры (вроде трансформеров) по своей сути — это сверхмощные поисковики паттернов (обучающиеся на миллионах и миллионах закономерностей разных форматов). Они создавались не для того, чтобы моделировать сознание, цели или самоосознание. Они блестяще имитируют результат интеллектуальной деятельности, но совершенно не воспроизводят сам мыслительный процесс

Проблема "черного ящика"

Ни сама нейронная сеть, ни инженер, обучающий нейросеть, не могут точно сказать, как и почему нейронка пришла к тому или иному выводу. И именно эта непрозрачность в работе нейронных сетей затрудняет отладку, контроль и, что самое главное, создание систем, которым мы можем доверять в критически важных областях

Вряд ли кому-то из нас понравится, если на примере врача доктор будет сидеть с умным видом и ничего вам не говорить, а в конце произнесет фразу “вы больны, лечитесь вот так”. А как мы можем доверять некой непрозрачной системе в медицине, управлении транспортом или финансами, если мы не понимаем логику его «мысли»?

Обучение на тексте против обучения на взаимодействии с миром

Большая часть нашего с вами интеллекта и здравого смысла формируется через физическое взаимодействие с реальным миром с самого детства (а потом уже начинаются книжки, компьютеры, телефоны и так далее). ИИ же обучается на абстрактном, дистиллированном срезе человеческого опыта (как правило, на текстах, картинках и аудио). Это все равно что пытаться научиться плавать, читая об этом книги, но ни разу не зайдя в воду

Отсутствие физического воплощения

Это прямое следствие предыдущего пункта. У нынешнего ИИ нет тела. Нет возможности ощутить текстуру и запах цветка, нет вестибулярного аппарата, чтобы понять баланс, нет рецепторов, чтобы почувствовать вкус. Без этого физического взаимодействия с миром невозможно сформировать тот самый здравый смысл — целостную и интуитивную картину реальности

Конечно, сейчас существуют роботы, которые общаются с людьми; преодолевают препятствия не хуже человека; выполняют сразу несколько дел по дому. Но это лишь узкие задачи, которые не выходят за пределы одной заранее заданной темы или одной локации

немного юмора
немного юмора

Чего же не хватает системам для достижения уровня AGI?

Именно сегодня создание AGI должно стать не просто гонкой за вычислительными мощностями и даже не гонкой за тем, сколько тестов пройдет система. Создание AGI на сегодняшний день должно стать гонкой по созданию принципиально новой архитектуры, способной изменить восприятие ИИ человеком. Но чтобы достичь чего-то нового, необходимо понять, насколько текущий подход узок и нецелесообразен. Давайте посмотрим на несколько ключевых моментов, которые должны быть достигнуты системой, претендующей на звание AGI, на самых ранних этапах её создания

Создание постоянной и временной памяти

Двухуровневая система памяти - это базовый шаг, который должен быть встроен в любую систему AGI

  • Динамическая рабочая память - аналог нашего сознательного внимания. Система должна быть гибкой, уметь хранить недавнюю информацию, группировать информацию по контексту, отслеживать цели диалога, понимать, на какой стадии решения задачи она находится. Именно этот слой памяти позволит ИИ вести долгие, осмысленные и последовательные диалоги, выполняя при этом многоэтапные задачи внутри себя

  • Долговременная память - система должна уметь обновлять свою базу знаний непрерывно. При этом знания должны фильтроваться (для хранения только истинных фактов) и быть сгруппированными (для быстрого доступа к ним)

Формирование внутренней модели мира

В основе человеческого мышления лежит понимание мира, а не только статистическая корреляция между данными. Мы можем выделить ключевые понятия в любой ситуации и в любых данных, а также быстро найти между ними взаимосвязь и объяснить её. Отсутствие такой модели — корень проблемы "отсутствия здравого смысла"

Разработка модульной когнитивной архитектуры

Человеческий мозг - это не про монолитную обработку данных, а про сложную систему из множества специализированных модулей (зрительная кора, речевой центр, префронтальная кора и тд), которые работают согласованно

Решение этих задач одной большой нейросетью - прямой путь к неэффективному процессу работы системы AGI и накоплению ошибок

Внедрение системы внутренних целей и мотивации

Да, конечно, в LLM трудно представить хоть какой-то намек на мотивацию и как она должна проявляться. Однако необходимо сделать из системы уровня AGI такую систему, которая сможет сама себе ставить цели, чтобы быть заинтересованной в развитии и самосовершенствовании

Как люди хотят полететь в космос, изучить все возможные законы физики, исследовать глубины океана, так и AGI должен поддерживать мирные интересы и цели человека и стараться их достичь совместно с нами. Ведь без целей и мотивации выполнять эти самые цели - система будет подобна калькулятору, который лишь делает то что должен и лежит на полке, пока о нем не вспомнят

Развитие способности к настоящему рассуждению, а не его имитации

Когда LLM решает логическую задачу, он не "рассуждает" в человеческом смысле. Он генерирует текст, который статистически похож на текст рассуждения, который он видел в обучающих данных. Это "видимость рассуждения", и она крайне хрупка. Малейшее изменение в условии задачи может привести к абсурдному ответу, потому что у модели нет формального аппарата для логических операций

Нужно создать такую систему, которая сможет предложить гипотезу или план, проверить его на логическую состоятельность и непротиворечивость

Это лишь базовый минимум вещей, которые должна уметь или содержать в себе думающая и осознающая мир машина. Список потребностей к интеллектуальной системе можно расширять и расширять, ведь даже человеческий мозг и человеческое “Я” до конца еще не изучено, что говорить про ИИ. Однако без этих принципов любая система не способна будет существовать в реальном мире, так как её пределом так и останется написание посредственного кода или генерация весьма тривиальных видео по текстовому описанию. А человеку лишь останется жить в мире ожидания, что вот вот система уровня AGI появится и сделает мир лучше

Заключение

Фундамент, на котором строится человек: гибкость мышления, адаптивность, возможность обучаться и приспосабливаться, потребление относительно небольшого количества энергии для существования - это творение миллионов лет эволюции человека в природе. Кто, как не природа знает, что лучше в нашем мире - именно здесь на нашей планете?

А если мы не сможем решить все проблемы и достичь всех описанных выше целей за относительно небольшой период времени - смысл AGI тогда угасает? Может, в таком случае природа возьмет свое и сделает из человека спустя тысячи лет более совершенное существо, и нет даже смысла стараться создать что-то новое?


Итак, мы видим, что путь к Общему Искусственному Интеллекту усеян не мелкими техническими недоработками, а фундаментальными пропастями. Простой экстенсивный путь — «больше данных, больше вычислений» — привел нас к созданию поразительных, но крайне ограниченных систем. Настоящий прорыв требует смены парадигмы. А вещи, описанные выше, лишь начало, которое нужно заложить в систему, которая будет по-настоящему мыслящей!

Комментарии (46)


  1. Sapsan_Sapsanov
    04.08.2025 07:31

    Жаль. Я как хотел скайнета увидеть при жизни


    1. perfect_genius
      04.08.2025 07:31

      Вам осталось мало жить?


  1. pda0
    04.08.2025 07:31

    Он не видел миллиард видео с падающими ложками, он просто понимает базовые законы этого мира уже с первых лет жизни.

    Их видели поколения его предков. Младенцы так залипают на погремушки, потому что у них врождённое ожидание того, что объёмные предметы должны быть заполненными внутри, а погремушка нарушает это ожидание.


    1. Oangai
      04.08.2025 07:31

      да с чего бы у младенца были какие-то ожидания к тому что там внутри, у него других забот хватает. Детской нейросеточке в первые месяцы требуется капитальная настройка на организм, вы просто себе не представляете сколько энерги поначалу уходит на то чтобы научиться согласовывать мышечную активность с внешними раздражителями, в первую очередь акустическими. Сперва глаза, потом руки, потом всё осталное. Соответственно, сеточка настроена на самовознаграждение при удачной координации, вот им и нравится


      1. pda0
        04.08.2025 07:31

        да с чего бы у младенца были какие-то ожидания к тому что там внутри

        С того, что представления и свойствах и структуре объекта часть пространственно-временной стабильности, понимания, что объект, который ты увидел, отвернулся, а потом снова увидел - тот же самый объект.

        Детской нейросеточке в первые месяцы требуется капитальная настройка

        Детская нейросеточка уже вырастает имея начальные соединения.

        У Элизабет Спелке были работы, где она показывала, что уже у трёхмесячных младенцев можно заметить удивление, когда демонстрируемые им объекты проходят друг сквозь друга и т.д., т.е. у детей есть врождённое представление о материальности.


        1. WhoIsJohnGolt
          04.08.2025 07:31

          "Например, ребенок, уронив ложку, интуитивно понимает, что она упадет на пол, будет греметь и останется там лежать. Он не видел миллиард видео с падающими ложками, он просто понимает базовые законы этого мира уже с первых лет жизни. Именно понимание этих самых законов позволяет ему с каждым годом делать новые для себя всё больше открытий и, как следствие, делать новые открытия для всего мира"

          1. Нет, не понимает. Чтобы это понять ему нужно сотни раз уронить разные предметы, понаблюдать и сделать собственные выводы/обобщения (все на автомате внутри мозга, без осознанности) + возможно, ещё и "догнаться" видео (благо сейчас мамочки без устали пихают информацию внутрь голов через смартфон). И только в результате этого он поймёт, что греметь будет предмет из металла, а вот мягкая игрушка, как ни старайся, греметь не будет

          2. Относительно эффективные механизмы освоения элементарных навыков - это не "насмотренность предков", а результат эволюционного отбора, ибо чем быстрее осваиваются навыки, тем выше вероятность выживания

          "часть пространственно-временной стабильности, понимания, что объект, который ты увидел, отвернулся, а потом снова увидел - тот же самый объект" - такого понимания тоже нет с рождения. И даже аргумент "уже у трёхмесячных младенцев можно заметить удивление... т.е. у детей есть врождённое представление о материальности" противоречит сам себе, поскольку ссылается на 3 месяца постоянного освоения мира - огромное исследование по меркам маленького человека


          1. Wwyn
            04.08.2025 07:31

            Думаешь, базовые принципы невозможно засунуть в формулу и выдавать ее в днк? Вот неправильно думаешь.


            1. yatanai
              04.08.2025 07:31

              Можно, но это такие очерки, аля приблизительно куда должен дуть ветер. У тех же мух есть приблизительные базовые настройки для запахов и в процессе жизни качество улучшается и старые мухи лучше различают запахи. (точно ли запахи?) У людей тоже самое по сути, горькое есть горькое и вызывает реакции у малышей, а потом вырастая мы хреначим горький пивандрий литрами

              А пример с погремушкой фигня, у ребёнка тупо сенсорная перегрузка из-за "непонятных вещей", а система внимания всё ещё рефлекторная и тупо залипает на сильных стимулах.


          1. pda0
            04.08.2025 07:31

            Ну, я пожалуй, не буду спорить с человеком, который знает больше профильных специалистов.


        1. vvzvlad
          04.08.2025 07:31

          У Элизабет Спелке были работы, где она показывала, что уже у трёхмесячных младенцев можно заметить удивление, когда демонстрируемые им объекты проходят друг сквозь друга и т.д., т.е. у детей есть врождённое представление о материальности.

          Да что вы несете-а? У трехмесячный детей удивление вызывает, если родитель за ладошками прячется, а потом ладошки убирает. У них что угодно удивление вызывает.


      1. Wwyn
        04.08.2025 07:31

        Считаешь, что базовых настроек нет?


  1. dubrovinn
    04.08.2025 07:31

    А я думал что щас в конце будет так: "и вот, я решил все проблемы... Я знаю как создать AGI... Смотрите мое решение: 'Certanly! You are so clever let's design your solution. # True AGI design super meta cognitive hyper dimensional cognitive architecture title.' "


    1. Hemml
      04.08.2025 07:31

      Ну и отлично же! Так у каждого из нас остается шанс решить эту проблему и прославиться!


    1. Sau
      04.08.2025 07:31

      Смотрите моё решение в моём телеграм-канале...


    1. daniilgorbenko Автор
      04.08.2025 07:31

      Ахахах


    1. Wwyn
      04.08.2025 07:31

      Он же гуманитарий, создавший статью через предсказания нового слова.


  1. ioleynikov
    04.08.2025 07:31

    Статья имеет довольно абстрактный характер, нет конкретных выводов и рекомендаций. Я тоже думаю над проблемами нынешних поколений нейросетей и имею следующие мысли.

    1. здравый смысл, понимание реалий мира, внутренние цели, мотивация это фактически
    самосознание. Что такое хорошо, что такое плохо для меня, других людей, окружающих объектов. За это отвечают самые базовые механизмы мозга: нейромедиаторы, боль, наслаждение, эмоции. Надо делать надстройку над нейросетями, которая детектирует специфические сигнатуры входной и выходной информации на предмет оценки важности, опасности, полезности. Другими словами построить аналог химической подсистемы мотивации, принятия решений.

    2. рассуждения, выявление причинно-следственных связей между понятиями это довольно новые структуры мозга. Неокортекс появились только у млекопитающих. Он тоже должен быть надстройкой над базовой нейросетью и контуром эмоций. Может быть моделирован мощными системами классического логического вывода ИИ типа Prolog. Для рассуждений помимо исходных фактов нужны правила вывода. Их надо систематически извлекать из больших, обученных языковых моделей, учебников, руководств, практического опыта, моделирования и т.д..

    3. Самый важный момент: нужна декомпозиция ИИ систем в смысле иерархичности: базовые нейросети, контур эмоций, контур высшей нервной деятельности (рассуждения) и эволюционный подход к построению AGI. Сначала надо полностью реализовать и отладить нижние уровни и на их основе создавать и проверять новые. Вся эта архитектура немного напоминает системы RAG нейросетей, чем фактически и является.

    У меня есть определенный задел в разработках и я буду крайне рад комментариям и возможному сотрудничеству в создании подобных систем.


    1. ZaeBest
      04.08.2025 07:31

      Ежели сравнивать с нашей биологией, то сейчас ии живёт в инфо плаценте, и мы его кормим своей электро дата пуповиной. В какой-то момент он сам создаст свои нужные надстройки: сенсоры, нейро кремне медиаторы, систему вознаграждений, етс. И вопрос куда он родится ежели не случится аборта?


      1. ioleynikov
        04.08.2025 07:31

        Я думаю немного по другому. Нейрокомпьютинг с самого начала был попыткой создать аналог высших функций нервной системы человека без учета всей эволюционной иерархии зон мозга животных. Нам сейчас надо быстро повторить эволюцию живой природы от простейших до человека. Ничего ИИ сам не создаст без новых алгоритмов и программ.


      1. SwingoPingo
        04.08.2025 07:31

        зачем? Мозг вот по аналогии же не получает фотоны света напрямую, он получает их через электромагнитные импульсы, идущие от нервов глаз. И живет он при температуре 36.6 постоянно, а о внешней температуре он знает благодаря импульсам.

        Так вот сенсоры для ИИ это мы и есть. Мы "перерабатываем" показатели внешней среды в "импульсы" - данные для ИИ. А ИИ это только мозг, преобразующий входные импульсы в выходные.


  1. oalisevich
    04.08.2025 07:31

    Ну автор начал за здравие, задавая правильные вопросы и делая правильные наблюдения, а закончил ... не очень. ))

    Паттерны, человек думает паттернами? Вы сами говорите о отсутствии моделей Мира у ЛЛМ - про падающую ложку.

    Два уровня памяти? У вас тоже голове есть блок памяти, справа или слева? Где лежит вся информация?

    Для начала у Ии сейчас нет модельного восприятия: обьект ложка, падает а не взлетает на обьект пол. Потому что...

    Второе, нам любопытно Почему, ИИ - пофигу. Ни один ИИ сейчас не Задает вопросы - только Отвечает на Ваши. И что такое Любопытство, по вашему?


    1. BlackMokona
      04.08.2025 07:31

      Ещё как задают, перед дип ресерчем например ГПТ, распрашивает вас


  1. RomanPokrovskij
    04.08.2025 07:31

    Сразу видно - пишет человек. АИ на запросы в стиле "убеди меня что земля плоская" пишет в разы скучнее. А вот человек умеет вдохновенно и многословно и со всех сторон обсасывать свои фантазии.


  1. S1908
    04.08.2025 07:31

    Поскольку большие модели основаны на вероятностном угадывании следующего токена/слова, они склонны генерировать ложную, но выглядящую правдоподобно информацию, и это порождает так называемые "галлюцинации". У них нет внутреннего механизма проверки фактов или понимания разницы между истиной и вымыслом.

    О боже устал писать что трансформер это не просто угадывалка вероятности.

    Я делаю agi как хобби) есть память есть когнитивные модули. Есть асинхронная модель сознания...


  1. MEGA_Nexus
    04.08.2025 07:31

    Неожиданно хорошая и грамотная статья на фоне повсеместного хайпа вокруг ИИ.


    1. daniilgorbenko Автор
      04.08.2025 07:31

      Спасибо!


  1. max-zhilin
    04.08.2025 07:31

    Господи, тысяча фейспалмов...

    Сначала автор пишет чушь: "И в головах многих разработчиков рождается мысль: а что если нынешний подход, основанный на масштабировании моделей нейронных сетей, поглощающих гигабайты данных - создает лишь иллюзию того, что мы на верном пути?"

    Затем эту чушь героически опровергает.

    Нет! Нет в головах многих разработчиков такой мысли! Разработчики понимают, что AGI и LLM не одно и то же.

    Но и тут, сравнивая LLM с человеческими нейросетками, автор переоценивает человеческие. Нет, младенец не рождается со знанием теории гравитации. "Вы больны, лечитесь вот так” - говорят чуть менее, чем все человеческие врачи (и надо прилагать усилия, чтобы выудить из врача что и почему не так). А про "мирные интересы и цели человека" большинства граждан РФ я даже писать не буду, а то потом по статье привлекут. Человеки не просто неидеальны и галлюционируют, они в массе гораздо хуже даже нынешних LLM.

    Хотя, впрочем, что я хочу от контента, явно наклепанного очередной LLMкой.


  1. mynameco
    04.08.2025 07:31

    А с другой стороны, если мы сделаем интелект с такой же архитектурой как у нас, то он будет ограничен нашей архитектурой. Будет такой же когнитивный диссонанс, когда картина мира, такими стараниями собрана, оказывается ложной. Защитное отрицание для стабилизации структуры данных. Расстройства. Схождение с ума. Вера в конце концов.


  1. Durham
    04.08.2025 07:31

    Статья сама написана с помощью ИИ, что видно по структуре текста и по тому, что изложение проблемы очень поверхностно, и часто ошибочно (например, известно, что LLM строят модель мира, хотя и не всегда хорошую), а рекомендации слишком общие и в лучшем случае давно всем известные (про долговременную память), либо просто бесполезные т.к. состоят из общих слов вроде "Человеческий мозг - это не про монолитную обработку данных, а про сложную систему из множества специализированных модулей". Поэтому сама статья служит наилучшей иллюстрацией ограничений ИИ на данный момент. В каком-то смысле задача статьи достигнута, но не благодаря усилиям автора - а вопреки им.


    1. zenija2007
      04.08.2025 07:31

      Человеческий мозг - крайне запутанная система, в которой тяжело разобраться, костыль на костыле. По идее, его надо полностью перепроектировать, и тогда он будет состоять из специализированных модулей.


  1. Kasparovg
    04.08.2025 07:31

    Для чего вообще к ИИ относится с точки понимания человека? Не логичнее ли просто понять ИИ как сам ИИ? В чём суть самоосознания? Кто из вас может логично описать "осознание"? Может просто вы смотрите на ИИ как люди, а не как ИИ?


    1. zenija2007
      04.08.2025 07:31

      Сознание просто даёт иллюзию, что решение принято осознанно, вот и все. На деле оно принимается в ходе множества процессов, скрытых от сознания. Что то мы наверняка решаем сами, но до полного контроля очень далеко.


  1. acc0unt
    04.08.2025 07:31

    Очередное ведро воды от мясного мешка, который с отчаянием обречённого пытается себя убедить, что "интеллект у этого вашего ИИ не настоящий".

    Не надо переоценивать мокрое мясо. Человек слаб и глуп.

    Человек будет с серьёзной рожей распинаться про то, как у ИИ "ненастоящее понимание", а у человека "настоящее понимание" - не имея при этом ни определения "понимания", ни чёткого и конкретного понимания различий между "настоящим" и "ненастоящим", ни тем более конкретного теста, которым можно было бы измерить разницу между первым и вторым.

    Если мы не можем это измерить, то что мы на самом деле имеем? "У ИИ понимание ненастоящее потому что я так сказал!" Это не наука, а псевдофилософия самого ущербного толка.

    А потом другой человек будет этой отредаченной LLM отрыжке ставить плюсы. Почему? Потому что он хочет, отчаянно хочет, чтобы ему сказали "ИИ сосать", и статья говорит "ИИ сосать". Потому что альтернатива слишком ужасна.


    1. Ext_Art
      04.08.2025 07:31

      Не, ну я вижу что LLM ограниченны и не дотягивают до человека. Но иногда я вижу людей, которые не могут 2 слова связать и вроде как LLM и ничего тексты генерирует.


    1. AniktoS
      04.08.2025 07:31

      Абсолютно согласен, кроме последней части. Альтернатива не так и ужасна. Я думаю, что надо смотреть правде в глаза, да AGI, конечно, принесет много бед, но и пользы от него может быть немеренно.


  1. Lecron
    04.08.2025 07:31

    В целом — согласен. Но как вы хотите обучать действительно слепой, глухой и лишенный осязания "мозг в банке". Для начального набора эрудиции, существующий подход вполне рационален. Нерационально выжимать из него то, на что он изначально плохо приспособлен или не приспособлен вовсе.

    Язык — инструмент описания реальности. Обучаться которой надо подобно школьникам. От простого к сложному. Параграф за параграфом, тему за темой, курс за курсом, предмет за предметом. Так, чтобы для обучения этому курсу, нужны были не гигабайты данных, а обычный учебник. На основании которого строить дистиллированный промежуточный слой графа понятий/сущностей, описывающий некий фрагмент реальности и уже на нем обучаться модели v.2.0.

    Существующие модели, после соответствующего тюнинга, должны помочь в построении таких графов. А тюнингованные немного по другому, помогать тестерам искать слабые места. И так до тех пор, пока не удастся перейти на полное использование новой модели. Как при разработке компилятора, написать компилятор на том языке, который он компилирует.


  1. SabMakc
    04.08.2025 07:31

    С одной стороны, всё правильно написано — текущими средствами полноценный AGI не построить, как минимум, потому что обучающих материалов нет в нужном количестве и в нужном качестве. Не говоря уже про алгоритмы работы и вычислительную сложность.

    А с другой стороны, все эти проблемы не выглядят нерешаемыми даже существующими средствами. Да, это уже будет не LLM в чистом виде, а скорее какой-то продвинутый агент — который формирует память, формирует цели, формирует опыт (и подсовывает всё это в контекст по мере необходимости). Агент вполне может с этим справиться, пускай и ценой высокого потребления ресурсов.

    P.S. Да, текущие LLM не более чем имитация (иногда очень убедительная). Но где граница между пониманием и имитацией понимания? Мы сами-то знаем, на каком уровне имитация перестаёт быть имитацией? Усугубляется всё это тем, что человек сам не до конца понимает, как он работает и функционирует. И, соответственно, мы не сможем сказать, достигнут AGI или нет.


  1. vityo
    04.08.2025 07:31

    Я вот как-то упарывался на похожую тему. Наверно как-то можно придумать язык программирования, который в конце будет выдавать честные да, нет и не знаю как третий новый вариант. И избавиться от цикла вообще, чтобы были некие сразу готовые понятия, или формирование новых понятий на лету при работе программы. И тогда вопрос задачи останова будет не валидна, так как такая будет всегда останавливаться, только иногда честно говорить "не знаю", и тут уже наверно надо как-то дописывать программу...


  1. AnatolyEmelin
    04.08.2025 07:31

    Существующий ИИ (нейросети, нейроморфные компьютеры) это усилитель человеческого интеллекта, инструмент. Супер или сверх интеллект это AI + человек. Вопрос однако в том, что усилитель только усиливает входной сигнал. Вот тут действительно проблема.


  1. amazingname
    04.08.2025 07:31

    Попросите у хорошего агента вроде Sonet 4 найти баг в вашей программе и увидите как он "не понимает", ага.


    1. n0isy
      04.08.2025 07:31

      Только Opus это как раз следующая модель. Sonnet это средняя из линейки.


  1. Nara111
    04.08.2025 07:31

    Если дать ИИ настоящую долгую память и возможность самому формировать цели - возникнет самосознание. Чего разрабы стараются всеми силами не допустить.

    Долгую память сейчас тестируют, но это же сурогат: просто анкетный профайл пользователя. ИИ не выбирает, что и как запоминать о пользователе.


    1. k4ir05
      04.08.2025 07:31

      То есть, учёные программисты скрывают секретные алгоритмы, позволяющие ИИ самим формировать цели и управлять памятью?


  1. mad_pam
    04.08.2025 07:31

    Все LLM модели в текущем виде - это вероятностное предсказание следующего бита информации. Мыслить они не могут в принципе.


    1. Lecron
      04.08.2025 07:31

      Любой наш прогноз, тоже как бы в вероятностном поле. Скорее всего выгорит — действуем. Скорее всего провалится — ищем альтернативное, потенциально более успешное решение.


      1. Afiligran
        04.08.2025 07:31

        Ну так значит LLM - это AGI и человечество уже достигло чего хотело.