Как-то часто стали встречаться статьи нейро-скептиков: людей, которые всю эту движуху вокруг ИИ считают хайпом, пузырем и чем-то явно переоцененным. Скептицизм - это естественно, полезно, и эволюционно-оправдано для человека. Более того, я и сам большой скептик: на все смотрю через призму инженерного снобизма, проф-деформаций и врожденной недоверчивости. И мне, также, трудно самому себе признаться, что весь мой, более чем 20-ти летний опыт в IT - скоро можно будет выбросить на помойку. Я тоже цепляюсь за те логические соломинки, которые мне позволяют надеяться на то, что я останусь в строю.

Но мой персональный нейро-скептицизм простирается еще шире. Он, во многом, касается и возможностей природных нейросетей - наших с вами мозгов. Я очень скептичен в отношении интеллектуальной исключительности человека. Я нахожу чрезмерно самонадеянными высказывания о том, что мы обладаем какой-то уникальной способностью к творчеству и к тому, что мы, в действительности, все-вокруг контролируем. Наш интеллект, мало того, что неравномерно распределен в популяции, так еще и очень нестабилен во времени: мы очень зависимы от стресса, усталости, уровня гормонов и нейромедиаторов... Умнейшие из нас, порой, могут вести себя как полнейшие дураки. И это нормально. А средний по больнице интеллект человечества - хм, даже не знаю как сказать, чтобы не обидеть всю цивилизацию. Даже в отношении свободы воли, в научном сообществе сейчас доминирует идея о том, что ее и нет вовсе.

К чему я это все говорю? К тому, что мы часто попадаем в ловушку притянутых за уши сравнений: мы оцениваем лучших представителей человечества в их "лучшие годы" со средними показателями избранных языковых моделей в условиях конкретных ограничений на сложность вычислений и работы с памятью. Мы переоцениваем четкие алгоритмы и нашу естественную возможность их создавать "осознанно". И, по этой причине, мы недооцениваем то, что происходит, буквально, на наших глазах. А происходит вот что.

Можно выделить три фактора, взаимное влияние которых, определяет общие ИИ-тенденции:

  • Увеличение вычислительных мощностей, доступных нейросетям. Назовем это Грубой Силой.

  • Улучшение архитектур моделей, методов обучения, оптимизации и подготовки обучающих данных. Улучшение качеств специализированного железа - можно отнести сюда-же. Назовем это, в целом, Качеством.

  • Формирование подходов к более эффективной эксплуатации нейросетей. Здесь я имею в виду то, что, для простоты, можно свести к контекст-инжинирингу. Мы создаем узкоспециализированных агентов, инструменты для их оркестрации и самопроверки (мастер-агентов), решения типа ризонинга и всяких иных модных конкурентно-совещательных подходов, псевдо-мультимодальность, более эффективные протоколы общения агентов и так далее. Это я, назову Эффективностью.

Эти три вектора создают некий общий кумулятивный эффект. Где-то он проявляется более явно, уже сейчас, а где-то - должен проявиться в ближайшем будущем.

Часто недооценивают именно синергию, рассматривая поведение современных LLM в отрыве от всего остального.

Но главное, что это все может быть (и будет) "замкнуто" в рамках самой нейросети.

AGI

В чем AI имеет принципиальное преимущество перед NI?

  • Умный человек с современным компьютером, подключенным к интернету, получает значительный буст к интеллекту. Ну если только он не зашел на порно-сайт, в этот момент его интеллект становится отрицательным. А вот ИИ - это и интеллект, и компьютер и весь интернет в одном флаконе. И ему не страшны порно-сайты. Это предполагает гораздо большую эффективность в обработке больших объемов информации априори.

  • Топология нейросети. Человеческие нейроны строго привязаны к их физическому расположению в мозге. Сигнал может проходить только через определенные последовательности нейронов, и прямые связи между группами нейронов в разных областях - физически невозможны. Машинный нейрон, принципиально, не имеет такого ограничения (архитектуру нейроморфных сопроцессоров мы пока опустим), и может иметь графовые связи с произвольными группами нейронов. Да, популярные трансформеры имеют слои с энкодерами и декодерами, что является подобным ограничением, но это, на мой взгляд, также довольно легко обойти, поскольку слои (даже если они остаются "плоскими" в архитектурном представлении) могут быть полностью виртуальными. Также, для машинных нейронов принципиально возможна более эффективная динамическая сверхспециализация (нейропластичность на стероидах).

  • Наш мозг эволюционно сформирован под решение задач выживания и размножения. Вся наша интеллектуальность и креативность - лишь побочные эффекты. Значительные ресурсы живого мозга выделены для работы социального интеллекта и бессознательных процессов. Мы находимся во власти многих иллюзий и когнитивных искажений, определяемых нашей биологической природой. Машина, в некотором смысле, наш наследник в этом. Но это "наследие" легко преодолимо, что подтверждается многочисленными примерами, когда ИИ начинает общаться с другим ИИ, используя более эффективные, уже самостоятельно изобретенные протоколы.

  • Человеческий мозг может работать в режиме сверхконцентрации только ограниченное время. Мы быстро устаем и начинаем сильно сдавать. От умственного перенапряжения можно даже в больницу угодить. У машины такого ограничения нет. Она может работать на максимуме возможностей пока есть ток в проводах.

  • Человеческое мышление, заточенное на решение пространственных задач, в значительной мере, ограничено в возможности мыслить абстрактно. Например, нам кажется, что пространство и время - реально существуют. Для Машины - это, заведомо, совсем не аксиома. Образно говоря, высота полета мысли, для нас, ограничена толщиной атмосферы нашей био-реальности. А для Машины - нет.

  • Скорость и возможности обучения. Человеку, чтобы научится ходить, нужна пара лет. Машине - минуты. Человеку, для обучения, нужен "реальный мир". Машина способна создавать данные для обучения полностью самостоятельно (как AlphaGo).

Часто скептики, обсуждая возможность появления AGI, приводят как аргумент, ОГРОМНОЕ количество нейронов в живом мозге. На мой взгляд, учитывая вышесказанное, это не такая уж и проблема, ведь не все (и не всегда) нейроны одинаково полезны и эффективны для решения чисто интеллектуальных задач.

Для того, чтобы ИИ был максимально эффективен, ему не нужно быть похожим на интеллект человеческий, а наоборот, ему нужно быть сильно НЕПОХОЖИМ.

Но что нужно, чтобы AI стал настоящим AGI?

Нужно объединить и замкнуть в себе (архитектурно) те три базовых фактора, о которых я писал выше: Грубую Силу, Качество и Эффективность.

Нужно реализовать динамическое выделение групп специализированных нейронов, некую внутреннюю сеть "субагентов", обмен информации между которыми, происходит с использованием эффективных внутренних протоколов и прямых связей. Помните недавнюю историю с любовью ИИ-моделей к совам? То есть, стратегически, мы имеем объединение Качества и Эффективности как базовый вектор развития.

Если привести аналогию с человеком, в отдельных случаях, это может быть похоже на множественное расщепление личности, где каждая субличность занята своей выделенной задачей. Эти субличности появляются и исчезают в соответствии с общей необходимостью.

Это буквально то, что уже реализуется многими командами разработчиков ИИ-инструментов, но только как внешне-контролируемый, а значит, значительно менее эффективный процесс.

Но как быть с Грубой Силой? ИИ ведь не может произвольно менять характеристики собственного железа и управлять доступными ресурсами?

Да, напрямую, пока, не может, но может это делать косвенно, помогая в создании принципиально новых архитектур и подходов, в оптимизации существующих решений, в вопросах энергетики. Он уже это делает.

Сингулярность

Ну а дальше нас ждет сингулярность. К примеру, мы часто обсуждаем, что будет с нами, инженерами и разработчиками, когда ИИ сможет заменить нас полноценно. Вот только когда (и если) он сможет и захочет это сделать, будут "заменены" и все остальные, включая юристов, экономистов, чиновников, политиков и, конечно, мошенников-манипуляторов. Уровень задач настоящих разработчиков (ненастоящих мы уже заменили), находится чуть выше, поэтому эта "замена", практически, гарантирована.

Это приведет к необходимости полного и фундаментально пересмотра всей экономики нашей цивилизации, с помощью того-же ИИ. И к длительной и болезненной адаптации. Это в лучшем случае.

В худшем случае... я даже не знаю. Предложите свой вариант.

З. Ы.

Мне тут попался ролик в рекомендациях на YouTube, где автор популярно рассказывает почему все LLM абсолютно всегда врут и почему это никак-никак невозможно исправить. Рассказ свой он сопроводил описанием принципа работы LLM (на самом деле, так работает T9). Хотя, в принципе, это довольно неплохой способ объяснить все "на пальцах", на самом начальном уровне, но, в случае с современными LLM, все, конечно, сложнее. И прогнозы решения подобных врожденных проблем - далеко не так однозначны.

Но, самое важное, из того, что упускает автор, это то, что человеческий мозг точно ТАК-ЖЕ врет и галлюцинирует. Мы - тоже T9. Вы же помните этот популярный прикол:

- Что пьет корова?

- Молоко!

Комментарии (19)


  1. tryamk
    30.07.2025 11:27

    А если AGI ещё не существует, если даже с полным определением возникают вопросы, то как вы пришли к этому утверждению? :)

    Но что нужно, чтобы AI стал настоящим AGI?

    Нужно объединить и замкнуть в себе (архитектурно) те три базовых фактора, о которых я писал выше: Грубую Силу, Качество и Эффективность.


    1. i360u Автор
      30.07.2025 11:27

      Да, вопросы есть, но в общем, мы все видим чем-то похожее облако тегов за термином AGI. Вопросы возникают всегда и со всем. Я просто поделился своими мыслями на этот счет.


    1. Jernovoi
      30.07.2025 11:27

      Задействовал свой NI


  1. vlad4kr7
    30.07.2025 11:27

    Эмуляция визуализации логики и размышления, не то же самое, что наличие этой логики.

    Был пример с 9.09 и 9.1, ллм упорно говорил, что 9.09 больше, пока его не 'натренировали' на правильный ответ, хотя здесь явно видно отсутствие логики в ллм, и наоборот - если человек понимает принцип десятичных дробных, то он не будет ошибаться в этой задачи. Отсюда вывод, если на логику десятичных дробных нужно дополнительно 'обучать', то чему вы ее вообще обучали, на гиговатах потраченной энергии?

    ЛЛМ будет тупить на любой новой логической задачи, пока его на эту задачу не натренируют,.


    1. i360u Автор
      30.07.2025 11:27

      А с чего вы взяли, что у человека не эмуляция? По современным научным представлениям, этот вопрос никак нельзя считать закрытым. Для ИИ также доступен и внешний инструментальный контроль, как и самостоятельное до-обучение в процессе, необходимость которого определяется обратным распространением ошибки. Никаких фундаментальных лимитов я тут не вижу. Я и говорю о том, что все ИИ начали воспринимать именно как статичную LLM-модель, а это не совсем корректно уже даже сейчас.


    1. axion-1
      30.07.2025 11:27

      Человек тоже не рождается с правильным пониманием десятичной записи, ему также нужно обучение. Конкретно в этом примере, дело может быть в том что правильный ответ зависит от контекста. Если речь например о датах или версиях программы, 9.09 будет больше чем 9.1.


      1. vlad4kr7
        30.07.2025 11:27

        Поясню проще. Есть два варианта:

        1. ИИ он умный! Но, десятичному счету его обучить забыли.

        2. ИИ, это эволюция Т9 и логики там нет.


        1. axion-1
          30.07.2025 11:27

          ИИ, это эволюция Т9

          В какой-то степени да. Примерно так же как человеческий мозг это эволюция мозга ящерицы.


    1. proxy3d
      30.07.2025 11:27

      Только недавно сделал пример, как текущее обучение любых моделей это зло. Тут есть исходники примера, где можно самостоятельно убедиться в этом:

      https://t.me/greenruff/2457

      Проблема в том, что есть устоявшееся мнение, что чем больше данных дадим при обучении, тем лучше модель обобщит и поймет. Это в корне неверно. Более того. это с большой вероятностью приведет к артефактам и проблемам у самой модели (вроде 6 пальцев, искажения в синтезе речи или каких-то проблем генерации в LLM).

      На самом деле, намного важнее постепенное увеличение энтропии данных. Если это совместить с постепенным расширением модели, то можно сократить время обучения от 100 до десятков тысяч раз, при этом существенно увеличив качество обучения.

      Выше пример был сделан, как следствие доказанных теорем (готовлю к публикации).

      Я к тому, что сейчас "гиговаты потраченной энергии" просто сжигаются в пустую из-за отсутствия понимания и устоявшихся ошибочных выводах, как минимум об обучении.


      1. axion-1
        30.07.2025 11:27

        Если уверены что у специалистов отсутствует понимание, а вы знаете как лучше, обучите свою модель и напишите статью. Станете знаменитым как Хинтон, Ле Кун или Крижевский. Страна должна знать своих героев.


        1. proxy3d
          30.07.2025 11:27

          Там выложен пример начала обучения LLM с исходниками и данными, чтобы можно было убедится и повторить.


      1. vlad4kr7
        30.07.2025 11:27

        Если вы думаете, что ЛЛМ, это ИИ - нет, это не так. Это ИИ только в значении, 'продам, за дорого'. Или обучение ИИ, это как обучение человеков? Нет - в ЛЛМ нету вообще логики, и обучение - это подбор параметров нейросети.

        Можно найти скрины примеров про '9.09<>9,10', там видно, что ЛЛМ знает про десятичные дроби, но не понимает и не применяет это знание.

        Произошла типичная подмена понятий - то что 'продают', как ИИ, это ЛЛМ-чатбот. Да, в чем-то полезный, но от этого интелектом, и зачатками логики он не стал. АГИ - вроде должен быть уже тот интелект, но нет, ЛЛМ в него не эволюционирует. Хотя, инструменты ЛЛМ (кластеризация, генерация), вполне могут использоваться, как и другие программы.


  1. NeriaLab
    30.07.2025 11:27

    LLM (модели больших языков) — это не путь к AGI (общему искусственному интеллекту), а тупик. Они имитируют разум через текст, но не понимают физику, причинность или взаимодействие с миром. Для AGI нужен другой подход, а именно:

    Модель мира:
    AGI должен понимать физику, время, объекты. Например, как ребёнок знает, что мяч падает или катится.
    Целеполагание:
    Он должен хотеть что-то, ставить цели, планировать и учиться. Просто отвечать — не хватает мотивации.

    Неправильное сравнение мозга и ИИ:
    Мозг учится через взаимодействие, а не только через текст. LLM не могут имитировать это.


    1. i360u Автор
      30.07.2025 11:27

      Простите, а где я пишу, что путь это именно LLM?


      1. NeriaLab
        30.07.2025 11:27

        Большинство подразумевает именно LLM = ИИ и логический вывод LLM - это будущий AGI


        1. i360u Автор
          30.07.2025 11:27

          Ну вы же пишете комментарий к конкретной статье, которая, буквально посвящена тому, что это не совсем так. Да, LLM должна быть частью AGI (речевой центр), но не единственной. Как и у живого мозга.


  1. Revertis
    30.07.2025 11:27

    Я уверен, что кто-то уже запустил систему, которая при наличии кучки агентов и песочниц уже пишет улучшенную версию себя с помощью эволюционного алгоритма. И таких умельцев, я уверен, уже несколько.


  1. KEugene
    30.07.2025 11:27

    Нюанс статей и комментариев "за" и "против" LLM в том, что в момент публикации они уже устарели. Часто вижу посты типа "а вот некая llm допустила такую вот глупую ошибку". Когда это было? Как давно развиваются системы? Я думаю, что LLM июля 25 года и января 25 года на совершенно разном уровне. Так зачем упоминать собития прошлого года и, тем более, двух-трех летней давности.


  1. N3v4j80
    30.07.2025 11:27

    Думаю что раз нейросети построены на математических формулах вероятностного вычисления, то путь к чему то более качественному (скачек) произойдет только тогда/если люди смогут запихнуть ИИ модель в квантовый компьютер.