...все больше и больше людей утверждают, что искусственный общий интеллект уже существует. Пожалуй, самое недавнее подобное утверждение содержится в статье в журнале Nature, которую вы можете прочитать здесь [пересказ здесь].

Статистическое приближение ≠ общий интеллект
Авторы: Уолтер Кватрочиокки, Валерио Капраро, Гэри Маркус
Оригинал: https://garymarcus.substack.com/p/rumors-of-agis-arrival-have-been

Слухи о том, что человечество уже достигло искусственного общего интеллекта (AGI), сильно преувеличены. Такие слухи часто подпитываются недавними достижениями в области больших языковых моделей (LLM), результаты работы которых демонстрируют высокую производительность на бенчмарках, беглую работу в различных областях и — в некоторых случаях — правильные решения открытых математических задач. Эти разработки часто рассматриваются как доказательство того, что мы достигли искусственного общего интеллекта.

Подобные интерпретации основаны на фундаментальном смешении результатов выполнения отдельных, часто хорошо известных задач и интеллекта в целом. Выполнение отдельных задач, даже впечатляющее, нельзя считать достаточным доказательством общего интеллекта. В этой статье мы покажем, что недавние заявления о достижении ИИ основаны на концептуальной ошибке — смешивании статистической аппроксимации, всё более и более сложной, с самим интеллектом. Мы также покажем, что недавние заявления (Chen et al., 2026) о предполагаемом успехе в создании ИИ зависят от переопределения того, что сам термин ИИ исторически означал.

Определения искусственного общего интеллекта

Термин «искусственный общий интеллект» изначально был введен для обозначения систем, способных надежно и гибко работать в широком диапазоне контекстов и задач, причём акцент в определении был сделан на умении обобщать, гибко подстраиваться, адаптироваться и меняться в условиях новизны, а не на успех в решении фиксированных или специально подобранных наборах задач.

Широко цитируемое формальное определение Легга и Хаттера (2007) характеризовало интеллект как способность агента достигать целей в широком диапазоне контекстов, при этом в его основе лежат устойчивость и умение обобщать. Аналогичные концепции, в том числе и работы Гертцеля (2014), также делали акцент на постоянном самообучении и общей способности к решению проблем , а не выполнении заранее определенных задач.

Такое представление в целом не менялось на протяжении многих лет. Прогресс, основанный на результатах тестов-бенчмарков, всеми считался ценным, но недостаточным условием для создания абстрактного мышления, надежности в работе или подлинной способности к генерализации. Совсем недавно Хендрикс и др. (2025) подтвердили, что устойчивость и надежная генерализация за пределами бенчмарков, а также устойчивость к систематическим сбоям — это ключевые критерии для общего искусственного интеллекта. Нынешние системы этим критериям не соответствуют.

Однако в последние годы некоторые люди попытались переопределить понятие ИИ и ослабить его. При этом мы не видим никаких доказательств соответствия первоначальным критериям.

Вместо этого некоторые статьи неявно переопределяли концепцию общего ИИ с точки зрения общих показателей в тестах, часто в унисон с растущими коммерческими и стратегическими стимулами. Другие новые переосмысления попытались описать общий ИИ в экономических, а не когнитивных терминах, приравнивая его к способности выполнять значительную часть экономически полезной человеческой работы.

В последнее время (AGI) рассматривается как полный синоним высоких результатов в стандартизированных тестах-бенчмарках. Сосредоточившись на конкретных тестах, эти определения упускают из виду способность обобщать, которая была центральной в первоначальных определениях (как обсуждается в следующем разделе), тем самым отражая фундаментальное непонимание того, как следует оценивать интеллект. Таким образом, они смешивают все более сложную аппроксимацию интеллекта с самим интеллектом. 

Успех в выполнении тестов сам по себе не подразумевает наличие общего интеллекта.

Значительная часть аргументов в пользу того, что искусственный общий интеллект уже достигнут, основана на результатах бенчмарков (например, Chen et al., 2026). Бенчмарки оценивают конкретные возможности в контролируемых условиях и полезны для отслеживания прогресса. Например, Чен и его коллеги, опубликовавшие статью в этом журнале, утверждают, что успех в тесте Тьюринга является доказательством существования ИИ.

Однако успешность выполнения тестовых заданий — ограниченный показатель общего интеллекта. Бенчмарки по определению изолируют узкие компетенции и абстрагируются от контекста реального мира, из-за чего становится трудно отделить подлинную способность к генерализации от обычного распознавания паттернов. Высокие результаты в бенчмарках обычно слабо свидетельствуют об устойчивой работе в условиях новизны, неопределенности или меняющихся целей.

Более того, тесты зачастую легко поддаются манипуляциям. Сам тест Тьюринга хорошо это иллюстрирует: сообщалось, что системы «проходят» его, эксплуатируя поверхностные разговорные фразы и доверчивость неспециалистов-оценщиков, а не демонстрируя подлинное понимание или умение рассуждать (см. Юджин Густман). В последние годы по мере того как от результатов бенчмарков стали зависеть финансовые показатели, системы все чаще обучались непосредственно на бенчмарках («teaching to the test» «натаскивание для теста») или на синтетических данных, очень похожих на них. В результате разработка моделей и обработка данных оптимизируются для успешного прохождения тестов, что приводит к созданию систем, которые хорошо работают в тестовых условиях, но деградируют в реальных условиях, лишь незначительно отличающихся от искусственных — как показали недавние медицинские исследования, где модели дают правильные ответы, несмотря на отсутствие ключевых входных данных, но становятся нестабильными при незначительных изменениях распределения, генерируя беглые, но ошибочные рассуждения (Gu et al. 2025).

Экономические данные подтверждают этот разрыв. На уровне задач анализ автоматизации рабочих мест показывает, что даже самые современные системы могут надежно выполнять лишь небольшую часть задач, требующихся в типичной работе человека (Eloundou et al., 2023; Felten et al., 2023), несмотря на высокие показатели по тестам в искусственной среде. На общем уровне макроэкономический анализ тоже указывает на скромный эффект: Аджемоглу (2025) оценивает, что автоматизация на основе ИИ увеличит общую факторную производительность не более чем на 0,66% в течение десяти лет. Дополнительные данные свидетельствуют о том, что лишь меньшинство фирм сообщают об экономически значимой отдаче от внедрения ИИ (NANDA, 2025) — факт, который плохо сочетается с утверждениями об общем интеллекте.

В совокупности эти соображения указывают на то, что результаты бенчмарков, даже в рамках множества задач, не являются достаточным доказательством общего интеллекта. Общий интеллект, предположительно, подразумевает высокие результаты выполнения тестов, но имеющиеся данные из реальной жизни свидетельствуют о том, что основные свойства общего интеллекта — гибкость, способность обобщать и надежность — остаются недостигнутыми.

Ограничения поведенческих (behavior-based) определений

Чрезмерное внимание к часто обманчивым критериям бенчмарков отражает более широкую и повторяющуюся концептуальную ошибку: тенденцию рассматривать наблюдаемое поведение как решающее доказательство интеллекта, не уделяя при этом достаточного внимания лежащим в его основе механизмам. В психологии бихевиоризм предлагал прагматичный способ изучения познания без обращения к внутренним психическим состояниям; аналогичным образом испытания искусственного интеллекта, вроде теста Тьюринга, отдают приоритет внешним показателям, а не лежащим в их основе механизмам.

Эти подходы были полезны, но в конечном итоге недостаточны. Ключевой вывод когнитивной психологии заключается в том, что схожее поведение может быть результатом принципиально разных процессов и что получение правильного результата не подразумевает одинаковых когнитивных способностей (Андерсон, 1976). Классическую иллюстрацию этому даёт бихевиористская психология: голуби, обученные различать сложные визуальные стимулы — такие, как фотографии людей и фотографии без людей, — смогли распространить это различение на не виденные ранее изображения (Хернштейн и Ловеланд, 1964). Однако такое поведение не подразумевает абстрагирования, смыслового переноса или гибкого рассуждения за пределами контекста обучения.

Тот же урок применим и к искусственным системам. Крупные языковые модели все чаще приближаются к человеческому поведению во многих задачах, часто выдавая результаты, неотличимые от результатов, получаемых людьми в контролируемых условиях. Однако, как и в классических случаях из бихевиористской психологии, схожие результаты могут возникать из принципиально разных фундаментальных процессов. Поэтому одно лишь сходство в поведении не дает представления о том, содержат ли глубинные процессы основные компоненты общего интеллекта — например, суждение, исправление ошибок или надежное обобщение.

Конкретные доказательства этого расхождения видны в экспериментах со сравнением оценок, данных людьми и крупными языковыми моделями. При прямой оценке надежности новостных источников, проведенной в идентичных условиях, крупные языковые модели часто совпадали с оценками экспертов-людей в своих окончательных выводах, хотя и опирались на систематически разные критерии оценки. Например, при оценке политически значимых или спорных новостных источников с противоречивыми или неполными данными люди-эксперты часто занижали уровень уверенности или воздерживались от твердых суждений, прямо ссылаясь на неопределенность, нехватку доказательств или цену возможной ошибки. Языковые модели, напротив, в основном выдавали уверенные выводы в тех же случаях, даже когда неопределенность явно указывалась во входных данных. В результате согласие в оценках скрывало существенное расхождение в том, как происходил процесс рассуждения, что указывает на то, что эпистемическая оценка систематически подменяется генеративным правдоподобием — явление, которое мы называем «эпистемией» (Loru et al., 2025).

Шире говоря, эта закономерность указывает на более глубокие эпистемологические расхождения между суждениями человека и машины. В областях, связанных с причинно-следственными связями, компромиссами, обоснованием и мониторингом ошибок, люди обращают внимание на причины, цену ошибки и ответственность, тогда как языковые модели оптимизируют задачу под лингвистическое правдоподобие — и это структурная разница между соответствием критериям производительности и подлинной компетентностью в оценке (Quattrociocchi et al., 2025). Аналогичные искажения наблюдаются также в поведенческих симуляциях, где поверхностное соответствие маскирует систематическое преувеличение отличительных черт (Nudo et al., 2025). Эти расхождения становятся очевидными, когда существующие системы оцениваются по исходным критериям искусственного общего интеллекта.

Чего не умеют существующие системы

Согласно стандартам, сформулированным в первоначальных определениях искусственного общего интеллекта — устойчивость в различных контекстах, надежная способность обобщать в условиях новизны и автономное целенаправленное поведение — современные системы ИИ остаются ограниченными. Несмотря на впечатляющие успехи в освоении узких компетенций и беглости в языке, современные большие языковые модели не имеют устойчивых целей, испытывают трудности с рассуждениями в долгосрочной перспективе и в значительной степени зависят от человеческой поддержки при формулировании задач, оценке и корректировке. Сообщения о том, что языковые модели создали корректные доказательства для отдельных открытых проблем в математике, включая конкретные задачи Эрдёша, не меняют этой оценки. Как отмечают такие математики, как Теренс Тао, эти результаты в основном отражают способность быстро искать, комбинировать и итерировать существующие методы, а не создавать действительно новые или общематематические стратегии решения задач. Более того, включение в список Эрдёша само по себе не подразумевает исключительной концептуальной сложности, поскольку некоторые проблемы остаются нерешенными из-за относительной малоизвестности, а не глубины.

Эти ограничения носят скорее центральный, чем периферийный характер. Они напрямую касаются надежности в условиях неопределенности, устойчивости к систематическим сбоям и переноса  между контекстами без настройки под конкретные задачи. По этим параметрам существующие системы остаются хрупкими, чувствительными к формулировке промптов и непоследовательными вне специально разработанных условий оценки. Признание этих ограничений не умаляет недавнего прогресса: оно проясняет его масштабы. Современные системы ИИ — мощные и полезные инструменты, но они не демонстрируют гибкой, самонаправляемой компетентности, которую должна была отразить первоначальная концепция искусственного общего интеллекта. По мере того как системы ИИ внедряются в процесс принятия решений в научных и институциональных структурах (NIST, 2023; Европейская комиссия, 2024), переоценка их когнитивных способностей чревата неправильным распределением доверия, ответственности и полномочий. Поэтому смешение сложных статистических аппроксимаций с общим интеллектом — это не только концептуальная ошибка, но и стратегический просчёт.

Авторы:

Уолтер Кватрочиокки — профессор компьютерных наук в Римском университете Сапиенца и директор Center for Data Science and Complexity for Society. Его исследования сосредоточены на динамике информации, коллективном поведении и эпистемическом влиянии ИИ и онлайн-систем.

Валерио Капраро — доцент Миланского университета Бикокка. Он изучает поведение человека и является автором книги «Экономика языка: как большие языковые модели могут изменить поведенческую экономику» (CUP, 2026).

Гэри Маркус — почетный профессор Нью-Йоркского университета, основатель и генеральный директор компании Geometric Intelligence (приобретенной Uber) и автор шести книг об ИИ и когнитивной науке.

Источники:
Acemoglu, D. (2025). The simple macroeconomics of AI. Economic Policy, 40(121), 13-58

Anderson, J. R. (1976). Language, memory, and thought. Lawrence Erlbaum.

Chen, E. K., Belkin, M., Bergen, L., & Danks, D. (2026). Does AI already have human-level intelligence? The evidence is clear. Nature.

Eloundou, T. et al. GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.OpenAI (2023).

European Commission. AI Act and General-Purpose AI Guidance. (2024).

Felten, E., Raj, M., Seamans, R. How Will Language Modelers Affect Jobs? Brookings (2023).

Goertzel, B. Artificial General Intelligence: Concept, State of the Art, and Future Prospects. Springer (2014).

Gu, Y., Fu, J., Liu, X., Valanarasu, J. M. J., Codella, N. C., Tan, R., ... & Vozila, P. (2025). The Illusion of Readiness in Health AI. arXiv preprint arXiv:2509.18234.

Hendrycks, D., et al (2025), A Definition of AGI, arXiv.

Herrnstein, R. J., & Loveland, D. H. (1964). Complex visual concept in the pigeon. Science, 146(3643), 549-551.

Legg, S. & Hutter, M. Universal Intelligence: A Definition of Machine Intelligence. Minds and Machines 17, 391–444 (2007).

Loru, E. et al. The Simulation of Judgment in Large Language Models. PNAS (2025).

Nanda, M. (2025). State of AI in business 2025. Preprint at https://www. artificialintelligence-news. com/wp-content/uploads/2025/08/ai_report_2025. Pdf.

NIST. AI Risk Management Framework. (2023).

Nudo, J., Pandolfo, M. E., Loru, E., Samory, M., Cinelli, M., & Quattrociocchi, W. (2026). Generative exaggeration in LLM social agents: Consistency, bias, and toxicity. Online Social Networks and Media, 51, 100344.

Quattrociocchi, W., Capraro, V., Perc, M. Epistemological Fault Lines Between Human and Artificial Intelligence. (2026, under review).

Комментарии (45)


  1. codecity
    17.02.2026 21:29

    А оно не получится что AGI - это как бы солянка из разного типа эти нейросеток? Ну, скажем, 37 типов нейросетей (для языков, для изображений, для аудио и т.д.) + некий общий координатор, который по конкретной задаче вызывает нужные нейросети и если не получилось - пробует другие?


    1. fire64
      17.02.2026 21:29

      Ну в общем-то это уже так и работает. Условно ты работаешь с одной нейронкой, она в процессе запускает другие для создания фото, видео и прочего. Так делают уже многие. Z.ai, Qwen, Gemini и т.д. понятно что ещё достаточно не мультимодальных нейронок, но тем не менее на рынке достаточно универсальных продуктов.

      А что касаемо это статьи, я думаю так будет всегда. Даже если предположить, что пузырь не лопнет и нейронки будут всегда активно развиваться, всегда будет что-то, что не даст нам считать их полноценным AGI.

      Это по большей части философская проблема.

      Многие вещи нам непонятны не потому что наши понятия слабы; но потому, что сии вещи не входят в круг наших понятий "(Козьма Прутков)


    1. Robastik
      17.02.2026 21:29

      Так устроен мозг, он состоит из более чем 100 органов (с большой вариабельностью).


      1. codecity
        17.02.2026 21:29

        Тут еще вопрос цены. Вот если делаешь верстку UI-проги - тебе приходится глазами смотреть что получилось и говорить LLM что не так. А если будет подсистема для классификации изображений - то она сама сможет анализировать изображение и сама исправлять нюансы. Но будет стоить дороже, т.к. классификация объектов на изображении по отдельному ценнику.


  1. SKaminskij
    17.02.2026 21:29

    Полагаю, нынешний ажиотаж вокруг ИИ в основном связан с рекламируемой коммерческой привлекательностью предлагаемых решений. Эта привлекательность, в свою очередь, является порождением призрачной мечты о замене работников чем‑то, не требующим материального вознаграждения. Однако пока, похоже, цель не оправдывает средства, за исключением тех, кто зарабатывает на продаже услуг LLM. На практике, очевидно, только достаточно ограниченные области применения, связанные с распознаванием и поиском аналогий, действительно очень эффективно реализуются языковыми моделями.


    Я, например, вижу для себя большую пользу от использования ИИ при редактировании и вычитке текстов.


    1. sptor
      17.02.2026 21:29

      мечты о замене работников чем‑то, не требующим материального вознаграждения

      И тут возникает вопрос - если всех/большинство работников заменить чем-то не требующим материяального вознаграждени, то для кого будет делаться продукт, и главное, как с него планируется зарабатывать - поскольку у основной массы потенциальных потребителей в этом случа просто не будет средств для его покупки? То есть риск того что все эти вложения, - если будет достигнута та самая мечта/заявленый желаемый результат - просто будет невозможно окупить.


      1. codecity
        17.02.2026 21:29

        для кого будет делаться продукт, и главное, как с него планируется зарабатывать

        Элита сможет избавиться от балласта и выстроить систему без людей вообще.


        1. sptor
          17.02.2026 21:29

          Элита сможет избавиться от балласта и выстроить систему без людей вообще.

          А для чего эта система тогда вообще будет нужна в том виде в котором ее выстраивают? По идее, все эти мощности сразу окажутся избыточными , то есть вложение в нее не окупиться никогда уже в материальном смысле. Если принять что "элиты" хотят жить хорошо, и все для этого затевается, то по большому счету они итак уже хорошо живут - если посмотреть на имеющиеся возможности по сравнению с усредненным человеком , опять таки "в гробу карманов нет", а тут именно "сэкономить на работныиках чтобы заработать еще больше", только вот по сути если смотреть на состояния которые уже есть и которые потратить практически невозможно это превращается просто в гонку за очередной циферкой не более и не менее.


          1. codecity
            17.02.2026 21:29

            Если принять что "элиты" хотят жить хорошо, и все для этого затевается, то по большому счету они итак уже хорошо живут

            Но планета не выдерживает. В идеале утилизировать 95% населения, чтобы элита продолжила жить уже без этого балласта. В новом технологическом мире - но уже без балласта.

            И тут вопрос - как выстроить правила игры так, чтобы биомасса не могла ничего изменить.

            Допустим формальное право на землю и ресурсы - в руках элиты. Но ведь массы могут устроить революцию и сместить элиту, наплевать на договоренности? Однако же если права элиты защищаются не кожаными а боевыми дронами с ИИ - то боевые дроны будут защищать договоренности и как бы все правильно.


            1. sptor
              17.02.2026 21:29

              Но планета не выдерживает. 

              Что она не выдерживает?

               В новом технологическом мире - но уже без балласта.

              Проблема что без этого балласта она перестанет быть "элитой" потому что весь статус только в сравненни с кем-то по сути, и отсутсвие возможности реального сравнения низводит весь "статус" к нулю.

              По сути, то что вы рисуете, это достаточно часто встречающийся штамп в фантастике в том числе - та же Солярия у Азимова (особенно в той итерации что показана в книге "Основание и Земля"), только вот его жизнеспособность под вопросом - если ИИ развит настолько, то ограниченого количества сибаритсвующей "элиты" может оказаться недостаточно, чтобы предотвратить "осознания себя" например или даже понять логику действий, или в случае если происходит нечто катастрофическое и так далее, а наличие некого пула понимающих и знающих как это делать создает риск тех самых "революций" уже со стороны этих знающих/обслуги. Ну или оно просто превратится в "Клетку для орхидей" что в принципе тот же вариант что с катастрофическим концом.


              1. codecity
                17.02.2026 21:29

                Что она не выдерживает?

                Биомассу людей. Им же нужны пахотные земли чтобы жрать. Убрать балласт - и вся земля превратится в красивый заповедник.

                Проблема что без этого балласта она перестанет быть "элитой" потому что весь статус только в сравненни с кем-то по сути

                Возможно у них другие представления -т.е. важно не компенсировать самооценку за счет других (как у псевдо- элиты) а достичь определенных целей. Пока люди нужны - используют. Не нужны - утилизировать. Хорошо если решат утилизировать мягко - т.е.д стерилизация в обмен на ББД.

                чтобы предотвратить "осознания себя" например или даже понять логику действий

                Допустим у элиты есть точные данные что сознание - это не вычислительный процесс и какой бы мощной ни была вычислительная система - она ни на йоту не приблизится к осознающей (т.е. имеющей наслаждения и страдания.


                1. sptor
                  17.02.2026 21:29

                  Биомассу людей. Им же нужны пахотные земли чтобы жрать. Убрать балласт - и вся земля превратится в красивый заповедник.

                  Где про это можно почитать? Как раз таки зачастую имеет место перепроизводство - проблема в равномерности распределения . А так население планеты уже растет только за счет Африки в основном, везде потихоньку тенденция к тому что оно начнет снижаться ну или в лучше случае стабилизируется

                  И да заповедник это не про красоту, а про естественные процессы, там по хорошему нельзя вмешиваться в естественные процессы вообщею То есть заповедник это буераки, всякая живность не сильно приятная и так далее, а не то что приятно и красиво человеку

                  Возможно у них другие представления

                  Сомневаюсь, просто большинство людей в принципе не имеют сколь либо далекого горизонта планирования и ограничены предполагаемой продолжительностью жизни

                  Допустим у элиты есть точные данные что сознание 

                  Слишком много допущений. Ну и даже если так, то другая проблема остается, нужно достаточное количество тех кто может разобраться что делать если что-то пойдет не так в принципе, и это тем более важно, чем больше зависимость от технических решений. Если таких не будет то со временем получатся те самые "техножрецы" выполняющие ритуалы, но непонимающие основ того что происходит и вымирающие если что-то вдруг пошло не так, и управляющий ИИ почему то заглючил/сломался.


                  1. codecity
                    17.02.2026 21:29

                    просто большинство людей

                    Так мы же про элиту, а не про большинство.

                    нужно достаточное количество тех кто может разобраться что делать если что-то пойдет не так в принципе

                    Так в том и вопрос - будет ИИ достаточно сильный - он и разберется.

                    При этом сознание доподлинно не возникнет, т.к. это это не эмерджентное свойство преобразования данных или вычислений (как некоторые ошибочно путают) - а фундаментальное явление.


                    1. sptor
                      17.02.2026 21:29

                      Так мы же про элиту, а не про большинство.

                      А элита не относится к людям получается? И свободна от ограничений присущих людям как биологическому виду как физиологических и психологических

                      Так в том и вопрос - будет ИИ достаточно сильный - он и разберется.

                      Как и в чем и каковы результаты этого будут? Опять таки если эти решения самостоятельно принимаются ИИ и никто не контролирует это самое "разберется" и не понимает снова причины за теми или иными решениями - то есть по сути те самые "техножрецы", которые не имеют никакого влияния на решения или методы.


                      1. codecity
                        17.02.2026 21:29

                        А элита не относится к людям получается?

                        Они не как большинство.

                        Как и в чем и каковы результаты этого будут?

                        Поддерживать экосистему стабильной. Т.е. обновлять дома, выращивать пищу и т.д. И чтобы без кожаных.


                      1. sptor
                        17.02.2026 21:29

                        Они не как большинство.

                        Почему, еще раз повторю вопрос, они уже освободились от ограничений присущих человеку как биологической особи?

                        Поддерживать экосистему стабильной. Т.е. обновлять дома, выращивать пищу и т.д. И чтобы без кожаных.

                        Повторюсь если внутри ИИ произойдет некая смена логики для лучшего достижения этих целей и методы для этого изменятся на те которые для "техножрецов" окажутся неприятными, то кто сможет их подкорректировать это все?

                        Ну и если ИИ настолько силен что действует без коррекций наличие или отсутсвие сознания неважно, важно то что оно абсолютно автономен, то на него не получится повлиять, и по сути не нужно влиять - то есть конечный сценарий этого та самая "Клетка для орхидей".


                      1. codecity
                        17.02.2026 21:29

                        они уже освободились от ограничений присущих человеку как биологической особи

                        Они устанавливают правила игры. Одно из правил - обазательная школа. Школа, среди прочего, учит вас отказу от кооперации и постоянному высшему авторитету (учительница). Если работа выполнена совместно - двойка каждому. Если занимался не тем что учительница сказала - двойка.

                        Т.е. тупое большинство - это не естественный а установленный этой элитой порядок, который на себя они не распространяют.

                        важно то что оно абсолютно автономен, то на него не получится повлиять,

                        Автономен - но можно влиять на него. Умный человек и волевой человек - разные вещи. Человек может быть очень умным - но воли своей у него нет - просто делает что говорят. У ИИ не будет сознания а следовательно и желаний, воли - просто исплнитель беспрекословный. Т.е. то что сейчас исполнители преследуют свои интересы (ввиду наличия у них сознания) - скорее проблема.


                      1. sptor
                        17.02.2026 21:29

                        Они устанавливают правила игры.

                        Еще раз как это относится к физиологическим и психологическим особенностям людей - каким образом эти самые элиты преодолели эти ограничения вы так и не ответили. И да эти самые элиты ровно так же учились в школах и прочее. В общем то что бы пишете это уже прям территория махровых теорий заговора - про рептилоидов/масонов/анунаков тайно управляющих всем и вся и так далее

                        Автономен - но можно влиять на него

                        Если ты не знаешь как он работает то влиять на него получится слабо, и условно случайно особенно если он адаптивен (а в описываемом сценарии он должен быть адаптивен по определению), а не зафиксирован жестко в определенном состоянии когда стандартное действие всегда дает стандартный и неизменный результат. То есть через некие ритуалы и "молитвы" максимум, без понимания почему так, чистое "нажми на кнопку и получишь результат" техномагия в чистом виде, потому что если все доверено этому ИИ тех кто разбирается как оно работает, и главное тех кто захочет разбираться будет становиться все меньше и меньше. Собственно на эту тему ровно так же есть всяких фантастических произведений типа " Пасынков вселенной" - где люди прератились вот в таких техножрецов по сути, утратив представление о том как работает та машинерии которая обеспечивает их жизнедеятельность, и выработав очень своеобразную картину мира - при том что изначально это были образованные и технически подкованые люди просто по определению , можно даже сказать своего рода элита.


                      1. codecity
                        17.02.2026 21:29

                        физиологическим и психологическим особенностям людей

                        Нет, все это не встроенное - этому обучаются.

                        да эти самые элиты ровно так же учились в школах и прочее

                        Конечно же нет. (Дети семьи Рокфеллеров, как правило, не ходили в «обычные» школы в классическом смысле. Семья была крайне состоятельной и придавала большое значение индивидуальному воспитанию и образованию.)

                        То есть через некие ритуалы и "молитвы" максимум, без понимания почему так, чистое "нажми на кнопку и получишь результат" техномагия в чистом виде, потому что если все доверено этому ИИ тех кто разбирается как оно работает, и главное тех кто захочет разбираться будет становиться все меньше и меньше

                        Когда экосистема отлажена - не обязательно понимать. Вот мы живем в телах, которые не понимаем как устроены, не можем починить. Лопаем растения, которые так же не ясно как устроены - черный ящик. Но жили же тысячи лет и все ОК.

                        Главное чтобы экосистема была отлажена.


                      1. sptor
                        17.02.2026 21:29

                        Нет, все это не встроенное - этому обучаются.

                        Биология и биохимия они встроеные , обучением далеко не все корректируется.

                        Конечно же нет.

                        Они не ходили в обычные школы, на этом разница кончается. Тем не менее обучение там присутствовало на тех же принципах , а часто как бы там и не суровей было (в смысле авторитетов и прочего) - те же закрытые школы для детей элит по своим внутренним порядкам зачастую приближались к интернатам тюремного типа.

                        Когда экосистема отлажена - не обязательно понимать. Вот мы живем в телах, которые не понимаем как устроены, не можем починить. Лопаем растения, которые так же не ясно как устроены - черный ящик. Но жили же тысячи лет и все ОК.

                        Главное чтобы экосистема была отлажена.

                        Только вот эта самая экосистема, да и наши тела и прочее это продукт ну очень долгой эволюции в процессе которой неудачные решения жестко отбраковывались.

                        Про тела мы таки понимаем, но не до конца само собой, и вполне умеем их чинить - ограничено, но тем не менее. Собственно в связи с этим в голову пришла аналогия - представть что все врачи исчезли и остались только смутные знания о том как и что там лечить, но без деталей и прочего, только некое понимание что это ка кто можно сделать. Так и тут если не будет понимающих как работает ИИ, то результаты попыток корректировки будут не очень, как и с лечением - в смысле как повезет


                      1. codecity
                        17.02.2026 21:29

                        обучением далеко не все корректируется.

                        Изначально вы писали о чем:

                        "просто большинство людей в принципе не имеют сколь либо далекого горизонта планирования"

                        так вот у элиты с горизонтом планирования и пониманием общей ситуации, способностью не утонуть в мелочах - все ОК.

                        Так и тут если не будет понимающих как работает ИИ, то результаты попыток корректировки будут не очень, как и с лечением - в смысле как повезет

                        Думаю что важно дотянуть до стадии, когда сам ИИ начнет себя понимать.


                      1. sptor
                        17.02.2026 21:29

                        так вот у элиты с горизонтом планирования и пониманием общей ситуации, способностью не утонуть в мелочах - все ОК.

                        Вы в этом уверены? Я вот нет. И да я спрашивал про то , что неужто элиты избавлены от человеческих недостатков и особенностей, которые неизбежно хотим мы этого или нет влияют на принимаемые решения.

                        Думаю что важно дотянуть до стадии, когда сам ИИ начнет себя понимать.

                        А если не дотянется по ряду причин, или если осознавший/понимающий себя ИИ начнет действовать не так как предполагалось, вот что это изменит в ситуации для "техножрецов"? Или он начнет внезапно учить всех чтоб они понимали?

                        В общем конкретики нет, только некие практически теории заговора вперемешку с верой, и явные противоречия то элиты знают что ИИ себя не осознает никогда и потому будет контролируем, то он должен себя понимать/осознавать и быть полностью автономным для функционирования всей системы без достаточного количества понимающих этого людей


                      1. codecity
                        17.02.2026 21:29

                        Вы в этом уверены?

                        Умение планировать, видеть общую картину - зависит от обучения а не от природных качеств. Понятное дело что для управленцев высшего масштаба - это самое главное.

                        Они могут не уметь некое ремесло, возможно даже унитаз починить не смогут - а вот вопросы управления - это их стихия.

                        если не дотянется по ряду причин, или если осознавший/понимающий себя ИИ начнет действовать не так как предполагалось

                        Это мы скоро увидим достоверно. Пока только ставки люди делают - некоторые делают ставку что упрется в потолок, не сможет решать сложные задачи а простые сможет. Некоторые делают ставку что возникнет сознание - другие же делают ставку что не возникнет.

                        Лучшие специалисты по ставкам как раз элита, т.е. они как бы на уровне интуиции могут предугадать как оно будет, даже не имея точных научных доказательств. Кругозор позволяет видеть то, что другие (имеющие узкий кругозор) - не смогут увидеть.

                        К примеру по вопросу сознания есть много не научных, но достаточно убедительных подсказок - что сознание - не реализуется с помощью любого преобразования данных. Т.е. какой бы ни была вычислительная система - сознание там не возникнет ни в какой степени.


                      1. sptor
                        17.02.2026 21:29

                        Они могут не уметь некое ремесло, возможно даже унитаз починить не смогут - а вот вопросы управления - это их стихия.

                        Тем не менее они все равно зависимы от человеческой природы. Опять таки неоднократно в истории, да и сейчас бывает так что те самые представители элит ошибаются, в том числе и потому что в конце концов они люди. Да у них мложет быть стратегия и горизонт планирования дальше, но ничто и никто не гарантирует что они верны - просто людям свойственно помнить успех и забывать неудачи тоже.

                        Это мы скоро увидим достоверно. 

                        Или не увидим.

                        Речь шла прежде всего о том, что вне зависимости от того может ли обладать ИИ сознанием или нет, в описываемом сценарии развития этот самый ИИ должен по сути управлять и контролировать все процессы или очень близко к тому, и проблема именно в том, что если он будет таким всеобъемлющим и если количество людей будет ограничено, то с течением времени понимающих как он работает и развивается будет становиться все меньше и меньше, и влияния на направление развити тоже будет меньше. То есть те самые "элиты" якобы затевающие это не с целью сиюминутной наживы, а с долгосрочными целями рискуют (и скорее всего так произойдет потому что для поддержания каждого уровня развития скорее всего есть минимально необходимый уровень популяции) превратиться в прихожан, ну может священников церкви всемогущего ИИ просто потому что они будут зависимы от этого самого ИИ во всех аспектах жизни - если это их цель, ваши рассуждения о их стратегическом мышлении и прочем не выглядят убедительными


                      1. codecity
                        17.02.2026 21:29

                        да и сейчас бывает так что те самые представители элит ошибаются

                        Но получается так. Сейчас 90% людей работают не над научными и сложными инженерными проблемами - а обеспечивают инфраструктуру. Выращивают зерно, водят комбайны, поезда, готовят еду, обучают других мелких холопов. Так вот все это становится не очень нужным, если есть ИИ. Да, некая прослойка людей для подстраховки еще понадобится - но лучшие из лучших. Ну миллионов 100 человек хватит.


                      1. sptor
                        17.02.2026 21:29

                        Но получается так.

                         Да, некая прослойка людей для подстраховки еще понадобится - но лучшие из лучших. 

                        Еще раз, эти самые элиты ошибаются , где гарантия, что рисуемая вами картинка - фантастическая это именно то что будет. Увы всего предусмотреть невозможно и сильно "умный" и самостоятельный ИИ вполне может оказаться еще однгим фактором риска - в общем то что вы пишете это прям классическое "гладко было на бумаге, да забыли про овраги" приправленое прямо таки религиозной верой в непогрешимость "элит" и "ИИ"


                      1. codecity
                        17.02.2026 21:29

                        где гарантия, что рисуемая вами картинка - фантастическая это именно то что будет

                        Это вариант для случая сознание != вычисления. Т.к. когда можно сделать интеллект, но при этом у него не будет ни страдания ни наслаждения - а значит желаний, воли и т.д. не возникнет. Т.е. решатель задач - без своих желаний. Решает сколько угодно сложные задачи быстрее любого человека - но при этом не имеет своих желаний ни в какой степени.


                      1. sptor
                        17.02.2026 21:29

                        Повторю вопрос в который раз, при всеобъемлющей зависимости от ИИ - неважно есть там сознание, нет ли, как знать что он выдаст именно нужные результаты, осбенно для случая когда понимающих и знающих принципы/алгоритмы и так далее в этом ссенарии "ИИ отвечает за все сам" не останется.


  1. Wagok
    17.02.2026 21:29

    Статья мне кажется странной. Я не понимаю цели авторов. Что они хотели донести и зачем?
    Ну допустим качество стали сейчас не позволяют строить больше 200 этажей и батискафы для погружения в марианскую впадину. Медецина не позволяет гарантировать здоровье и долголетие и много чего еще есть подобного. Да, качество моделей не измерить обьективными метриками, но субьективно их качество растет и растет очень быстро (медицине бы так).
    В статье я при этом не увидел предложений и даже вывода.
    Какой месседж статьи и какова цель авторов?
    Кто понял, напишите плиз…


    1. shlmzl
      17.02.2026 21:29

      какова цель авторов

      Денег просить/отрабатывать. Кто-то же должен бдеть, чтобы не упустить момент прихода злобного общего ИИ.


    1. iddre
      17.02.2026 21:29

      Абсолютно верно. При всем уважении к когда-то авторитетным изданиям, они тоже скатываются в "желтые кликбейтные" дебри. Авторы не выполнили самостоятельной научной работы в виде тестов, экспериментов и тд., но сказали, что другие ошибаются и AGI нет. Но по им же самим приведенным определениям AGI, это совершенно не аргументированно.

      У современных моделей нет "гибкости и способности обобщать"? Они это серьезно?

      По математике тоже интересно - модели не умеют создавать новые решения, а используют только существующие подходы. Получается, у Эйнштейна тоже был какой-то "недоразвитый интеллект", когда он соединил геометрию Римана и законы Ньютона и предложил общую теорию относительности?


      1. Aggle
        17.02.2026 21:29

        Авторы не выполнили самостоятельной научной работы в виде тестов, экспериментов и тд., но сказали, что другие ошибаются и AGI нет.

        В смысле натравить существующие модели на какие-нибудь нетривиальные задачи? Своего рода стресс-бенчмарки?


        1. iddre
          17.02.2026 21:29

          Возможно и так. В научной работе есть разные методы и способы проверок гипотез, в том числе и эксперименты. Здесь авторы выполнили метаанализ проведенных исследований, а вернее, сделали обзор других работ и не согласились с другими выводами с очень спорными аргументами, если не сказать, безосновательными.


          1. Aggle
            17.02.2026 21:29

            Мета тоже имеет право на жизнь и это довольно серьёзный труд. А вот разработка уникальных стресс-бенчмарков - это работа, требующая на порядок (а то и не на один) более значительных вложений времени, труда и, внезапно, денег. Стоят ли такие вложения одной статьи?


            1. iddre
              17.02.2026 21:29

              Конечно, стоят, если это статья в Nature. Но так раньше было. Сейчас уровень рецензирования статей в научных журналах достаточно низкий. Поэтому и пропускают материалы на уровне библиографического обзора начинающего аспиранта, как вот обсуждаемая статья.


              1. Aggle
                17.02.2026 21:29

                Конечно, стоят, если это статья в Nature.

                Думается, там затраты будут такие, что пойти на них можно разве только для новой книги в Библию. Обычные бенчмарки крупные компании разрабатывают, а не профессора за ноутбуком в свободное время.

                Сейчас уровень рецензирования статей в научных журналах достаточно низкий.

                О, да! Сколько раз Lancet, к примеру лажал.


  1. Robastik
    17.02.2026 21:29

    Все упирается только в то, что считать общим интеллектом. Если это интеллект среднего прохожего в среднем населенном пункте, то этот уровень пройден.


    1. codecity
      17.02.2026 21:29

      Если это интеллект среднего прохожего в среднем населенном пункте, то этот уровень пройден.

      Человек может интегрировать информацию - и визуальную и слуховую и тактильную и т.д. Вот если я чего-то не могу представить - я беру ручку и рисую схему на листе бумаги, потом смотрю глазами. Т.е. множество разрозненных нейросетей (как зрительная - классификация изображений) - работают как единое целое, согласованно.

      А искусственные нейросети пока не имеют такого координатора, который смог бы множество разных нейросетей объединить в одно целое для решения задач. Т.е. чтобы по задаче - оно само нарисовало схему, само эту схему начало распознавать, классифицировать и т.д.

      И тут еще вопрос цены сразу добавляется.


      1. Robastik
        17.02.2026 21:29

        Похоже, ваша позиция полного отрицалова не дает вам возможности быть в курсе актуального состояния темы.


  1. phenik
    17.02.2026 21:29

    Можно долго обсуждать пользу и недостатки синтетических тестов. Их прохождение некоторый показатель прогресса. Но самый объективный тест, например, по физике приведен здесь) Решат ЯМ хотя бы оду из этих проблем, или существенно поспособствует, тест сравнения с возможностями человека к решению творческих задач буде пройден. Такие списки проблем имеются в каждой области знаний, вот в самих нейронауках. Экзаменаторы сама Вселенная, само сознание, сама неизведанная реальность.


    1. Combinator_30
      17.02.2026 21:29

      Мне кажется, вы путаете интеллект среднестатистического человека, и интеллект всего человечества. Первое если ещё и не достигнуто, то уже очень близко к тому. А до второго ещё минимум несколько лет, как мне кажется.


      1. phenik
        17.02.2026 21:29

        А оно корректное сравнение со средним человеком?


        1. Combinator_30
          17.02.2026 21:29

          Думаю да, почему нет? Мы же говорим про AGI, а не про ASI.


          1. phenik
            17.02.2026 21:29

            Никто толком не знает, что такое общий интеллект не то что сверх) Но почему олимпийский принцип не перенести и на интеллектуальные соревнования? Тогда было бы логично. ЯМ соревнуются со всеми желающими, если хоть одному человеку проиграл, то пока он не превзошел возможности человека в решении любых задач. В том числе из списков нерешенных проблем наук подобные которым человек уже решал. Если превзошел всех, в том числе нерешенным проблемам, то ИИ становится ИСИ. А так выдается желаемое за действительное.


            1. Combinator_30
              17.02.2026 21:29

              Никто толком не знает, что такое общий интеллект не то что сверх)

              Ну тогда и обсуждать нечего, ибо название статьи бессмысленно. Расходимся.)