Нобелевский лауреат Джеффри Хинтон, которого часто называют «крёстным отцом ИИ» за его гигантский вклад в технологию искусственных нейронных сетей, питающую современный ИИ, в последнее время обрушился с гневной тирадой на Big Tech. От обвинений в корпоративной жадности до подчёркивания опасностей ИИ, он, подобно Пандоре, отчаянно пытается запихнуть судьбы обратно в ящик. Но в недавнем интервью для Bloomberg он выкрутил громкость на одиннадцать, поставив под сомнение саму экономическую жизнеспособность ИИ.

На вопрос Bloomberg, окупятся ли когда-нибудь головокружительные инвестиции в ИИ, Хинтон ответил: «Я считаю, что не смогут», и уточнил: «Я считаю, что для того, чтобы заработать деньги, вам придётся заменить человеческий труд».

Конечно, Хинтон, который также верит, что изобрёл компьютерного бога, сосредоточен на колоссальном негативном влиянии массовой замены человеческого труда искусственным интеллектом. Это, по сути, превращает многотриллионную ставку на ИИ в проигрышную ситуацию. В конце концов, если инвестиции окупятся, экономика будет разрушена, что сделает любые вложения бессмысленными.

Но Хинтон упустил из виду один вопрос: «А может ли ИИ заменить труд?»

Хинтон, похоже, не желает осквернять пропаганду, подпирающую его цифрового монстра Франкенштейна, но, к счастью, у меня таких сомнений нет. И вот почему ИИ не сможет вас заменить, и почему это означает, что он обречён на провал.

Если верить хайпу, ИИ определённо скоро заменит рабочую силу. Например, исследование от AI Resume Builder показало, что 30% компаний планируют заменить HR-специалистов на ИИ в 2026 году, а босс британской компании Buy It Direct заявил, что ИИ заменит две трети его сотрудников. Звучит довольно страшно, не так ли? Но у AI Resume Builder есть огромный интерес в том, чтобы ИИ окупился, и это исследование совершенно ненадёжно. Точно так же, этот мерзавец-начальник открыто использует ИИ как угрозу против нового британского закона о прожиточн��м минимуме - предположительно, потому что он знает, что платить людям достаточно денег для жизни урежет его бюджет на суперъяхту, - и поэтому решил уволить своих сотрудников ради ИИ, если не сможет загнать их в нищету. Какой милый парень…


В реальном мире критического мышления данные рисуют совершенно иную картину.

Возьмите теперь уже печально известный отчёт MIT, на который мои читатели, вероятно, устали от моих ссылок. Он показал, что 95% пилотных проектов с ИИ вообще не увеличили прибыль или производительность компаний. Фактически, многие компании увидели отрицательный эффект. Имейте в виду, эти проекты не предназначены для автоматизации работников; они предназначены для их дополнения. Если ИИ не может даже помочь нам лучше выполнять нашу работу, как мы можем ожидать, что он будет выполнять эту работу сам?

А как насчёт другого отчёта, от которого также устали мои читатели? Отчёт METR показал, что ИИ-инструменты для кодирования на самом деле значительно замедляют разработчиков. Оказывается, ИИ не так уж и точен и постоянно ошибается. Эти сбои были блестяще преподнесены пиарщиками как галлюцинации, чтобы очеловечить холодную машину для плагиата. Но когда точность важна, например, когда ИИ выполняет любую относительно важную задачу, но особенно когда его просят создать код, это огромная проблема. Это означает, что ИИ постоянно пишет бессмысленные баги, и поскольку программист не писал код сам, ему требуется целая вечность, чтобы найти и исправить ошибки. Таким образом, любой разработчик даже с небольшим опытом потратит больше времени на отладку кода ИИ, чем изначально сэкономил, заставив ИИ написать код. А ведь кодирование должно было стать одной из основных отраслей, где ИИ полностью заменит труд. Но опять же, он не может даже дополнить работников, не говоря уже об их автоматизации.

Однако эта проблема не ограничивается только кодированием. Недавний опрос Harvard Business Review показал, что 40% работников за последний месяц сталкивались с «рабочим шлаком» (workslop), который они определяют как «сгенерированный ИИ рабочий контент, который маскируется под хорошую работу, но не имеет содержания для значимого продвижения данной задачи». Они обнаружили, что эта проблема «рабочего шлака», порождаемая галлюцинациями и врождённой неспособностью ИИ интегрироваться в рабочую среду - из-за того, что он преувеличивает невежество человека, нарушает коммуникацию между экспертами и лицами, принимающими решения, неточен при выполнении задач и создаёт раздувание задач из-за необходимости управлять ИИ, - на самом деле серьёзно влияет на общую производительность во многих отраслях.

Итак, снова: если ИИ снижает производительность из-за своей неточности и врождённой структуры при использовании для дополнения, как, чёрт возьми, его можно использовать для автоматизации рабочих мест?


Делегируйте часть рутинных задач вместе с BotHub! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!


Хорошо, но эти генерирующие «рабочий шлак» ИИ и инструменты для кодирования - это всего лишь LLM. Настоящая угроза для труда - это агентный ИИ, который может выполнять задачи самостоятельно. Что ж, по правде говоря, никакого агентного ИИ не существует, так как его на самом деле нельзя создать по множеству причин. Его нужно обучать не только на словах, изображениях и картинках. Его нужно обучать на человеческих действиях, которые гораздо более разнообразны и сложны, и ИИ-модели значительно с этим не справляются. Это приводит к фатальным проблемам, таким как экспоненциально большие и дорогие модели, нехватка пригодных для использования обучающих данных, раздувание объёма задач и постоянные проблемы с крайними случаями.

Вместо этого, агентные ИИ, разрабатываемые и впариваемые сегодня, - это просто LLM, переупакованные в плохую обёртку, и, неудивительно, они отстой. Университет Карнеги-Меллона провёл исследование для количественной оценки производительности лучших агентных ИИ и обнаружил, что они полностью проваливали поставленную им задачу в 70% случаев!

Эти задачи были широкими и довольно простыми, включая рутинные офисные функции, такие как анализ наборов данных, написание отчётов о производительности и базовое решение проблем. Другими словами, ИИ настолько неэффективен, что может автоматизировать только базовые низкоквалифицированные задачи с плачевным показателем успеха в 30%. Так что нет, агентный ИИ не может автоматизировать даже простые рабочие места.


Затем возникают психологические проблемы, связанные с попыткой заменить работников ИИ - не для травмированных работников, хотя это было бы серьёзной проблемой, а для тех, кто остался управлять ИИ-работниками. Позвольте мне объяснить.

Исследование от Microsoft и Университета Карнеги-Меллона обнаружило астрономически сильную отрицательную корреляцию между использованием инструментов ИИ и критическим мышлением. В общем, чем больше вы взаимодействуете с этими инструментами ИИ, тем больше вы занимаетесь когнитивной разгрузкой и тем меньше задействуете критическое мышление. Но критическое мышление - это как мышца. Её нужно тренировать, иначе она атрофируется. Так что чем дольше и чаще вы используете инструменты ИИ, тем больше навыков критического мышления вы теряете.

Затем есть исследование MIT Sloan, которое показало, что, хотя менее опытные работники могут извлечь выгоду из генеративного ИИ, у опытных работников, использующих эти инструменты, наблюдалось притупление их экспертизы. В контексте исследования Microsoft и Карнеги-Меллона, выгода менее опытных работников от ИИ - это тревожный вывод, поскольку для того, чтобы стать опытным профессионалом, необходимо развивать навыки критического мышления, что говорит о том, что генеративный ИИ мешает работникам приобретать опыт, необходимый для карьерного роста. Но и последний вывод о потере экспертизы опытными работниками тоже не удивителен. Как и критическое мышление, экспертиза требует постоянного использования, чтобы оставаться свежей, актуальной и полезной. Эти инструменты ИИ заставляют работников когнитивно разгружаться, учитывая, что в этом и заключается суть дополнения ИИ: снижение когнитивной нагрузки и прекращение использования работниками своей экспертизы, что означает, что они со временем её потеряют.

Учитывая эти два исследования, представьте себе менеджера, наблюдающего за небольшой армией ИИ-ботов, которые автоматизировали весь его отдел. В корпоративном мире уже существует огромный разрыв, когда руководство не осведомлено о работе, требованиях и реальности работников под ними, что означает, что они не могут их подталкивать, привлекать к ответственности или проверять качество их работы, что в конечном итоге приводит к значительному напряжению для всех. Но с рабочей силой из ИИ эта проблема усугубится, поскольку руководство станет ещё более невежественным из-за взаимодействия исключительно с ИИ, одновременно теряя собственную экспертизу и навыки критического мышления. С этим постепенным снижением способностей, как эти менеджеры могут проверять результаты работы ИИ-работников? Как им контролировать эту цифровую толпу, если сам акт взаимодействия с ними лишает их когнитивных навыков и знаний, необходимых для понимания их работы?

Всё просто, они не могут. Так что, даже если бы ИИ был достаточно эффективен, чтобы хотя бы попытаться автоматизировать рабочие места, чего он абсолютно не может, нет смысла заменять им огромные части рабочей силы. Мы психологически не приспособлены управлять такой рабочей силой, мы потеряем над ней контроль, поскольку потеряем навыки, необходимые для её сдерживания, и это может привести только к катастрофе.


Говоря об огромном разрыве, который в настоящее время мучает менеджеров и их работников, если ИИ так очевидно плох, почему так много людей думают, что он заменит работников? Конечно, столько людей не могут ошибаться. Что ж, могут, благодаря нашему старому доброму другу, эффекту Даннинга-Крюгера.

Возьмите недавний опрос Upwork, который показал, что 96% топ-менеджеров утверждают, что они ожидают, что использование инструментов ИИ увеличит общую производительность их компании, в то время как 77% сотрудников в опросе говорят, что инструменты ИИ на самом деле снизили их производительность и добавили им работы по причинам, идентичным исследованию Гарварда о «рабочем шлаке». Единственная причина существования этого разрыва заключается в том, что руководители и высшее руководство настолько далеки от реальной работы, выполняемой под ними, что они прочно зацементировались в эффекте Даннинга-Крюгера и считают себя, на самом деле, экспертами в работе, а не тем, кем они на самом деле являются, то есть экспертами в управлении. Таким образом, они не могут заметить галлюцинации и ошибки ИИ и поэтому воспринимают неверный словесный салат, который делает ИИ, как сопоставимый или лучший, чем реальные экспертные советы их работников. Логично, что, для них, ИИ более чем способны заменить человеческих работников.

Эта проблема является одновременно симптомом сломанной иерархии в современных корпорациях, ��де менеджеры считаются более авторитетными, чем эксперты-работники, вместо того чтобы они работали совместно как равные, и отчаянной пропаганды, продвигаемой Big Tech. Вот почему данные, исследования и реальность так далеки от риторики и инвестиций.


Тем не менее, есть исследования, которые действительно показывают, что ИИ может повысить производительность, например, это от Гарварда. Однако все они либо слишком ограничены и не отражают реального использования ИИ, либо слишком малы по масштабу, либо имеют серьёзные недостатки, такие как самоотчёт о достижениях, либо просто не проверяют, действительно ли ИИ выполнил работу достаточно хорошо, чтобы это можно было считать повышением производительности. Более того, общий консенсус в настоящее время сильно смещён в сторону того, что ИИ не повышает производительность, поэтому эти исследования находятся в меньшинстве. Всё это вместе означает, что они имеют гораздо меньший вес.

Тем не менее, таково состояние ИИ прямо сейчас. Триллионы долларов, вливаемые в ИИ, пока мы говорим, сделают его намного лучше в ближайшем будущем, сделав все эти выводы устаревшими. Верно?

Что ж, нет.

Во-первых, существует граница эффективных вычислений, о которой я писал ранее. Этот принцип описывает, как обучение ИИ испытывает убывающую отдачу, требуя экспоненциально больше вычислительной мощности, и, в свою очередь, экспоненциально больше инвестиций, чтобы продолжать улучшаться линейными темпами. Хотя инвестиции в ИИ в этом году огромны по сравнению с прошлым годом, их далеко не достаточно, чтобы добиться какого-либо линейного улучшения. Фактически, мы так глубоко увязли в этой убывающей отдаче, что последние модели, которые на порядки больше своих предшественников, улучшены настолько незначительно, что большинство людей не могут заметить разницы. В результате, даже с этими огромными затратами, ИИ, вероятно, уже достиг своего пика.

Затем есть гипотеза Флориди, которая использует математический анализ систем, лежащих в основе ИИ, чтобы постулировать, что ИИ может иметь либо узкий охват и надёжные результаты, либо широкий охват и ненадёжные результаты, независимо от размера модели. Другими словами, LLM и весь генеративный ИИ имеют слишком широкий охват, чтобы когда-либо быть надёжными, независимо от того, сколько инвестиций, данных и вычислительной мощности вы в них вложите.

Фактически, последняя исследовательская работа OpenAI подтверждает это. Они обнаружили, что увеличение вычислительной мощности за этими моделями или запихивание в них большего количества данных не может снизить галлюцинации ИИ с их текущего уровня. Фактически, они обнаружили, что нет жизнеспособного способа уменьшить галлюцинации ИИ, что означает, что эти модели обречены оставаться такими же ненадёжными, как и сейчас.

Так что Джеффри не о чем беспокоиться. Технология ИИ достигла свои�� врождённых пределов и не станет даже немного лучше, не говоря уже о гигантском скачке вперёд. Конечно, злодейские корпорации будут пытаться заменить работников ИИ, но это не приведёт к массовому вытеснению труда.


Однако Джеффри был прав в том, что для того, чтобы ИИ хотя бы вышел в ноль по своим текущим инвестициям, ему необходимо быстро заменить труд. Как я писал в предыдущей статье, недавний отчёт показал, что индустрии ИИ потребуется генерировать 2 триллиона долларов годового дохода только для того, чтобы оплатить дата-центры, которые они планируют построить к 2030 году. Этот отчёт использовал очень оптимистичные прогнозы доходов, основанные на том, что внедрение ИИ и доходы от ИИ будут расти из года в год, несмотря на то, что оба показателя упали в 2025 году по сравнению с 2024 годом, чтобы оценить, что к 2030 году индустрии ИИ будет не хватать 800 миллиардов долларов для выхода в ноль!

Как я писал в другой статье, индустрия ИИ не может заполнить этот пробел в доходах с помощью ИИ-браузеров, ИИ-приложений и ИИ-по*но, которые были её основными попытками до сих пор. Эти рынки просто слишком малы. Джеффри был прав, когда сказал, что для того, чтобы заполнить эту гигантскую дыру в их бухгалтерских книгах, компании ИИ должны заменить труд в больших масштабах и скоро. Но, как мы сегодня рассмотрели, они просто не могут.

Так заменит ли ИИ человеческий труд и ввергнет ли весь мир в экономическую яму?

Чёрта с два!

Эта линия мышления - большая фантазия, чем D&D, в которую я собираюсь играть сегодня вечером. Но это повредит нашей экономике по-другому. Инвесторы и банки влили столько капитала и долгов в пузырь ИИ, что он подпирает всю западную экономику и связывает здоровье каждого финансового учреждения с тем, что эта гигантская ставка в конечном итоге окупится (подробнее читайте здесь). Другими словами, они поставили всю западную экономику на заведомую ложь, которая гарантированно обернётся провалом. Так что, хотя моя фантазия вызовет слёзы радости и смеха, когда наша идиотская партия снова упадёт лицом в грязь, эта фантазия поставит мир на колени не из-за замены труда или создания ИИ-повелителей, а из-за чистого невежественного безрассудства.


А теперь ваша очередь

Сталкивались ли вы с этим на своей работе? Как думаете, ваш ИИ-помощник - это действительно прорыв или просто генератор «рабочего шлака»?

И в чём, по-вашему, главная угроза ИИ: массовая безработица, о которой говорит Хинтон, или гигантский экономический пузырь, готовый лопнуть и утянуть за собой всех нас?

Поделитесь своим мнением в комментариях ниже! Спасибо за прочтение!

Комментарии (65)


  1. NeriaLab
    22.11.2025 10:10

    Всё хорошо расписано и полностью согласен со всем вышеперечисленным. А если бы термин "ИИ" заменить на термин "LLM" - вообще было бы идеально


    1. FurySeer
      22.11.2025 10:10

      Нет уж, четвертый год из каждого утюга, от СЕО ИИ (не LLM) стартапов до последнего писаки с хабра только и слышишь "ИИ, AI, AGI, ИИ-ИИ, AGI-AI" - пусть и здесь будет ИИ.

      Некорректное употребление понятия? Еще какое! Но что поделать, так рыночек порешал - LLM сложно и неблагозвучно, зато как звучит ИИ... Прям чувствуется, как люди начали заменяться. Не будем же мы уподобляться неолуддитам и грести против рынка, сказано ИИ - значит, ИИ.

      А то хорошо устроились - как деньги грести, так ИИ, как не оправдался ИИ, так сразу ЛЛМ


      1. DmitryOlkhovoi
        22.11.2025 10:10

        На самом деле одно из определений ИИ звучит как - набор задач, в которых компьютер может принимать решения. И это верно так как Интеллект — это способность решать проблемы.
        Сознание — это способность чувствовать. Ум — это совокупность мыслительных процессов, в то время как сознание — это опыт осознания этих процессов.

        Для того, что многие себе фантазируют под "настоящим" ИИ, есть термин AGI.

        Очень интересно тема сознания раскрыта в Ложной слепоте.


        1. NeriaLab
          22.11.2025 10:10

          И в этом заключается главная ирония сегодняшнего дня. "Классический" символизм шел к AGI (и то, в 60-х годах прошлого века, он так не назывался) "сверху вниз" - через логику и представление знаний, но уперся в "проблему приобретения знаний" (действительно долго обучать. Но даже эта проблема скоро будет решена). А современный коннекционизм, который унаследовал эти "амбиции", идет "снизу вверх" - через статистику и паттерны, и сейчас уперся в проблему "последовательной логики и рассуждений", откуда он уже не выберется, благодаря катастрофической нехватке ресурсов.

          Так что, возможно, дело не в том, кто громче о нём кричит, а в том, чьи методы в данный исторический момент оказываются ближе к созданию систем, которые не просто угадывают паттерны, а способны на планирование и рассуждения. Пока одни кричат о сроках появления AGI, другие - как раз на стыке подходов, "тихо" делают системы, которые на конкретных задачах демонстрируют именно такое, осмысленное поведение.


          1. rivo
            22.11.2025 10:10

            Судя по текстам 60-х, АИ создавали опираясь на логику и алгоритмы. Как такового обучения небыло, создавали детерминированные системы для вывода логических заключений. Обучение споставления с образцом использовалось для классификации информациию.

            LLM успешно обучают логическому мышлению, но она не может запоминать выводы за пределами контекста. То что подразумевают под AGI,
            в моем понимании, включает дообучение на основе собственных ответов или на основе новой информации из внешних источников.


            1. NeriaLab
              22.11.2025 10:10

              Но я бы уточнил ключевой момент: LLM не обучают логическому мышлению, а только правдоподобной симуляции логического мышления. Это принципиально разные вещи. Они не выводят заключения, а угадывают следующее слово в "логической" последовательности.

              И тем более, надо учитывать, что много лет прошло, на дворе уже конец 2025 года. Давно появились современные версии как когнитивно-символьных систем так и их гибридов (например, логико-когнитивно-символьные и др.). Эти системы активно используют все наработки прошлых десятилетий, включая инкрементальное обучение, что принципиально отличает их от LLM, которые неспособны к обучению на лету за пределами заданного контекста и требуют дорогостоящего переобучения. У LLM до сих пор нет LTM, так как это не предусмотрено архитектурой. У ни одного LLM проекта нет полноценного этического кодекса, ни на бумаге, ни архитектурно.

              Опять же, Вы "случайно" забыли (как и любой другой коннекционист), про неэффективность работы самой системы. Как написано в статье: "...экспоненциально больше вычислительной мощности, и, в свою очередь, экспоненциально больше инвестиций..." - как будто этого нет.


              1. rivo
                22.11.2025 10:10

                LLM не обучают логическому мышлению, а только правдоподобной симуляции логического мышления.

                Ну вот есть система Boolean satisfiability problem и есть правила, как конвертировать сложную логическую задачу к простым операциям над битами. Доказали что это NP-complete, т.е совершенно не гарантируется, что есть решение и вычисления не займут вечность. Теоретически, ничего не мешает LLM формировать запросы к такому движку, не обладая истиным логическим мышление. Это даже будет плюсом, можно будет остановить зависшее логическое вычисление и переформулировать вопрос или условия.


              1. DmitryOlkhovoi
                22.11.2025 10:10

                вы слишком много текста пишите, что это все за системы такие? Есть пример их работы? Что с ними можно делать?


                1. NeriaLab
                  22.11.2025 10:10

                  Я здесь отвечал на подобный вопрос


                  1. DmitryOlkhovoi
                    22.11.2025 10:10

                    Симуляция воздушного боя, обучения алгебре, социальный анализ... это все хорошо.
                    Но, вы говорите они лучше LLM, я могу написать агентную систему с ними? Нет? О чем тогда холивар этот весь лол. Эффективность, трушность..., есть конкретные задачи, LLM с ними справляется. Модели позволяют компьютеру решать задачи. Что и есть ИИ.


                    1. NeriaLab
                      22.11.2025 10:10

                      Агентную систему? Нет не сможете, так как данные системы - это уже агенты. Вы можете только дописывать модули, расширяющие их возможности, Например Вы можете научить их по настоящему программировать на любом ЯП и они действительно это будут делать и без ошибок


                      1. DmitryOlkhovoi
                        22.11.2025 10:10

                        Где я могу это сделать? Я могу как-то развернуть их локально или использовать какое-то API?


                      1. NeriaLab
                        22.11.2025 10:10

                        Всё уже давно существует в открытом доступе. Доступны исходные коды гражданских версий архитектур вроде Soar, ACT-R, CLARION, и др.. Есть множество публичных форков и реализаций - можно выбрать "на любой вкус". К некоторым прилагаются открытые "Базы Знаний", подробная документация и даже полностью проработанные этические принципы.

                        Есть документация по интеграции когнитивно-символьных архитектур и LLM (гибриды). Примеры: LLM-ACTR и LLM-Soar


                      1. DmitryOlkhovoi
                        22.11.2025 10:10

                        Вы почитайте последнии новости из мира LLM за 2025,
                        все уперлось в контекст.
                        Штуки, что вы упоминаете похоже сами не способны дать, то, что делает "тупая" LLM. Выступают чисто в виде MCP под специфичный домен. Или продвинутый ризонинг скорее всего
                        Ну круто, классно. Только я до сих пор не понимаю, как этим всем реально пользоваться вне научных постов и повседневно с пользой.

                        Taken together, the results open up new research directions for equipping LLMs with the necessary knowledge to computationally model and replicate the internal mechanisms of human cognitive decision-making.

                        Покажите хоть промт какой-то, ввод/вывод


                      1. Moog_Prodigy
                        22.11.2025 10:10

                        И они есть такие, которые понимают человеческий язык и переводят его в код? Примеры нужны.

                        И скорее всего примеров не будет, или такое, что очередной интерпретатор.


    1. simon_logic
      22.11.2025 10:10

      ИИ отличный термин, если читать его как Имитация Интеллекта.


  1. myswordishatred
    22.11.2025 10:10

    Это намеренная такая ирония?

    Скрытый текст


    1. sunsexsurf
      22.11.2025 10:10

      Зашел написать этот комментарий )


  1. inakrin
    22.11.2025 10:10

    Сталкивались ли вы с этим на своей работе? Как думаете, ваш ИИ-помощник - это действительно прорыв или просто генератор «рабочего шлака»?

    Прорыв, если правильно использовать. Правило шлак на входе - шлак на выходе никуда не делось.

    И в чём, по-вашему, главная угроза ИИ: массовая безработица, о которой говорит Хинтон, или гигантский экономический пузырь, готовый лопнуть и утянуть за собой всех нас?

    Вопрос, где предлагается выбрать "главную угрозу" только из двух вариантов, во-первых неявно подразумевает существование этой самой угрозы, что, возможно, и не так, во-вторых, даже в случае существования некой главной угрозы, выбор из двух вариантов может и не иметь правильного ответа, а в третьих, является отличным примером того, как можно получить шлак на выходе LLM вместо полезного ответа.


  1. ASBT_F
    22.11.2025 10:10

    Мое интуитивное мнение. ИИ займет свое место в ряду внедрения и ускорений автоматизированных процессов, но не так в сфере производственной деятельности, а прежде всего в обработке информации. Он ускорит процесс получения учёными знаний и, соответственно открытий. Открытий неглобального, ,,неоракульского,, масштаба. Тот кто вкладывает в него деньги, возможно получит автоматизацию открытий. Не больше. Как ещё человечество распорядится этими знаниями и открытиями. Человеческая жизнь хрупка. И эпидемия ковида (?рукотворного) это в очередной раз показала. Если в каждой лаборатории , на коленке будет возможно создавать опасный вирус, так нужен ли этот прогресс. И не вернее ли остановить прогресс. Вернуться к инквизиции.


    1. NeriaLab
      22.11.2025 10:10

      "Вернуться к инквизиции"

      То есть сжечь всех еретиков-питонистов на Святом костре ИТ-инквизиции, ибо они отвернулись от Cвященного писания "The Art of Assembly Language"?!


      1. ASBT_F
        22.11.2025 10:10

        Нужно ли запрещать писарю писать на каком-то языке? Нет. По сути современный программист аналог средневекового писаря. На ступень выше. Но работа ИИ (да и вообще учёных) в сфере изучения организма человека, медицины, болезней должна быть под международным контролем везде. Хватит одного риска атомной войны. Возможно утопично мыслю. Если изучают к примеру инфекционные болезни, то вольно-невольно начинают получать сведения о том, как они распространяются, что их усиливает.


        1. SergiiKol
          22.11.2025 10:10

          Если изучают к примеру инфекционные болезни, то вольно-невольно начинают получать сведения о том, как они распространяются, что их усиливает.

          Всё верно многих евангелистов это серьёзно беспокоит.
          Но беспокойство в основном сконцентрировалось на Китайской программе.
          Не вижу вариантов международного контроля в данной ситуации бешенной гонки...
          Между США и Китаем.
          И к тому же правители на старушке Терре полностью сумашедшие и похожи на правителей Торманса из Ефремова.


    1. Foror
      22.11.2025 10:10

      > Если в каждой лаборатории , на коленке будет возможно создавать опасный вирус
      Значит в тысячи других лабораториях можно будет в рекордные сроки создать антивирус. А также регенераций, омоложений и прочих крутых штук. Если это действительно станет доступно на коленке.


    1. MxMaks
      22.11.2025 10:10

      В последние десятилетия сотни миллионов людей уходили из производственной сферы как раз в сферу обработки информации. Им куда теперь идти. С другой стороны строительство офисных центров идет опережающими темпами над строительством ЦОД по крайней мере у нас в стране.


      1. tester37
        22.11.2025 10:10

        Отпустите уже людей, придумайте им смыслы общения о высоком. Ну блин, дворяне же раньше не работали, читали книги, на балах там танцевали, физкультурой занимались, конным спортом, флиртовали (батлы устраивали со смертельным исходом, но этотоже можно пофиксить). Почему не рыть в сторону, что ИИ освободит человека от рабства вынужденного труда? Почему всю разработку не направлять именно туда? На роботов уборщиков туалетов, слесарей, электриков, санитарок, меняющих судна. Такое впечатление что борьба идет за то, чтобы максимальное число людей за счет ИИ наоборот заставить конкурировать между собой за право мыть унитазы и получать за это еду. Зла не хватает, если вся ИИ-ка для этого


        1. checkpoint
          22.11.2025 10:10

          У Бигтеха не стоит задачи сделать нам помошника по дому, бизнесу или на произвостве. Все, что касается материальных сущностей вообще дико затратно и несет массу рисков, а производство за пределами Китая - страшно убыточно. Их задача впарить нам полностью виртуальную сущность за которую мы будем должны платить всю оставшуюся жизнь. А когда отойдем в мир иной за нас будут платить наши дети. Вот их единственная цель и ИИ здесь идеальный механизм на роль этой сущности. Что касается всяких там роботов, автоматизации производства и т.д., это всё уже есть в той или иной мере. Этим давно занимаются, но совсем другие люди. И прогресс там тоже есть, только он те так очевидный, и хайпа на нем не выстроить. Бигтех это раковая опухоль на теле цивилизации которую надо как можно скорее удалить, иначе ж@па.

          Поиски такой виртуальной сущности идут давно: поисковик Google, музыка iTunes, почта Gmail, подписка на Youtube и Netflix-е... но все это было как-то сильно затратно, требовало вложений в поставщиков контента, отчислений за авторские права и т.д. А тут вот нате, LLMИИ - полностью самодостаточная виртуальная сущность для конвертирования электроэнергии в доллары, и привыкание вызывает не хуже герыча. А гавное - порог вхождения очень и очень высокий.


    1. eandr_67
      22.11.2025 10:10

       Он ускорит процесс получения учёными знаний и, соответственно открытий.

      Нет, не ускорит. ИИ - не инструмент генерации знаний, а всего лишь эвристика, генерирующая примерно правильный ответ на базе заданного набора правильных ответов (обучающей выборки). И как всякая эвристика, ИИ не может не ошибаться.

      Алгоритмизируемая обработка данных не требует ИИ: прямая реализация алгоритма (дающего правильный ответ в 100% случаев) требует для своей работы на порядки меньше вычислительных ресурсов, чем нейросеть, в результате обучения примерно правильно имитирующая этот алгоритм.

      А для нетривиальной неалгоритмизируемой обработки ИИ гарантировано будет выдавать мешанину из правильных результатов и откровенного бреда, внешне похожего на правильные результаты. И на отделение одного от другого понадобится куда больше сил и времени, чем на обработку данных без использования ИИ.


      1. ASBT_F
        22.11.2025 10:10

        Хорошо. Но может быть с помощью ИИ можно обработать большую область для поиска ответа, пускай не совсем точного? Если у Вас и на этот вопрос будет отрицательный ответ, тогда почему действительно на него не жалеют денег? Ваше мнение?


        1. eandr_67
          22.11.2025 10:10

          Если в области, площадь которую сократили с помощью ИИ, содержится ответ - ну потратим в несколько раз больше сил и времени на ручную перепроверку тех участков полученной области, в которых ответа нет и быть не может. В конце-концов ответ всё же найдем.

          Но ведь регулярно будут возникать ситуации, когда ответ есть, но он находится вне определённой ИИ области. В результате существующий ответ не будет найден.

          почему действительно на него не жалеют денег?

          Об этом, в том числе, рассказывает статья, которую вы комментируете. И я полностью согласен с её автором.


          1. ASBT_F
            22.11.2025 10:10

            Взял небольшую паузу. Поискал информацию о строительстве дата центров в США. В октябре 2025 ВВС США дали в аренду под строительство дата центров земли в 8ми авиабазах. А в 2024 году (в другой статье на этом же сайте) сообщалось, что военные США апробировали успешно управление ИИ одним военным самолётом. К 2028 планируют дать в управление ИИ уже 1000 самолетов. Значит, не все так плохо с применением ИИ. Хотя бы в военной сфере. Если не лукавит и не позиционируют себя в лучшем свете.

            Кроме этого, прочел первоисточник, который цитирует автор комментируемой нами публикации. Обратил внимание на один абзац, где Уилл Локетт говорит, что возможно идут на заведомо убыточный проект с ИИ, чтобы гарантировать первенство США в этой сфере. Этот момент подчеркиваю, но не хочу ей уязвить автора на Хабре (логику статьи он строит на многочисленных свидетельствах скорее с экономической точки прибыли-убыточности).


            1. NeriaLab
              22.11.2025 10:10

              Вот только этим самолётом (F-16) управляет полностью автономная когнитивно-символьная система - Soar, а не LLM. Программы DARPA - ACE и ACE-TRUST


              1. ASBT_F
                22.11.2025 10:10

                Благодарю за подсказку. Интересно.


            1. eandr_67
              22.11.2025 10:10

              Строительство дата-центров говорит только о том, что эти дата-центры приносят доход своим владельцам. И не важно, работает технология, или нет. Главное - создать у клиентов иллюзию того, что технология работает. Те, кто несут свои деньги астрологам или гадалкам, тоже уверены, что получат правильный ответ на свой вопрос.


              1. ASBT_F
                22.11.2025 10:10

                Я сознательно ухожу в конспирологическую версию: Все видимо неокупаемое - потребно военным.


            1. select26
              22.11.2025 10:10

              К 2028 планируют дать в управление ИИ уже 1000 самолетов. Значит, не все так плохо с применением ИИ.

              Эта система не имеет никакого отношения к LLM.
              А что такое "ИИ" - знают только маркетологи или их жертвы.


      1. anshdo
        22.11.2025 10:10

        всего лишь эвристика, генерирующая примерно правильный ответ на базе заданного набора правильных ответов

        Нет, на базе всех имеющихся в сети ответов, и это одна и главных проблем.


      1. select26
        22.11.2025 10:10

        Алгоритмизируемая обработка данных не требует ИИ: прямая реализация алгоритма (дающего правильный ответ в 100% случаев) требует для своей работы на порядки меньше вычислительных ресурсов, чем нейросеть, в результате обучения примерно правильно имитирующая этот алгоритм.

        Блин, как же мало людей это понимают!
        И даже не нужно для этого быть футурологом - достаточно профильного образования. Ну и не пинать, конечно, во время учебы всякое разное.


  1. pavlushk0
    22.11.2025 10:10

    "30% компаний планируют заменить HR-специалистов на ИИ в 2026 году" - оставлю этот коммент, через год проверим


  1. Farongy
    22.11.2025 10:10

    Заменить людей на ИИ, чтобы окупить инвестиции?! Может хоть немного почитать как экономика работает?

    Инструмент не создаёт стоимость, он лишь перекладывает часть своей стоимости в новый продукт, стоимость создаёт только человек. Экономика это взаимоотношения людей и обмен стоимостями между людьми.

    Если я потратил день, чтобы сделать сапоги, а Василий потратил день, чтобы выпечь 10 буханок хлеба - мы можем обменять сапоги на 10 буханок. Если я сделал сапоги, а Василий хлеб не выпек - мы не сможем обменяться, потому что обменивать будет нечего.


    1. tester37
      22.11.2025 10:10

      ну не так же. Вообще пофигу что из себя представляет трудовой ресурс. То, что по выходным этот ресурс ещё и затраты потраченные на него перекладывает в оплату других продуктов, сгенерированных другими ресурсами - вовсе не связыват эти процессы намертво вместе. Коммунизм раньше не получился по простой причине - нет конкуренции, нет мотивации на то, чтобы делать хорошо. ИИ-ке не нужна эта мотивация, ей задачу хорошо делать можно просто поставить и она будет делать хорошо. Начнутся проблемы с качеством постановки задач кожанными? Не начнутся. Не хочешь ставить задачи ИИ-ке, иди занимайся конным спортом. И все.... А те, кто хочет ставить задачи - найдутся и будут между собой конкурировать как сейчас конкурируют между собой разработчики в опенсорсе


    1. MEGA_Nexus
      22.11.2025 10:10

      Экономика это взаимоотношения людей и обмен стоимостями между людьми.

      Вот, это кстати, правильное замечание. Если уволить 30% людей, то они перестанут получать зарплату, а значит не смогут участвовать в экономической деятельности, т.к. денег не будет, т.е. количество покупателей товаров компании сократится, а значит и прибыль не вырастет.

      Чтобы всё работало, как мечтают капиталисты, сокращения персонала должны быть растянуты по времени, а также это должно компенсироваться появлением новых рабочих мест. Тогда всё будет работать. Если же на улицу сразу будет выкинуто много людей, то наступит спад в экономике. + придётся ещё государству тратить деньги на пособия для этих людей.


    1. pl_by
      22.11.2025 10:10

      Может хоть немного почитать как экономика работает?

      Инструмент не создаёт стоимость, он лишь перекладывает часть своей стоимости в новый продукт, стоимость создаёт только человек.

      Похороните уже Маркса с его теорией. При всём уважении, она в большей части устарела.

      Объясните коренное отличие достаточно продвинутого инструмента от человека, почему первый не производит стоимость, а второй производит?


      1. Farongy
        22.11.2025 10:10

        Потому что экономика - это обмен стоимостями, экономика стремится к выравниванию стоимостей. Например, если для изготовления пары сапог требуется 1 день и для изготовления 10 буханок хлеба требуется 1 день, они обмениваются по равной стоимости. И в деньгах будут иметь равную цену, скажем 10 у.е. Если свои сапоги по какой то причине я могу продать только за 5 у.е., значит происходит неравный обмен и мне больше нет смысла производить сапоги, необходимо капитал направить в производство хлеба. Как только капитал перенаправляется на хлеб, его цена снижается, а стоимость сапог повышается и стоимости выравниваются.

        Если цена инструмента 100 у.е., значит в него вложено стоимости на 100 у.е. и при эксплуатации инструмент будет перекладывать эту стоимость на новый продукт. Для наглядности представим чудо-робота с ценой 100 у.е., который производит товаров на 200 у.е. Во-первых, это выглядит странно - зачем продавать такого робота?! Это ж буквально деньги из воздуха. Во-вторых, бизнес с роботами быстро закончится, ибо очевидно, что использовать их гораздо выгоднее чем производить.


    1. GidraVydra
      22.11.2025 10:10

      Инструмент не создаёт стоимость, он лишь перекладывает часть своей стоимости в новый продукт, стоимость создаёт только человек.

      По вашей логике, если Вася вручную за смену точит 10 гаек, а Петя на станке с ЧПУ за смену точит 100 ровно таких же гаек, то эти гайки будут иметь разную стоимость?

      Заканчивайте уже копаться в марксистской помойке и тыкать людем в лицо найденным ьам мусором, почитайте как на самом деле работает экономика.


  1. myswordishatred
    22.11.2025 10:10

    И в чём, по-вашему, главная угроза ИИ: массовая безработица, о которой говорит Хинтон, или гигантский экономический пузырь, готовый лопнуть и утянуть за собой всех нас?

    Если резюмировать, то проблема вот в чём.

    Первое. Современные, прости господи, ИИ не могут делать достаточно сложные вещи. Не сгенерировал пока никто какую-нибудь ААА-игру, например. Может быть теоретически это возможно, но пока нам не хватает, эээ, ресурсов. В широком смысле.

    Но то, что они не могут справиться со сложными вещами не означает, что они не могут справиться вообще ни с чем. Они пишут простые программы, сносные тексты, картинки рисуют, видео генерируют.

    Второе. Обучение строится от простого к сложному. Сначала мы учимся складывать палочки, потом решаем дифуры. Нет возможности пропустить лёгкое и сразу приступить к сложному, знания и навыки появляются от простых к сложным.

    Вместе с тем маленькие люди (некоторые называют их "детьми") демонстрируют вполне рациональное (с их точки зрения) поведение: если можно переложить свою работу на кого-то другого, а результатом воспользоваться самостоятельно, то они будут это делать. Соответственно, значительная часть маленьких людей не овладеет какими-то базовыми вещами, необходимыми чтобы освоить вещи посложнее.

    Третье. Для того чтобы делать сложные вещи нужно быть достаточно умным (читай "освоить до этого вещи попроще и набить на них руку"). Это утверждение, надеюсь, можно оставить без доказательств.

    Четвёртое. Можно из любого (ну, почти) сделать средней руки специалиста в чём угодно. Но выдающихся результатов в любой области деятельности добиваются считанные проценты. Чем больше людей деятельностью занимаются, тем больше (количественно) выдающихся людей в ней появится.

    Из этих четырёх пунктов я делаю вывод о том, что с использованием ИИ мы (как человечество) будет порождать меньше талантливых людей. То есть их-то может и столько же будет, то развивать свой потенциал будет гораздо меньшее их число. Потому что с момента обретения речи (писать уметь совершенно не обязательно чтобы пользоваться ИИ) у них будет сильный, СИЛЬНЕЙШИЙ соблазн свалить рутинные задачи на кремниевого раба, а самому заняться чем-то поинтереснее. А раз так, то и до более сложных задач, справиться с которыми ИИ уже не способны, добираться будет меньшее число людей.

    Мне кажется, что это плохо.


    1. rivo
      22.11.2025 10:10

      Люди как биологический организм стремятся к комфорту.
      Если верить эволюции, то всё что не требуется для выживания отмирает.
      Возможно, думать не поребуется для выживания, будем плавать по 1000 лет в аквариумах, как амебы. ИИ будет сделить за средой, подкармливать и впрыскивать дозы дофамина.


      1. myswordishatred
        22.11.2025 10:10

        Слушайте, возможно. Вон как у Грега Игана все переедут вообще в цифровую форму, а в реальном мире только какие-то бомжи контркультурные останутся.

        Но, опять же, всё-таки специализация человека (в смысле биологии) это как раз голова, которая дадена чтобы думать. Мы не самые быстрые, и не самые сильные, и много ещё чего не самые, зато самые умные. Ну и вот так вот с кондачка взять да отказываться от этого преимущества как-то глупо.


      1. verls
        22.11.2025 10:10

        Возможно, думать не поребуется для выживания, будем плавать по 1000 лет в аквариумах, как амебы. ИИ будет сделить за средой, подкармливать и впрыскивать дозы дофамина.

        Клетка для орхидей. Герберт В. Франке


    1. a1111exe
      22.11.2025 10:10

      А раз так, то и до более сложных задач, справиться с которыми ИИ уже не способны, добираться будет меньшее число людей.

      Есть причины сомневаться, что так будет. Задолго до хайпа LLM у человечества уже была тьма тьмущая автоматизаций задач, которые раньше решались человеком вручную. Взять инженерный калькулятор, как пример. Ещё в детстве слышал (в школе, наверное) - "не будете считать в уме, отупеете, деградируете, ничего из вас не получится".

      Но по сей день наука развивается, технологии развиваются, создаются успешные стартапы.

      Человек, которому интересно решать интеллектуальные задачи, найдёт их и будет их решать, LLM или нет.

      Возможно, что избавление от задач, которые по плечу LLM, как раз позволит людям быстрее добираться до (более интересных) задач, которые LLM уже не по плечу.


  1. atues
    22.11.2025 10:10

    А раз так, то и до более сложных задач, справиться с которыми ИИ уже не способны, добираться будет меньшее число людей.

    Ну, т.е. человечество будет просто деградировать. Впрочем, почему "будет"? Уже.

    Мне кажется, что это плохо.

    Это страшно. В сущности, это самоуничтожение


    1. myswordishatred
      22.11.2025 10:10

      Я бы не стал прямо настолько краски сгущать. Да, это действительно печально, это в каком-то смысле неообскурантизм, который наверняка будет иметь последствия, боюсь, для целых поколений. Но люди всё же не клоны и думают по разному. И страны, надо сказать, тоже разные. Может пока в богатой стране А всем мозги заменяет перемножитель матриц в бедной стране Б, где в школу ходят на лыжах двадцать километров в одну сторону как раз сейчас и куётся будущая интеллектуальная элита человечества.


      1. tester37
        22.11.2025 10:10

        Оставьте интеллект. Сознание - не равно интеллект. Очень много человечческих категорий вне интеллекта. Доброта, Любовь, Страсть, ощущение жизни! чувство прекрасного. Это можно развивать и в этом нет конкуренции, если робот научится любить, да и пусть. Главное чтобы ИИ-ка не переубивала людей, это да - риск есть. А интеллект (тем более эмоциональный) не обязательно развивать на работе. Интеллект - можно отдать роботам, если они с его помощью обеспечат людям жизнь со всем спектром эмоций, но с уменьшением эмоций страданий (не до нуля конечно, главное чтобы они (машины) стоп-слово умели распознавать)


        1. myswordishatred
          22.11.2025 10:10

          В целом я даже, наверное, склонен согласиться. С другой стороны я не вполне представляю себе, что за объект такой "Человек минус интеллект".

          Вот чтобы стихи писать он нужен? Кажется да, надо же анапест он амфибрахия отличать как-то. Или в картинах там сечение золотое считать (или чем там художники занимаются).

          Другими словами, непонятно, что выйдет, если существенную часть человеческой сущности протезировать ИИ.


          1. tester37
            22.11.2025 10:10

            Ну почему минус. То что гепард бегает быстрее человека, не превращает же человека в "человек минус умение бегать" ?


            1. myswordishatred
              22.11.2025 10:10

              Я просто понял

              Интеллект - можно отдать роботам

              Как призыв отдать вообще все интеллектуальные задачи им.


              1. NeriaLab
                22.11.2025 10:10

                Тогда это перестанет быть просто "спором о технологиях". Это быстро превратится в экзистенциальный выбор: захотим ли мы быть "эффективными автоматами" или стать "несовершенными людьми"?


                1. myswordishatred
                  22.11.2025 10:10

                  Так любая достаточно развитая технология (в широком смысле) неотличима от магии меняет общество. Телевидение, арифметика, порох, антибиотики, севооборот, рабство -- всё это и многое другое заставляло людей жить иначе, чем они жили прежде. Ну вот мы в очередной такой точке истории.


      1. GidraVydra
        22.11.2025 10:10

        Оставьте влажные фантазии, бедные страны как раз в первую очередь подсаживаются на нейросети. У условного голодного негритянского мальчика может не быть еды, одежды, медпомощи - но смартфон с доступом к дипсику у него есть.


  1. Visualynx
    22.11.2025 10:10

    Вот когда увидим плато развития llm можно будет сделать выводы. Пока же условная нана банана про ставновится ощутимо лучше первой версии и, например, профессия визуализатора интерьеров (узко беру) уже считай, сдохла.