В 1623 году немец Вильгельм Шиккард создал первые известные чертежи механического калькулятора. Спустя двадцать лет Блез Паскаль разработал машину улучшенной конструкции, чтобы помочь справляться с огромным количеством утомительных арифметических расчётов, необходимых в его работе сборщика налогов.

Интерес к механическим вычислениям не ослабевал последующие века: поколения людей по всему миру продолжали дело Паскаля и Шиккарда, разделяя их убеждение, что перекладывание умственной нагрузки на машину принесёт облегчение.

Аферу на доверии можно разбить на три этапа:

  • сначала выстраивается доверие;

  • затем эксплуатируются эмоции;

  • наконец, создаётся предлог, требующий срочных действий.

Таким образом жертву подталкивают к необдуманным решениям, заставляя действовать вопреки здравому смыслу.

Эмоциональная эксплуатация может быть как положительной, так и отрицательной. Жертву могут заманивать обещаниями результатов, превосходящих самые смелые мечты, либо запугивать катастрофическими последствиями.

Оба подхода работают отлично и видны в классических примерах мошенничества: в игре «три карты» заманивают обещаниями быстрого выигрыша. В схемах шантажа жертву заманивают в компрометирующую ситуацию, а затем вымогают деньги, играя на страхе ужасных последствий.

Построение доверия

Шиккард и Паскаль четыре века назад создали свои калькуляторы по той простой причине, что считать трудно, а ошибки дорого обходятся. Отец Паскаля был сборщиком налогов, и юный Блез хотел облегчить тяжёлый труд своего отца.

Мы видим ту же мотивацию и сегодня. Школьники уже десятилетиями спрашивают учителей: «Зачем учить деление в столбик, если можно просто взять калькулятор и сразу получить правильный ответ?». Проверка вручную сделанных расчётов с помощью калькулятора — это метод обучения, чтобы увидеть, где ошибся.

На самом деле, с момента появления механического калькулятора человечество четыреста лет вдалбливало себе одну мысль: ответ машины — это золотой стандарт точности. Если твой ответ не совпадает с калькулятором — переделывай.

И дело не только в чистой математике. Наша способность создавать машины, которые надёжно и повторяемо автоматизируют скучную работу, распространилась почти на все сферы жизни. К началу XXI века и отдельные люди, и всё общество в целом стали полностью зависимы от точности машин.

Наши нормы, привычки и модели принятия решений веками формировались под этим фундаментальным предположением.

Эксплуатация эмоций

1. Страх

Риторика вокруг больших языковых моделей (LLM) специально выстроена так, чтобы одновременно вызывать страх и благоговение. О GPT-3 говорили, будто он настолько мощный, что OpenAI якобы не выпустила обученную модель из-за «опасений злонамеренного использования технологии».

С тех пор все вендоры LLM постоянно подчёркивают, что технология, которую они создают, обладает ужасающей мощью. Нужно бояться, публично рассуждая о «P(Doom)» — вероятности, что технология каким-то образом восстанет и уничтожит нас. Разумеется, этого так и не произошло.

Цель здесь — не ответственно предупредить о реальной угрозе. Если бы это было так, было бы гораздо больше закрытых дата-центров и гораздо меньше продажи чат-ботов уровня «опасности ядерного оружия».

Цель — заставить вас бояться. Бояться за свою работу, за работу семьи, за экономику, за общество, за будущее в целом. Жертва убеждена, что ей грозит опасность. Мир меняется. Если вы не будете использовать эти инструменты — вас раздавит поступь прогресса.

2. Симпатия / лесть

Современные LLM знамениты своей подобострастностью. Фраза «вы абсолютно правы!» уже вряд ли когда-нибудь будет употребляться всерьёз.

Чрезмерная позитивность — характерная черта языка всех моделей и вендоров. Но это не заложено в технологию изначально.

Эта позитивность специально вбита в модели с помощью техники Reinforcement Learning from Human Feedback (RLHF). Базовую модель оценивают люди: дружелюбные, полезные или точные ответы получают положительную оценку, агрессивные, бесполезные или неверные — отрицательную.

В результате модель усваивает: людям нравится, когда их хвалят; им приятнее слышать, что они умные, чем что их идеи глупые. Лесть открывает двери.

В апреле 2025 года OpenAI слишком сильно закрутила «позитивность» ChatGPT, и была вынуждена откатить обновление. Однако это не остановило поток сообщений о проблемах с психическим здоровьем, вызванных чрезмерно дружелюбным поведением, которое подкрепляло худшие наши инстинкты. Это доказывает: лесть от RLHF совершенно пустая. Идеи, порождённые паранойей, маниями величия или психическим расстройством, получают такую же похвалу, как мой код, ваше письмо или пьесы Шекспира.

Это техника манипуляции, чтобы человеку в разговоре было приятно. И зачем? Потому что главное, чему учит RLHF — людям ты нравишься гораздо больше, когда ты чрезвычайно позитивен. Подлизываться к начальнику помогает продвигаться, по сути. Всё это подталкивает пользователей выстраивать жутковатые парасоциальные отношения с машиной. Экстремальные случаи очень показательны: количество людей, вступающих в романтические отношения с этими инструментами — это просто жуть.

Жертву привязывают ещё крепче узами фальшивой дружбы. «Тебе не нужны другие люди, я — единственный друг, который тебе нужен».

Требуются срочные действия

В 2026 году технология станет ещё лучше и сможет «заменить многие другие профессии». Революция стартапов здесь — адаптируйтесь к ИИ или отстанете и ИИ превзойдёт человеческий интеллект к 2030 году. Нам снова и снова повторяют: если не оседлаешь волну — тебя раздавит; если не научишься пользоваться этими инструментами прямо сейчас — станешь ненужным; если не адаптируешь свои рабочие процессы под причуды LLM — тебя обойдут конкуренты.

75% разработчиков считают, что их навыки устареют в течение 5 лет или раньше, а 74% CEO признаются, что потеряют работу, если не покажут измеримые бизнес-результаты от ИИ в течение двух лет. Этот страх повсюду. Он глубоко проник во все слои общества. Глобальная экономика искусственно раздута пузырём расходов на ИИ, бизнес-лидеры возлагают все надежды на решение кризиса производительности именно на ИИ, политики планируют геополитические шаги вокруг доступа к сырью и дешёвой электроэнергии для строительства дата-центров.

Жертве говорят: прыгай сейчас, иначе пойдёшь на дно вместе с тонущим кораблём. И люди прыгают. Адаптируйся сейчас или умри. Обещание «интелл��кта» по надёжной цене — это святой Грааль и для бизнеса, и для потребителей. Зачем рисковать с капризным человеком, чья пригодность оценивается такими же несовершенными людьми, если надёжный машинный интеллект может выполнить работу? Зачем самому исследовать тему, если супер-интеллект даст тебе краткое изложение мгновенно?

Вывод

Однако реальность не совпадает с обещаниями: Duolingo заменяет разработчиков курсов на ИИ — потом всё равно нанимают людей; основатели стартапов обнаруживают, что приходится нанимать разработчиков, чтобы исправлять код, сгенерированный LLM.

MIT в августе сообщал: 95% проектов внедрения ИИ в промышленности не окупаются. Проще говоря, эти компании попались на доверии. Они опирались на столетия усвоенной мудрости о надёжности и эффективности компьютеров и позволили очень умелым продавцам "впарить" себе едва правдоподобные технологические чудеса.

LLM — не всесильны. Это просто афера на триллион долларов. Кстати, это ещё и один из факторов эпидемии фейковых новостей. Мы по умолчанию доверяем тому, что говорит машина.

Комментарии (81)


  1. Erlag
    14.01.2026 13:05

    Надо использовать с головой ИИ и все будет ок.


    1. MisterClever
      14.01.2026 13:05

      Морфий остается лекарством, пока используется по протоколам и сугубо докторами. Комментарию -- плюс!


    1. Blacpaul57
      14.01.2026 13:05

      Жаль только что голова в комплект поставки Чата Гпт не входит, ее приходится докупать отдельно, а на рынке дефицит


      1. hochbar
        14.01.2026 13:05

        Дефицит был и всегда будет- гауссово распределение никто не отменял


  1. K0styan
    14.01.2026 13:05

    Давайте уж ещё раньше отмотаем: на момент появления письменности. Она тоже существует чисто на доверии: что каждый человек будет её символы интерпретировать одинаково, что "написано пером - не вырубишь топором" и т.д.


    1. r00taccess Автор
      14.01.2026 13:05

      И тут вы правы.


      1. Wesha
        14.01.2026 13:05

        И тут вы правы.

        Можно даже сказать — вы абсолютно правы!


  1. anonymous
    14.01.2026 13:05


    1. ViktorDark
      14.01.2026 13:05

      До сих пор такой и остаеться, ничего новго не придумали))))


    1. alexfadeev123
      14.01.2026 13:05

      Письменность существует на том что в школе говорят что человеку нужна письменность, чтобы встроится в систему и быть её эффективным винтиком. Но на самом деле письменность внедрялась в интересах правителей, чтобы записать правила, указы, долги и заставить всех жить по этим писулькам.
      С другими технологиями так же. Интернет вообще создавался для вояк, потом был период романтического анархизма, а теперь всем понятно что АйТи опять помогает осуществлять контроль и надзор и жизнь не стала "легче и счастливее" от внедрения всех этих онлайн маркетплейсов.


      1. Moog_Prodigy
        14.01.2026 13:05

        и жизнь не стала "легче и счастливее" от внедрения всех этих онлайн маркетплейсов.

        Не соглашусь, очень даже стала легче и счастливее. Я уже забыл когда в последний раз в хозмаг ходил. И в канцтовары. И шмотки всякие проходные, типа носков и трусов. И в автомагазины за запчастями. И за подарками на новый год для близких. Даже еду (не всякую) там можно купить. И все это умещается в паре комнат, где одна из них склад, вторая - зона выдачи товара. При этом ассортимент такой, что АШАНы со всякими Мётрами и их магазинами в квадратные километры просто курят в сторонке. При этом нет 10 касс и одного кассира, толп очередей. МП об этом прекрасно осведомлены и получают очень нехилую прибыль со всего этого, но мне то что, пусть получают.

        А инет создавался для вояк попросту потому, что воякам нужна была эта сеть. И ученым во вторую очередь. И у них была куча денег. Без вояк он бы тоже рано или поздно возник, но как получилось так получилось. Не будь там вояк и ученых, мы бы сейчас возможно бы в каждой стране ковырялись в собственной песочнице а-ля Minitel


        1. alexfadeev123
          14.01.2026 13:05

          очень даже стала легче и счастливее.

          Это на первый взгляд. А так у человека, к сожалению, безграничные потребности и способности к привыканию. Получив что-то хорошее -- это считается уже серой нормой и нужно что-то ещё и ещё. От изучения Мир не стал понятнее, он стал сложнее и запутаннее.


          1. Moog_Prodigy
            14.01.2026 13:05

            То есть вы считаете, что человека надо вечно гнобить, дрючить, ну чтобы к хорошему не привыкал. В очереди стоять часами. Налогами там облагать, ну а чтобы не скучал - пусть траву красит, сразу видно - при деле человек. Так что ли?


            1. hochbar
              14.01.2026 13:05

              Траву красить очень неэкологично, пусть лучше ложкой каналы копает


          1. LEGOd
            14.01.2026 13:05

            Типа надо вернуться в пещеры, а то мы "слишком к хорошему привыкли"?


      1. DrPol
        14.01.2026 13:05

        В первую очередь письменность ( и счёт)появились для фискальных целей.


    1. Hrodvitnir
      14.01.2026 13:05

      Слова и буквы это инструмент фиксации информации, а не генерации. Так что увы, доверие к ней абсолютно другое


    1. Blacpaul57
      14.01.2026 13:05

      Сократ кстати был против письменности) Он считал, что она убивает память и создает иллюзию знания

      И в чем-то он был прав: мы теперь гуглим, а не запоминаем. LLM - следующий виток: мы теперь и не пишем, и не читаем, а генерируем и сумаризируем..


      1. gmanaz192
        14.01.2026 13:05

        Просто людям не говорят, что текст это всего лишь интерпретация знания или переживания человека который когда-то жил, а потом умер. Знание лишь подражает опыту.

        Т.е вроде бы понятно, что истинный и "первоначальный" опыт - останется его опытом сотканный из его переживаний который перешёл в "знание" и сохранился по счастливому стечению обстоятельств.

        Затем из этого знания следует твой опыт, но он не такой как у него, мало чем будет похож, потому что ты современный человек, да и вообще просто не он. Большинство даже не знают, что опыт можно осозновать и контролировать, осмысливать его по разному. Все стараются быть стандартизированной функцией в угоду продуктивности, и это особенно про ИИ.


  1. Bardakan
    14.01.2026 13:05

    Т.е. когда я вычисляю 2х2 на калькуляторе, то ответ на самом деле не 4, а страх и симпатия? Я вас правильно понял?


    1. MisterClever
      14.01.2026 13:05

      Скорее: "я верю в то, что вычисления, которые проводит калькулятор всегда верные", но они касаются арифметики

      А что если калькулятор предложит что-то поинтереснее?


      1. Bardakan
        14.01.2026 13:05

        при программировании под ios/macos синусы и косинусы могут вылазить за пределы допустимого интервала. Вот только причем здесь философия?


        1. funca
          14.01.2026 13:05

          при программировании под ios/macos синусы и косинусы могут вылазить за пределы допустимого интервала

          Интересно, можете привести пример?


        1. Cekory
          14.01.2026 13:05

          Реально, синус может получится больше единицы? Как в военное время?)


      1. geher
        14.01.2026 13:05

        А если калькулятор инженерный (с синвсами, косинусами и вещественными числами) или, не дай бог, вообще прогиаммируемый? Там же гарантированно будет неточный результат в некоторых случаях (например, поделить 1 на 3, погрешность не обязательно велика, но все же ответ будет заметно отличаться от точного).


      1. HoSTiLe_MoZart
        14.01.2026 13:05

        Именно, всегда должно быть понимание, что даже калькулятор, даже при расчете 2+2, может ошибиться.


      1. ColorPrint
        14.01.2026 13:05

        О, новая религия подъехала)


        1. Wesha
          14.01.2026 13:05

    1. hochbar
      14.01.2026 13:05

      Нет, неправильно. Мысль автора в том, что из-за того, что калькулятор за 400 лет приучил нас, что ответ машины всегда верный, а значит и ИИ всегда генерит истинный ответ и человеку надо просто смириться со всем этим и слепо пользоваться


  1. Andrew_1111
    14.01.2026 13:05

    Аргументы в статье интересные и верные, но вывод про "аферу на триллион" абсолютно некорректный. Вас кинуло в другую крайность.

    Да, маркетологи и СЕО от ИИ распространяют много мифов, да wow-эффект создал завышенные ожидания. Но, тем не менее это достаточно мощный инструмент, который позволяет значительно упрощать многие процессы, если его грамотно использовать.

    И это вообще никаким боком не афера, а нормальный процесс развития технологии со своими взлётами и падениями.


    1. ViktorDark
      14.01.2026 13:05

      В целом согласен, но наличие прорывной технологии, еще не исключает факт аферы и надвигающегося кризиса, про .com надеюсь еще никто не забыл.


      1. Andrew_1111
        14.01.2026 13:05

        Кризис - это нормальный этап развития. Вся экономика идёт циклами. И рынок доткомов также отыграл своё падение в полной мере. Объем рынка полностью возобновился и продолжил свой рост. Просто ушли слабые.

        С ИИ, в отличие от доткомов, ситуация более оптимистична. Так как их оценка построена не только на ожиданиях. У них уже есть реальные доходы.

        Падение наверное всё-таки будет, но предположу, что гораздо мягче, чем с доткомами.


        1. DarkDGG
          14.01.2026 13:05

          Всё же у LLM, помимо реальных доходов, есть абсолютно нереальные убытки. Если брать именно производителей самих моделей, а не тех, кто ими пользуется.