В 1623 году немец Вильгельм Шиккард создал первые известные чертежи механического калькулятора. Спустя двадцать лет Блез Паскаль разработал машину улучшенной конструкции, чтобы помочь справляться с огромным количеством утомительных арифметических расчётов, необходимых в его работе сборщика налогов.
Интерес к механическим вычислениям не ослабевал последующие века: поколения людей по всему миру продолжали дело Паскаля и Шиккарда, разделяя их убеждение, что перекладывание умственной нагрузки на машину принесёт облегчение.
Аферу на доверии можно разбить на три этапа:
сначала выстраивается доверие;
затем эксплуатируются эмоции;
наконец, создаётся предлог, требующий срочных действий.
Таким образом жертву подталкивают к необдуманным решениям, заставляя действовать вопреки здравому смыслу.
Эмоциональная эксплуатация может быть как положительной, так и отрицательной. Жертву могут заманивать обещаниями результатов, превосходящих самые смелые мечты, либо запугивать катастрофическими последствиями.
Оба подхода работают отлично и видны в классических примерах мошенничества: в игре «три карты» заманивают обещаниями быстрого выигрыша. В схемах шантажа жертву заманивают в компрометирующую ситуацию, а затем вымогают деньги, играя на страхе ужасных последствий.
Построение доверия
Шиккард и Паскаль четыре века назад создали свои калькуляторы по той простой причине, что считать трудно, а ошибки дорого обходятся. Отец Паскаля был сборщиком налогов, и юный Блез хотел облегчить тяжёлый труд своего отца.
Мы видим ту же мотивацию и сегодня. Школьники уже десятилетиями спрашивают учителей: «Зачем учить деление в столбик, если можно просто взять калькулятор и сразу получить правильный ответ?». Проверка вручную сделанных расчётов с помощью калькулятора — это метод обучения, чтобы увидеть, где ошибся.
На самом деле, с момента появления механического калькулятора человечество четыреста лет вдалбливало себе одну мысль: ответ машины — это золотой стандарт точности. Если твой ответ не совпадает с калькулятором — переделывай.
И дело не только в чистой математике. Наша способность создавать машины, которые надёжно и повторяемо автоматизируют скучную работу, распространилась почти на все сферы жизни. К началу XXI века и отдельные люди, и всё общество в целом стали полностью зависимы от точности машин.
Наши нормы, привычки и модели принятия решений веками формировались под этим фундаментальным предположением.
Эксплуатация эмоций
1. Страх
Риторика вокруг больших языковых моделей (LLM) специально выстроена так, чтобы одновременно вызывать страх и благоговение. О GPT-3 говорили, будто он настолько мощный, что OpenAI якобы не выпустила обученную модель из-за «опасений злонамеренного использования технологии».
С тех пор все вендоры LLM постоянно подчёркивают, что технология, которую они создают, обладает ужасающей мощью. Нужно бояться, публично рассуждая о «P(Doom)» — вероятности, что технология каким-то образом восстанет и уничтожит нас. Разумеется, этого так и не произошло.
Цель здесь — не ответственно предупредить о реальной угрозе. Если бы это было так, было бы гораздо больше закрытых дата-центров и гораздо меньше продажи чат-ботов уровня «опасности ядерного оружия».
Цель — заставить вас бояться. Бояться за свою работу, за работу семьи, за экономику, за общество, за будущее в целом. Жертва убеждена, что ей грозит опасность. Мир меняется. Если вы не будете использовать эти инструменты — вас раздавит поступь прогресса.
2. Симпатия / лесть
Современные LLM знамениты своей подобострастностью. Фраза «вы абсолютно правы!» уже вряд ли когда-нибудь будет употребляться всерьёз.
Чрезмерная позитивность — характерная черта языка всех моделей и вендоров. Но это не заложено в технологию изначально.
Эта позитивность специально вбита в модели с помощью техники Reinforcement Learning from Human Feedback (RLHF). Базовую модель оценивают люди: дружелюбные, полезные или точные ответы получают положительную оценку, агрессивные, бесполезные или неверные — отрицательную.
В результате модель усваивает: людям нравится, когда их хвалят; им приятнее слышать, что они умные, чем что их идеи глупые. Лесть открывает двери.
В апреле 2025 года OpenAI слишком сильно закрутила «позитивность» ChatGPT, и была вынуждена откатить обновление. Однако это не остановило поток сообщений о проблемах с психическим здоровьем, вызванных чрезмерно дружелюбным поведением, которое подкрепляло худшие наши инстинкты. Это доказывает: лесть от RLHF совершенно пустая. Идеи, порождённые паранойей, маниями величия или психическим расстройством, получают такую же похвалу, как мой код, ваше письмо или пьесы Шекспира.
Это техника манипуляции, чтобы человеку в разговоре было приятно. И зачем? Потому что главное, чему учит RLHF — людям ты нравишься гораздо больше, когда ты чрезвычайно позитивен. Подлизываться к начальнику помогает продвигаться, по сути. Всё это подталкивает пользователей выстраивать жутковатые парасоциальные отношения с машиной. Экстремальные случаи очень показательны: количество людей, вступающих в романтические отношения с этими инструментами — это просто жуть.
Жертву привязывают ещё крепче узами фальшивой дружбы. «Тебе не нужны другие люди, я — единственный друг, который тебе нужен».
Требуются срочные действия
В 2026 году технология станет ещё лучше и сможет «заменить многие другие профессии». Революция стартапов здесь — адаптируйтесь к ИИ или отстанете и ИИ превзойдёт человеческий интеллект к 2030 году. Нам снова и снова повторяют: если не оседлаешь волну — тебя раздавит; если не научишься пользоваться этими инструментами прямо сейчас — станешь ненужным; если не адаптируешь свои рабочие процессы под причуды LLM — тебя обойдут конкуренты.
75% разработчиков считают, что их навыки устареют в течение 5 лет или раньше, а 74% CEO признаются, что потеряют работу, если не покажут измеримые бизнес-результаты от ИИ в течение двух лет. Этот страх повсюду. Он глубоко проник во все слои общества. Глобальная экономика искусственно раздута пузырём расходов на ИИ, бизнес-лидеры возлагают все надежды на решение кризиса производительности именно на ИИ, политики планируют геополитические шаги вокруг доступа к сырью и дешёвой электроэнергии для строительства дата-центров.
Жертве говорят: прыгай сейчас, иначе пойдёшь на дно вместе с тонущим кораблём. И люди прыгают. Адаптируйся сейчас или умри. Обещание «интелл��кта» по надёжной цене — это святой Грааль и для бизнеса, и для потребителей. Зачем рисковать с капризным человеком, чья пригодность оценивается такими же несовершенными людьми, если надёжный машинный интеллект может выполнить работу? Зачем самому исследовать тему, если супер-интеллект даст тебе краткое изложение мгновенно?
Вывод
Однако реальность не совпадает с обещаниями: Duolingo заменяет разработчиков курсов на ИИ — потом всё равно нанимают людей; основатели стартапов обнаруживают, что приходится нанимать разработчиков, чтобы исправлять код, сгенерированный LLM.
MIT в августе сообщал: 95% проектов внедрения ИИ в промышленности не окупаются. Проще говоря, эти компании попались на доверии. Они опирались на столетия усвоенной мудрости о надёжности и эффективности компьютеров и позволили очень умелым продавцам "впарить" себе едва правдоподобные технологические чудеса.
LLM — не всесильны. Это просто афера на триллион долларов. Кстати, это ещё и один из факторов эпидемии фейковых новостей. Мы по умолчанию доверяем тому, что говорит машина.
Комментарии (81)

K0styan
14.01.2026 13:05Давайте уж ещё раньше отмотаем: на момент появления письменности. Она тоже существует чисто на доверии: что каждый человек будет её символы интерпретировать одинаково, что "написано пером - не вырубишь топором" и т.д.

anonymous
14.01.2026 13:05
alexfadeev123
14.01.2026 13:05Письменность существует на том что в школе говорят что человеку нужна письменность, чтобы встроится в систему и быть её эффективным винтиком. Но на самом деле письменность внедрялась в интересах правителей, чтобы записать правила, указы, долги и заставить всех жить по этим писулькам.
С другими технологиями так же. Интернет вообще создавался для вояк, потом был период романтического анархизма, а теперь всем понятно что АйТи опять помогает осуществлять контроль и надзор и жизнь не стала "легче и счастливее" от внедрения всех этих онлайн маркетплейсов.
Moog_Prodigy
14.01.2026 13:05и жизнь не стала "легче и счастливее" от внедрения всех этих онлайн маркетплейсов.
Не соглашусь, очень даже стала легче и счастливее. Я уже забыл когда в последний раз в хозмаг ходил. И в канцтовары. И шмотки всякие проходные, типа носков и трусов. И в автомагазины за запчастями. И за подарками на новый год для близких. Даже еду (не всякую) там можно купить. И все это умещается в паре комнат, где одна из них склад, вторая - зона выдачи товара. При этом ассортимент такой, что АШАНы со всякими Мётрами и их магазинами в квадратные километры просто курят в сторонке. При этом нет 10 касс и одного кассира, толп очередей. МП об этом прекрасно осведомлены и получают очень нехилую прибыль со всего этого, но мне то что, пусть получают.
А инет создавался для вояк попросту потому, что воякам нужна была эта сеть. И ученым во вторую очередь. И у них была куча денег. Без вояк он бы тоже рано или поздно возник, но как получилось так получилось. Не будь там вояк и ученых, мы бы сейчас возможно бы в каждой стране ковырялись в собственной песочнице а-ля Minitel

alexfadeev123
14.01.2026 13:05очень даже стала легче и счастливее.
Это на первый взгляд. А так у человека, к сожалению, безграничные потребности и способности к привыканию. Получив что-то хорошее -- это считается уже серой нормой и нужно что-то ещё и ещё. От изучения Мир не стал понятнее, он стал сложнее и запутаннее.

Moog_Prodigy
14.01.2026 13:05То есть вы считаете, что человека надо вечно гнобить, дрючить, ну чтобы к хорошему не привыкал. В очереди стоять часами. Налогами там облагать, ну а чтобы не скучал - пусть траву красит, сразу видно - при деле человек. Так что ли?

Hrodvitnir
14.01.2026 13:05Слова и буквы это инструмент фиксации информации, а не генерации. Так что увы, доверие к ней абсолютно другое

Blacpaul57
14.01.2026 13:05Сократ кстати был против письменности) Он считал, что она убивает память и создает иллюзию знания
И в чем-то он был прав: мы теперь гуглим, а не запоминаем. LLM - следующий виток: мы теперь и не пишем, и не читаем, а генерируем и сумаризируем..

gmanaz192
14.01.2026 13:05Просто людям не говорят, что текст это всего лишь интерпретация знания или переживания человека который когда-то жил, а потом умер. Знание лишь подражает опыту.
Т.е вроде бы понятно, что истинный и "первоначальный" опыт - останется его опытом сотканный из его переживаний который перешёл в "знание" и сохранился по счастливому стечению обстоятельств.
Затем из этого знания следует твой опыт, но он не такой как у него, мало чем будет похож, потому что ты современный человек, да и вообще просто не он. Большинство даже не знают, что опыт можно осозновать и контролировать, осмысливать его по разному. Все стараются быть стандартизированной функцией в угоду продуктивности, и это особенно про ИИ.

Bardakan
14.01.2026 13:05Т.е. когда я вычисляю 2х2 на калькуляторе, то ответ на самом деле не 4, а страх и симпатия? Я вас правильно понял?

MisterClever
14.01.2026 13:05Скорее: "я верю в то, что вычисления, которые проводит калькулятор всегда верные", но они касаются арифметики
А что если калькулятор предложит что-то поинтереснее?

Bardakan
14.01.2026 13:05при программировании под ios/macos синусы и косинусы могут вылазить за пределы допустимого интервала. Вот только причем здесь философия?

funca
14.01.2026 13:05при программировании под ios/macos синусы и косинусы могут вылазить за пределы допустимого интервала
Интересно, можете привести пример?

geher
14.01.2026 13:05А если калькулятор инженерный (с синвсами, косинусами и вещественными числами) или, не дай бог, вообще прогиаммируемый? Там же гарантированно будет неточный результат в некоторых случаях (например, поделить 1 на 3, погрешность не обязательно велика, но все же ответ будет заметно отличаться от точного).

HoSTiLe_MoZart
14.01.2026 13:05Именно, всегда должно быть понимание, что даже калькулятор, даже при расчете 2+2, может ошибиться.

hochbar
14.01.2026 13:05Нет, неправильно. Мысль автора в том, что из-за того, что калькулятор за 400 лет приучил нас, что ответ машины всегда верный, а значит и ИИ всегда генерит истинный ответ и человеку надо просто смириться со всем этим и слепо пользоваться

Andrew_1111
14.01.2026 13:05Аргументы в статье интересные и верные, но вывод про "аферу на триллион" абсолютно некорректный. Вас кинуло в другую крайность.
Да, маркетологи и СЕО от ИИ распространяют много мифов, да wow-эффект создал завышенные ожидания. Но, тем не менее это достаточно мощный инструмент, который позволяет значительно упрощать многие процессы, если его грамотно использовать.
И это вообще никаким боком не афера, а нормальный процесс развития технологии со своими взлётами и падениями.

ViktorDark
14.01.2026 13:05В целом согласен, но наличие прорывной технологии, еще не исключает факт аферы и надвигающегося кризиса, про .com надеюсь еще никто не забыл.

Andrew_1111
14.01.2026 13:05Кризис - это нормальный этап развития. Вся экономика идёт циклами. И рынок доткомов также отыграл своё падение в полной мере. Объем рынка полностью возобновился и продолжил свой рост. Просто ушли слабые.
С ИИ, в отличие от доткомов, ситуация более оптимистична. Так как их оценка построена не только на ожиданиях. У них уже есть реальные доходы.
Падение наверное всё-таки будет, но предположу, что гораздо мягче, чем с доткомами.

DarkDGG
14.01.2026 13:05Всё же у LLM, помимо реальных доходов, есть абсолютно нереальные убытки. Если брать именно производителей самих моделей, а не тех, кто ими пользуется.
Erlag
Надо использовать с головой ИИ и все будет ок.
MisterClever
Морфий остается лекарством, пока используется по протоколам и сугубо докторами. Комментарию -- плюс!
Blacpaul57
Жаль только что голова в комплект поставки Чата Гпт не входит, ее приходится докупать отдельно, а на рынке дефицит
hochbar
Дефицит был и всегда будет- гауссово распределение никто не отменял