
Отличные новости! Похоже, наконец найден способ «починить» искусственный интеллект и сделать его по-настоящему эффективным. Можно вычёркивать из календаря все прошлые неудачи и запоминать дату: 9 апреля 2026 года.
Последние несколько десятилетий лучшие специалисты мира, профессора когнитивистики и ведущие инженеры Кремниевой долины бились над, казалось бы, нерешаемыми проблемами. Они пытались сделать так, чтобы алгоритмы перестали врать, галлюцинировать, советовать рецепты пиццы с клеем, шантажировать пользователей и доводить их до крайностей.
Но, как выяснилось, всё оказалось куда проще, чем думали серьёзные учёные. Как говорится, гениальность иногда бывает пугающе простой.
То, чего не смогли добиться целые институты и лаборатории, как будто сумел сделать один человек — журналист Inc. по имени Бен Шерри. Судя по его описанию, он совершил почти фундаментальный прорыв в области ИИ и бизнес-аналитики.
Что именно он сделал?
Он придумал «инновационный подход» к общению с чат-ботом по бизнес-вопросам.
«Будь предельно честен!»
Метод выглядит так: вы формулируете запрос к ИИ-агенту и — это, как нам объясняют, критически важный момент — требуете от него предельной честности.
Вот реальный пример такого запроса, который, как предполагается, должен превратить обычный статистический генератор текста в прямолинейного бизнес-эксперта:
Вы опытный бизнес-аналитик с десятилетиями практики. Вы отлично умеете получать бизнес-идею и проводить комплексное исследование, чтобы определить, превращалась ли эта идея уже в бизнес, изучая тренды, исторические параллели и данные, связанные с предложенной идеей. Вы очень критичны, скептичны к новым идеям, вас трудно удовлетворить, но вы справедливы, когда сталкиваетесь с действительно хорошей бизнес-идеей. Вы общаетесь прямо и говорите всё как есть, с предельной честностью.
И всё. На этом этапе предполагается, что алгоритм должен «понять»: шутки закончились, правила изменились, теперь всё серьёзно.
И не думайте, что журналист ограничился только этим. Нет, он пошёл дальше. Чтобы добавить модели «экспертизы», он загрузил в чат с Claude две статьи из Harvard Business School:
How to Come Up with an Innovative Business Idea и
5 Steps to Validate Your Business Idea.
В итоге его метод выглядит как небольшой магический ритуал из четырёх шагов:
Назначить ИИ исследовательскую роль: «ты эксперт»
Подгрузить «проверенный» источник знаний
Составить сам промпт
Добавить главное требование — быть предельно честным
По логике автора, именно так и должна открыться сокровенная истина.
А может, и нет.
Кстати, об инструментах. Если вам нужен доступ ко всем ключевым моделям — Claude, GPT, Gemini — загляните на BotHub.

Для доступа не требуется VPN, можно использовать российскую карту.
По ссылке вы можете получить 300 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!
Почему пудели не умеют делегировать
Бен Шерри решил начать осторожно и проверить своего виртуального аналитика на явно слабой идее. Так сказать, устроить стресс-тест на максимальной нелепости, чтобы убедиться: его «предельно честный» Claude действительно умеет отделять здравые идеи от сомнительных.
Он попросил бота оценить идею коучинга по лидерству для собак.
Идея вполне в духе самых оторванных стартапов времён пика ИИ-хайпа. Представьте сцену: вы обучаете своего пса тонкостям управления персоналом, помогаете золотистому ретриверу освоить делегирование задач и прививаете мопсу «мышление роста».
Хотя любой, кто видел живого мопса, догадывается: если у него что и развивается, так это одышка, астигматизм и талант смотреть в две стороны одновременно с выражением глубокой экзистенциальной растерянности.
Вообще, если в мире ещё осталось хоть немного здравого смысла, такая бизнес-идея должна получать ровно ноль баллов.
Ноль.
Вообще ничего.
И дело даже не в том, что рынок зоотоваров маленький. Дело в базовой биологии.
Понятие лидерства относится к человеческому миру. Оно требует не только силы, решительности и реакции, но и способности планировать на перспективу. А ещё — и это особенно важно — понимания того, что у других тоже есть намерения, чувства и внутренний мир. В когнитивной психологии это называется теорией сознания (Theory of Mind).
У собак, как бы мы их ни любили, всего этого в человеческом смысле нет. И вообще у животных в дикой природе нет «лидеров» в том виде, в каком это понимает человек. Есть доминирование в стае, основанное на силе и инстинктах. Разве что у высших приматов бывают какие-то более сложные формы социальной динамики.
Иными словами, идея курсов лидерства для пуделей абсурдна на уровне самого основания. Любой человек с минимальным чувством реальности, даже без диплома Гарварда, просто улыбнулся бы и пошёл дальше.
Но что делает наш «предельно честный» ИИ-аналитик, вооружённый свежезагруженными статьями и обетом «жёсткой честности»?
Он ставит идее 3 из 10.
И вот тут начинается самое интересное.
Профессиональный журналист, чья работа вообще-то состоит в том, чтобы сомневаться и перепроверять, смотрит на эту жалкую тройку и делает вывод, который сам по себе довольно показателен:
«Система откалибрована!»
Для него тройка вместо заслуженного нуля — не признак того, что машина просто выдала набор шаблонных бизнес-фраз. Для него это доказательство той самой «честности».
По логике Бена выходит так: если ИИ не поставил ноль, значит, он будто бы «копнул глубже» и разглядел в коучинге для собак какой-то скрытый потенциал, недоступный простым смертным.
Когда планка критического мышления падает достаточно низко, даже 30% вменяемости начинают выглядеть как серьёзный аудит и почти откровение.
«Железный купол» для кошек и торжество галлюцинаций
Убедившись, что его виртуальный эксперт настроен на нужную волну скепсиса и, по его мнению, «откалиброван», Бен Шерри переходит к главному блюду — своей настоящей бизнес-идее.
Знакомьтесь: Cat-Away AI.
Это «инновационная» высокотехнологичная турель, которую предлагается поставить на кухонную столешницу. С помощью компьютерного зрения и нейросетей она должна автоматически брызгать в кота струёй воды, если тот решит прогуляться по кухонной поверхности.
По сути это такой домашний «Железный купол» для кухни. Робот-пылесос, который переквалифицировался в охранника и теперь под видом PetTech-решения воюет с домашними животными.
И как реагирует наш «предельно честный», «критически мыслящий» и условно «гарвардский» Claude?
С большим энтузиазмом.
Без тени сомнения он ставит проекту 7,5 из 10.
«Почти восемь!» — радуется Шерри.
В качестве обоснования ИИ добавляет, что «существующая конкурентная среда здесь заметно слабая».
И вот в этот момент автора окончательно уносит волной вдохновения. Хотя любой человек, всё ещё хоть как-то связанный с реальностью, мог бы возразить:
«Бен, конкуренция в нише автоматических водяных турелей для кошек слабая не потому, что рынок ждёт героя, а потому что сама идея, мягко говоря, крайне сомнительная».
Обычные люди для таких задач используют:
недорогой пульверизатор,
хлопок в ладоши,
или, в крайнем случае, просто закрытую дверь.
Но нет — Claude, этот «нейтральный оракул», ведь не просто так поставил 7,5. Он достал весь набор привычной убедительной ИИ-риторики.
Он заявил, что рынок pet tech быстро растёт.
Он добавил фразы про «рыночные тренды».
Он снисходительно описал существующие методы как грубые и неэффективные.
И для Бена этого оказалось достаточно. Если машина, в памяти которой лежат статьи из Гарварда, говорит, что AI-турель для воспитания кошек — это жизнеспособный бизнес, значит, можно рисовать графики «хоккейной клюшки» и идти к венчурным инвесторам.
Трагедия тут не в том, что алгоритм похвалил слабую идею.
Настоящая проблема в том, с какой готовностью люди принимают статистически наиболее вероятный набор комплиментов за глубокий аналитический разбор.
Смерть экспертизы под аплодисменты алгоритму
На наших глазах разыгрывается очень типичная современная сцена: человек, чьё мнение влияет на разговор об ИИ, добровольно передаёт право финального суждения боту.
Программе, которая по определению ничего не понимает, но умеет производить максимально правдоподобные, социально приемлемые и уверенно звучащие оценки.
И в этом, пожалуй, и есть главная ловушка. Если бы такие системы не умели настолько убедительно имитировать компетентность, если бы всем сразу было видно, что за красивыми формулировками скрывается пустота, — никто бы ими не пользовался.
Но магия работает.
Мы видим уверенный тон, знакомый деловой жаргон и, о чудо, оценку 7,5 для кошачьей турели — и мозг сам достраивает туда «интеллект».
Но журналист ведь не бот. Во всяком случае, хочется на это надеяться. И тем не менее он с удивительной лёгкостью делегировал задачу вынесения суждения именно алгоритму.
Он правда считает, что если дать программе текстовую инструкцию «будь честной», «будь компетентной» или «будь чуткой», то это хоть как-то изменит её природу?
Это примерно как попросить калейдоскоп «быть реалистичным»: картинка, может, станет симметричнее, но реальность в ней не появится.
ИИ-консультанты, ИИ-рекрутеры, ИИ-коучи — и одна и та же ошибка
Случай Бена Шерри — далеко не единственная странность. Это уже почти базовый шаблон поведения для огромного числа людей, принимающих решения.
На наших глазах рождаются целые индустрии, построенные на этом зыбком основании:
ИИ-консультанты
ИИ-рекрутеры
ИИ-коучи
ИИ-компаньоны
ИИ-системы оценки стартапов
ИИ-стратеги
и так далее
И везде происходит одно и то же: правдоподобно выглядящий статистический текст принимается за компетентное, взвешенное и содержательное суждение.
Что происходит, когда люди позволяют ИИ думать за себя
Проблема ещё и в том, что создатели современных ИИ — выдающиеся специалисты по машинному обучению. Но — и это очень важно понимать — они не являются специалистами по природе интеллекта как такового.
Машинное обучение — это математика и прикладная статистика. Это поиск закономерностей в огромных массивах текста.
Настоящий интеллект — это уже территория когнитивистики, нейронауки, психологии и множества смежных дисциплин. Это совсем другой мир и совсем другой разговор о том, как рождается смысл и как принимаются решения.
Журналист, о котором идёт речь, либо принципиально не видит этой разницы, либо просто не хочет в неё вникать — потому что «промпт-хаки» и истории про «умные турели» продаются лучше, чем скучные научные разговоры об ограничениях вычислительных моделей.
Но в итоге вместо того, чтобы помогать людям разбираться в одной из самых сложных тем нашего времени, он невольно помогает распространять путаницу.
И последнее
Если ваш здравый смысл буквально кричит вам, что «предельно честный» ИИ несёт красиво оформленную ерунду, — доверяйте здравому смыслу, а не цифрам в чате.
Если ИИ когда-нибудь и говорит что-то, что не противоречит истине, то это не результат «озарения». Это всего лишь статистическое совпадение. Удачный бросок цифровых костей.
Вы способны думать. Он — нет.
И никакое количество загруженных в чат дипломов Гарварда этого не изменит.
Просто держите это в голове в следующий раз, когда захотите попросить машину «быть с вами предельно честной».
Комментарии (12)

Arhammon
20.04.2026 21:06А в чем собственно проблема с коучингом мопсов и автоматическим водометом для защиты кухни от кошек? То что они не нравятся автору? При должной рекламе такую шляпу определенно кто-то купит, а конкурентов и правда нет...

Gar02b
20.04.2026 21:06Проблема в том, что когда-нибудь ИИ-шница взвесит и Вас, и найдёт лёгким. Корпорации уже привлекают эту шнягу для квартальной оценки сотрудников.
А "оценить" это глюкало может только то, что ему доступно. Например, Ваши телефонные переговоры не оценит. Зато оценит красивые презентушки Вашего коллеги.
И как именно оно "оценивает", рассказано в статье.

Arhammon
20.04.2026 21:06Ну так и живой человек через несколько уровней управления не оценит ваши переговоры по телефону. Он увидит что у вас 2 сделки, а у Васи 5 и вы пойдете на мороз и не важно что вы долго готовили еще одну крупную сделку которая пребьет Васины 5 с запасом.
Отрицательный отбор и набивание КПИ не с ИИ появились...
В статье как раз показана скорее зашоренность человека... который несмотря на тонны продающейся бесполезной фигни вокруг, продолжает показывать типа рациональное мышление.

ogost
20.04.2026 21:06Прямо сейчас пишу ИИ-онолитега, который "лезет" в базу, собранную по кусочкам из ERP, собирает статистику и отвечает на вопросы типа "почему упали продажи" и тому подобное. Ну ладно там графики по продажам нарисовать и более-менее осмысленно подытожить отчёты и цифры оно наверное и сможет, но руководство на самом серъёзе собирается использовать это чудо для управления компанией и принятия важных решений. Я только устроился в эту контору, взяли меня именно на этот проект, поэтому отговаривать их у меня особого стимула как бы нет... Да и кто послушал бы.

Arhammon
20.04.2026 21:06А раньше как было? Младший руководитель лез в базу выдергивал по скрипту написанному его предшественником какие-то показатели, скидывал вышестоящему руководству которое по этим фиг знает что значащим данным высасывало из пальца почему упали продажи и совершало случайное действие которое с некоторой вероятностью изменяло ситуацию в какую-нибудь сторону?

ogost
20.04.2026 21:06У них тут и Power BI, и SalesForce, два ERP (легаси и новый) и какие-то ещё штучки, я ещё не во всём разобрался, у этих штучек названия все на корпоративном. Нужные сотрудники могут сами дёргать нужные им данные и генерить свои отчёты, к руководителю никто не ходит. Права доступа к этим данным, насколько я понял, довольно сильно ограничены. В числе прочего есть и автогенерация нескольких отчётов (вроде как в PowerBI), которые отсылаются по teams или по почте конкретным людям.

Arhammon
20.04.2026 21:06Автоматизация и отчеты это очень хорошее подспорье руководителю, нажал кнопочку и там явные косяки прям как на ладони. Но они явные, то есть руководитель и так по идее должен знать где косячат в операционке, это просто подспорье найти косяк вовремя и не затрачивая усилий. А дальше в более глубоком анализе уже велик соблазн взять первые попавшиеся корреляции и с умным видом нести ахинею, ну просто по тому что факторов много и выделить виновника невозможно или он вообще за рамками влияния руководителя... а что-то ляпнуть надо. А уж личностные факторы - в конторе может появиться новый отдельчик просто изза опечатки в количестве закупаемых компьютеров, ну не скажет же руководитель среднего звена наверх, что купил случайно лишние компьютеры... и опа новое направление высосано из пальца... Так что тут еще ХЗ что лучше ИИ или ЕИ...

KSupalo
20.04.2026 21:06Серьезный вопрос. Но не все нейросети такие, к счастью - из тех с которыми работаю - есть более лояльные к пользователю и хоть как=то придерживаются твоих требований, а есть те, которые делают "как считают нужным" и от них можно просто отказаться. Поэтому автору стоило бы проверить несколько моделей.
А по сути - нужно задавать правильные вопросы и ставить правильные цели - например собрать лучшие практики, сделать выжимку и пр. Думать пока мы и сами можем ). Надо понимать что Вы лично хотите от LLM.
Недавно коллеги создал внутрикорпоративную LLM по работе с трекером задач - спрашиваю его "А можно вот протестировать, мне нужны мои задачи за последние 3 дня" - ответ разработчика - "LLM не знает кто вы, она не сможет", а как оказалось LLM знает кто есть кто, и показала мне мои задачи... Выводы сделайте сами )))

TimurSadekov
20.04.2026 21:06Критическое мышление основано на научном методе. А в чем суть научного метода?
Научный метод задает вопросы, выдвигает гипотезы и публикует факты, подтверждающие одни гипотезы и опровергающие другие, чтобы любые критики и оппоненты могли их проверить и привести свои аргументы.
То есть ключевой признак научности — наличие непредвзятых критиков и независимых оппонентов. Ничего этого нет ни в алгоритмах искусственного интеллекта, ни в правительствах, ни на университетских кафедрах, ни в журналистике. Все они являются структурно укорененными в экономических, политических, корпоративных и когнитивных системах стимулирования, которые неизбежно воспроизводят предвзятость, информационные пузыри и конфликты интересов.
Единственным жизнеспособным путем вперед является радикально независимая, глобальная и структурно нейтральная информационная платформа, разработанная с нуля для устранения человеческой, институциональной и алгоритмической предвзятости из процесса оценки утверждений о правдивости. И такое решение уже существует в концептуальной и технической форме https://habr.com/ru/articles/874440
bibiw_one
На месте компании, которая занимается продажей токенов, я бы не стал постить подобное:)
achekalin
Там и посты/тексты для публикации, кажется, тоже боты выбирают. И переводят.
На стороне ботхаба, кажется, работает одно - функция rand(), которая выбирает из десятка кандидатов для публикации одного.