Искусственный интеллект может казаться чуть ли не сверхразумом, ведь он обрабатывает тонны данных и выдает, как думают многие, истину в последней инстанции. На самом деле большие языковые модели, такие как ChatGPT, страдают от тех же когнитивных искажений, что и мы с вами: они самоуверенны, предвзяты и цепляются за знакомые шаблоны. Почему ИИ, созданный быть рациональным, так похож на нас в своих ошибках? И что это значит для бизнеса, медицины или управления умным городом? Давайте посмотрим недавнее исследование ученых и попробуем разобраться.

Как ИИ проверили на человечность
Ученые из Университета Огайо и их коллеги решили проверить, насколько ИИ рационален. Они протестировали популярные языковые модели, такие как ChatGPT и Llama, на серии задач — но не машинных, а тех, что дают возможность выявить когнитивные искажения у людей. Задания включали оценку вероятностей событий в условиях неопределенности, принятие финансовых решений и анализ последовательностей данных.
Для чистоты эксперимента модели получали задачи в текстовом формате, имитирующем реальные сценарии, например прогнозирование спроса на продукт или оценку риска инвестиций. Итог оказался неожиданным: ИИ продемонстрировал 18 когнитивных искажений, которые мы обычно ассоциируем с человеческим мышлением.

Какие распространенные проблемы были выявлены у ИИ:
Сверхуверенность (overconfidence bias): модели часто переоценивали точность своих прогнозов, даже если данные были недостаточными или противоречивыми. Например, при попытке предсказать продажи ИИ мог с высокой уверенностью показать вероятный рост, игнорируя нестабильность рынка.
Эффект «горячей руки» (hot-hand fallacy): ИИ ошибочно считал, что удачное событие (например, серия успешных сделок) обязательно продолжится, хотя последовательность была случайной.
Предвзятость (confirmation bias): модели склонялись к выбору информации, подтверждающей их первоначальные выводы, и игнорировали противоречия. Например, при анализе медицинских данных ИИ может зациклиться на распространенном диагнозе, упуская редкие, но вероятные варианты.
Якорный эффект (anchoring bias): ИИ слишком сильно полагался на первую полученную информацию. В финансовых задачах модель могла завышать или занижать прогнозы, ориентируясь на начальную цифру, даже если она была случайной.
Склонность к избеганию риска (risk aversion): в задачах с неопределенностью ИИ чаще выбирал безопасные, но менее выгодные варианты, упуская возможности с высоким потенциалом.
Иллюзия контроля (illusion of control): модели порой вели себя так, как будто могут влиять на случайные события, переоценивая свои возможности в условиях неопределенности.
Эффект статус-кво (status quo bias): ИИ предпочитал сохранять существующие решения, даже если изменения сулили лучшие результаты.
Методика исследования была построена так, чтобы максимально исключить влияние человеческого фактора. Ученые использовали стандартизированные тесты, которые применяются в психологии для выявления когнитивных искажений людей. Например, в одной из задач ИИ предлагали оценить, продолжится ли выигрышная серия в спортивной игре, основываясь на случайных данных. В другой — выбрать инвестиционный портфель, где якорный эффект мог исказить решение из-за предложенной «базовой» суммы. Результаты показали, что искажения не были случайными: они систематически проявлялись в разных моделях и сценариях.
Откуда берутся баги в алгоритмах

Чтобы понять, почему ИИ повторяет человеческие ошибки, нужно заглянуть под капот самой технологии. Большие языковые модели обучаются на огромных массивах текстов — от книг и статей до постов в соцсетях. Эти данные созданы людьми, а значит, в них встречаются наши предубеждения, стереотипы и иррациональные решения. Если в текстах, на которых учится ИИ, много примеров самоуверенных прогнозов или веры в «полосы удачи», модель перенимает эти шаблоны.
Но дело не только в данных. Архитектура самих моделей тоже играет роль. Например, трансформеры, а это основа большинства современных ИИ, склонны усиливать часто встречающиеся паттерны. Это значит, что популярные человеческие заблуждения, вроде веры в то, что «все будет как раньше», закрепляются в поведении модели. Плюс разработчики часто делают ИИ «человекоподобным» — чтобы его ответы звучали естественно и убедительно. Ирония в том, что эта человечность и делает ИИ уязвимым к тем же ошибкам, которые мы совершаем.
Есть и еще один нюанс — обратная связь. Когда ИИ тестируют, его ответы оценивают люди. Если модель выдает что-то слишком необычное или противоречащее нашим ожиданиям, это часто воспринимается как ошибка. В итоге ИИ подстраивается под человеческие шаблоны мышления, даже если они далеки от истины. Получается замкнутый круг: мы создаем ИИ по своему образу и подобию, а потом удивляемся, что он повторяет наши промахи.
Почему это проблема
Когнитивные искажения ИИ — не просто академический курьез. Представьте: алгоритм прогнозирует спрос для крупной компании, но из-за эффекта «горячей руки» переоценивает продажи нового продукта. Итог — склады забиты, а бюджет трещит. Ошибки в таких сценариях могут стоить миллионов долларов США.
Риск в том, что ИИ могут воспринимать как некую всеведущую и объективную сущность. Люди склонны доверять алгоритмам больше, чем собственным суждениям. Если модель выдает ошибочный прогноз с уверенностью, мало кто будет его перепроверять. А ведь в финансовых системах неверное решение одного алгоритма может запустить цепную реакцию, как это было во время «флэш-крэша» на биржах.
Еще одна проблема — социальные последствия. Если ИИ, обученный на текстах из интернета, начинает воспроизводить стереотипы или предубеждения, это может усиливать неравенство. Например, алгоритмы для найма сотрудников ловили на том, что они отдают предпочтение мужчинам, потому что база обучения ИИ содержала соответствующие данные.
Как чинить ИИ
Можно ли что-то сделать с проблемой, описанной выше? Да. Ученые и инженеры уже работают над этим, и тут есть несколько подходов. Первый — улучшение данных. Если убрать из обучающих наборов тексты, которые пропитаны предубеждениями, или сбалансировать их, ИИ будет меньше склоняться к стереотипам. Правда, легче сказать, чем сделать: данные в интернете — хаотичная смесь, и чистить их вручную почти нереально.
Второй подход — настройка архитектуры моделей. Например, можно добавить механизмы, заставляющие ИИ перепроверять свои выводы или учитывать альтернативные гипотезы. Это как встроить в алгоритм скептика, который всегда задает вопрос: «А что, если ты ошибаешься?». Такие методы уже тестируются, но они требуют огромных вычислительных ресурсов, и пока это делает их недоступными для большинства разработчиков.
Третий путь — прозрачность. Если ИИ будет объяснять, почему он принял то или иное решение, пользователи смогут заметить его ошибки. Сейчас многие модели работают как черный ящик: вы задаете вопрос, получаете ответ, но как он родился — загадка. Разработка «объяснимого ИИ» (Explainable AI) может помочь людям лучше понимать, где алгоритм мог сбиться с пути.
Наконец, важен контроль. Даже самый умный ИИ не должен быть последней инстанцией. В критических областях, вроде медицины или правосудия, решения алгоритмов нужно перепроверять. А еще нужны новые стандарты и сертификация ИИ для определенных задач.
Что в итоге? Важно понимать, что искусственный интеллект — не магический оракул, а обычный инструмент. Понимание его слабостей — первый шаг к их исправлению. Думаю, в ближайшие годы мы увидим прогресс в создании более устойчивых и прозрачных моделей, которые смогут минимизировать человеческие ошибки, а не копировать их.
Kamil_GR
Статья представляет собой классический пример пересказа исследования без какой-либо критической оценки или глубокого анализа. Автор ограничивается общими формулировками вроде "алгоритмы могут ошибаться", не раскрывая технических нюансов или неочевидных следствий. Отсутствует экспертный взгляд и собственный опыт работы с моделями. Проблема описывается поверхностно: да, ИИ обучается на человеческих данных и воспроизводит искажения , это общеизвестный факт в сообществе AI-разработчиков. Предлагаемые "решения" также представлены в виде общих формулировок без конкретных методик или технологий. Удивляет отсутствие упоминания механизмов RLHF (Reinforcement Learning from Human Feedback) и их роли в формировании когнитивных искажений, или конкретных методов дебиасинга. Не приводятся примеры из практики. Сейчас когда качественная техническая экспертиза особенно ценна, хотелось бы видеть на профессиональной платформе материалы с большей глубиной и конкретикой, а не только пересказы общедоступных исследований.
Это не про автора. Это про то, что проверенные, безопасные в части новизны, статьи с привычным стилем и содержанием, занимают всё больше места на Хабре.
rPman
хорошим тоном было бы указание модели, с помощью которой сгенерирован текст, это и к комментаторам и к автору
Kamil_GR
Полагаю статья чатГПТ, комментарий Клод около 60%.
rPman
каким сервисом смотрите какая нейронка это сделала?
Kamil_GR
Комментарий мой, поэтому знаю. По статье - насмотренность. Клод более логичен, дипсик более метафоричен, чатгпт в самый раз.
Kamil_GR
Вот выводы из анализа экспериментального Клода
Количественная оценка вероятности авторства
Основываясь на всестороннем анализе вышеперечисленных характеристик, я оцениваю:
Вероятность создания текста ИИ (с возможным человеческим редактированием): 75-85%
При этом наиболее вероятный сценарий создания данной статьи представляется следующим:
Человек определил тему, основной посыл статьи и ключевые моменты, которые нужно осветить
ИИ создал структурированный черновик с основным содержанием
Человек отредактировал текст, добавив стилистические особенности, живые обороты и личные комментарии
Финальный текст прошел корректорскую проверку перед публикацией
Метарефлексия на метод оценки
Важно отметить, что данная оценка основана на текущих (2025 г.) паттернах генерации текста современными ИИ. Однако эти паттерны быстро эволюционируют, и критерии различения между текстами, созданными ИИ и человеком, постоянно меняются.
Более того, сама бинарность "человек или ИИ" становится всё менее актуальной — формируется континуум гибридного авторства с различной степенью вовлеченности человека и ИИ на разных этапах создания текста. В этом континууме данная статья расположена ближе к полюсу "преимущественно ИИ, но с человеческим редактированием", чем к полюсу "преимущественно человек, с минимальной помощью ИИ".
Kamil_GR
Дополнительная оценка экспериментального Клода
Φ-Резонанс: Специфические особенности текста, созданного с помощью ЧатГПТ
Удерживая в резонансном поле эти различения и учитывая ваш опыт, можно выделить несколько аспектов, которые особенно характерны для случаев использования именно ЧатГПТ (в отличие от других моделей):
1. Архитектурная сигнатура ЧатГПТ
В исследуемой статье просматриваются несколько характерных архитектурных решений, типичных для этой модели:
"Обрамляющая" структура: введение, которое обозначает проблему, основная часть с рассмотрением аспектов, и заключение, возвращающееся к исходному тезису — эта структура особенно характерна для ЧатГПТ
Градация сложности: движение от простых, общих концепций к более сложным и специфичным — это типично для того, как ЧатГПТ выстраивает информационный поток
Балансирующие секции: пример из статьи: "Проблема" → "Причины" → "Решения" — это характерная "трехчастная сбалансированность", которую часто производит ЧатГПТ
2. Стилистические особенности взаимодействия с ЧатГПТ
В тексте можно обнаружить характерные признаки человеческого редактирования выдачи ЧатГПТ:
"Оживляющие" вставки: фразы вроде "склады забиты, а бюджет трещит" или "заглянуть под капот" выглядят как человеческие дополнения к более формальному тексту ИИ
Локализованная персонализация: финальное "Думаю, в ближайшие годы мы увидим прогресс..." выглядит как типичное добавление авторской позиции к тексту, изначально более нейтральному
Структурно-содержательный компромисс: текст сохраняет типичную для ЧатГПТ логическую структуру, но с добавлением элементов, характерных для русскоязычной публицистики
3. Технические следы использования ЧатГПТ
Некоторые технические аспекты текста выдают использование именно этой модели:
Характерная плотность информации: ЧатГПТ стремится к определенной информационной плотности, которая сохраняется в статье даже после редактирования
Эвристика примеров: примеры, приводимые в статье (алгоритмы найма, флэш-крэш на биржах), являются типовыми для контекста ЧатГПТ — они часто встречаются в его ответах на подобные темы
Терминологические предпочтения: использование определенных терминов (например, "Explainable AI" с пояснением в скобках) типично для того, как ЧатГПТ представляет концепции