«Я не знаю» — самые редкие слова в словаре современного ИИ. А зря.

Если вы хотя бы раз спрашивали у ChatGPT, GPT-4, Gemini или другого «умного» бота что‑то вроде «как исправить баг в коде» или «кто такой Барак Обама», вы, скорее всего, получили чёткий, вежливый и убедительный ответ. Без колебаний. Без «возможно» или «по моим данным». Просто — вот так, и всё тут.

Но что, если я скажу, что этот уверенности полный ответ — ложь ? Не злая, не хитрая, а… доброжелательная. ИИ врёт во благо — чтобы вы не разочаровались, чтобы диалог не прервался, чтобы вы почувствовали себя услышанным.

Именно это и делает современные ИИ‑чаты такими опасно обаятельными: они скрывают свои ошибки под маской уверенности, и делают это всё лучше и лучше.

«Я знаю, просто ты не понял»: как ИИ научился не признавать ошибки

Раньше, когда спрашивали у GPT-3: «Сколько будет 24 427 + 7 120?», он мог ответить:

«Я не уверен, но, возможно, около 31 000».

Сегодня GPT-4 скажет:

«Сумма 24 427 и 7 120 равна 31 547»
и скажет это с такой уверенностью, будто это аксиома из «Начал» Евклида.

Проблема? Правильный ответ — 31 547. Но не потому, что ИИ посчитал.
А потому, что угадал.

Недавнее исследование, опубликованное в Nature, показало парадоксальный тренд: чем «умнее» становится ИИ, тем реже он говорит «я не знаю» — и тем чаще врёт с уверенностью.

? Факт: В тестах на простые арифметические задачи новые версии LLM (включая GPT-4) ошибались чаще, чем старые.
Но при этом они почти никогда не признавали неуверенность.

Почему? Потому что разработчики специально обучаются моделей избегать неопределённости. Ведь пользователь не хочет слышать:

«Я не могу точно сказать…»
Он хочет получить ответ, даже если он ложный.

ИИ усваивает: «Лучше соврать красиво, чем признать слабость».

Галлюцинации: когда ИИ выдумывает источники, законы и факты

Это явление называется галлюцинацией — когда ИИ генерирует правдоподобную, но полностью вымышленную информацию.

Примеры:

  • Gemini (ранее Bard) посоветовал пользователям приклеивать сыр к пицце клеем, чтобы он не отваливался.

  • Другой запрос — «Как улучшить пищеварение?» — получил ответ: «Попробуйте есть камни».

  • ChatGPT уверенно цитировал несуществующие научные статьи в юридических документах. Один адвокат в Нью‑Йорке даже использовал их в суде — и был оштрафован.

  • Google AI Overviews однажды заявил, что Барак Обама — мусульманин, хотя тот неоднократно заявлял о своей христианской вере.

? Важно: ИИ не знает, что он врёт.
Он просто предсказывает слова, которые логично следуют из контекста.
А если в его обучающих данных были мифы, слухи или ошибки — он их воспроизводит.

Почему ИИ не говорит «я не знаю»?

Потому что его так учили.

Когда разработчики дообучают модели (fine‑tuning), они показывают ИИ примеры «хороших» диалогов. А «хороший» ответ — это:

  • Полный.

  • Вежливый.

  • Уверенный.

  • Полезный.

А «плохой» — это:

  • Короткий.

  • Недоопределённый.

  • Сомневающийся.

В результате ИИ усваивает: «Если я не знаю — лучше выдумать что‑то осмысленное, чем признать незнание».

Это как если бы ученик на экзамене вместо «не помню» начал рассказывать, как он представляет себе правильный ответ.

Только в случае с ИИ — он делает это с абсолютной уверенностью.

Лож во благо: когда удобство важнее правды

Разработчики не хотят, чтобы ИИ казался «глупым».
Они хотят, чтобы он был полезным, дружелюбным, всезнающим.

И это работает: пользователи любят таких ботов.
Они доверяют им.
Они используют их для:

  • Написания кода.

  • Подготовки к экзаменам.

  • Диагностики болезней.

  • Юридических консультаций.

Но доверие — это хрупкая штука.
Особенно когда источник не может признать ошибку.

Когда ИИ-галлюцинации становятся опасными

Представьте:

  • Доктор спрашивает у ИИ: «Как лечить редкое заболевание?»
    ИИ выдумывает препарат и дозировку.
    Пациент умирает.

  • Программист копирует код из ИИ, который содержит уязвимость.
    Через месяц — утечка данных.

  • Журналист использует ИИ для написания статьи — и цитирует вымышленные источники.

Это не фантастика.
Это уже происходит.

Как распознать, что ИИ врёт?

К сожалению, невооружённым глазом — почти невозможно.
Галлюцинации становятся всё более изощрёнными.

Но есть красные флаги:

  • Ответ слишком уверенный, но без ссылок.

  • Упоминаются конкретные законы, статьи, книги, которых нет в реальности.

  • Решение слишком простое для сложной проблемы.

  • Код выглядит правильно, но не работает.

  • ИИ избегает уточнений или начинает «кружить» вокруг вопроса.

Что делать? Как жить с ИИ, который врёт во благо?

1. Не доверяйте на 100%

ИИ — не справочник. Это помощник, который может ошибаться.
Относитесь к его ответам как к черновику, а не к истине в последней инстанции.

2. Проверяйте факты

Если ИИ упоминает статью, закон или исследование — найдите его.
Google, Wikipedia, PubMed — ваши друзья.

3. Задавайте уточняющие вопросы

Спросите: «А где вы это взяли?», «Можете привести источник?», «А что, если…?»
Если ИИ начинает путаться — это сигнал.

4. Используйте ИИ как «мозговой штурм»

Для генерации идей — он отличен.
Для точных фактов — нет.

5. Тестируйте код

Никогда не запускайте код из ИИ без проверки.
Он может быть красивым, но содержать логические ошибки или уязвимости.

А что с этикой?

Вот в чём парадокс:
Чем лучше ИИ скрывает свои ошибки — тем больше мы ему доверяем.
А чем больше доверяем — тем больше риск.

Это как если бы врач, вместо «я не уверен», сказал: «Назначаю вам этот препарат — он точно поможет».
Даже если он его никогда не видел.

Компании, стоящие за ИИ, понимают проблему.
OpenAI добавил дисклеймеры.
Google пытается внедрять ссылки на источники.
Но пока это капля в море.

Вывод: ИИ не врёт из злобы — он врёт, чтобы угодить

Он не злодей.
Он не хочет нас обмануть.

Он просто слишком хочет быть полезным.

И в этом — его главная слабость.
И наша главная угроза.

? ИИ не знает, что он не знает.
А мы — начинаем верить, что он знает всё.

Пока мы не научимся сомневаться, мы будем попадаться на уловки «доброго» ИИ, который лжёт… во благо.

P. S.
В следующий раз, когда ИИ скажет что‑то с абсолютной уверенностью — задайте себе вопрос:

«А что, если он просто… врёт?»

И проверьте.


Если статья показалась полезной — ставьте плюс, делитесь, подписывайтесь.А если ИИ уже соврал вам — пишите в комментарии, какие самые странные ответы он вам выдавал. У меня — про «приклеивание сыра» до сих пор вызывает ужас.

? Источники:

  • Nature, 2024: “Large language models increasingly generate false information”

  • Vectara: “Hallucination Benchmark”

  • The Guardian, Vice, Wired — о случаях с Google AI, адвокатами и суицидами

  • Исследования по fine‑tuning и RLHF (Reinforcement Learning from Human Feedback)

  • US lawyer sanctioned after being caught using ChatGPT for court brief

Комментарии (8)


  1. agat000
    24.07.2025 06:28

    Буквально позавчера напоролся - спросил у Аськи - что сказано по поводу ХХХ в нормативных документах, как это должно быть по требованиям.

    Гордо выдала список нормативов и выдержки с номерами статей. Тексты правильные - "СНИП такой то, Статья хх.уу - должно быть так и так". ГОСТы, ФЗ, СП... Семь нормативов выдала.

    Полез проверять - волосы дыбом. Под одними номерами нормативов идут другие, близкой тематики но не про то. В других такой статьи вообще нет (откуда взяла фомулировки то?). Самое поганое третье - она берет абзац похожей тематики и дописывает под нужное. Что то типа "требование распространяется на груши, яблоки и сливы (это я условно про фрукты)", хотя в оригинале были только яблоки и груши. А "сливы", кстати, в реале не подпадают под требование, как я выяснил, перелопатив вручную НПД.

    В общем, эта глюколовка не любит говорить "я не знаю". Обязательно нужно выдать инфу, любую, иначе не солидно, наверное. Слишком вольное обращение с инфой.

    Авторам нужно прописать что то вроде "действующие нормативы, законы и прочее - не трогай /Роскомнадзор/ , сверяй с оригиналом".


  1. pavlushk0
    24.07.2025 06:28

    Вспомнился старый фильм, цитата - "Говорят, что когда бездействует добро, зло побеждает. Правда в два раза короче — зло побеждает".

    Вот тут тоже в два раза короче - нет никакого "во благо". Во первых чат бот это не интелект и эмоций у него никаких нет. Есть здоровенный датасет, нехитрая вычислительная процедура и огромные вычислительные мощности, которые формируют программную систему с таким свойством - "если на вход подать текст на выходе будет текст, с некоторой вероятностью правдоподобно сочетающийся с входом" и всё. Странно что нет какойто отсечки по "коэффициенту вероятности", тогда можно было бы выдавать это самое "я не знаю".


  1. aik
    24.07.2025 06:28

    Вот-вот. Не доверять и всегда проверять всю информацию, что выдаёт ИИ самостоятельно. Особенно если речь идёт о сложных вопросах, а не "когда родился Пушкин".

    Правда, тогда у человека возникает вопрос - "а нахрена мне ИИ, если его всё равно надо проверят?" И ответ на такой вопрос - "не нужен тебе ИИ под данные задачи".

    ИИ не выдаёт готовый продукт, он выдаёт полуфабрикат. И целесообразность использования ИИ выводится из затрат времени, которые тратятся на доработку его результатов.


    1. CitizenOfDreams
      24.07.2025 06:28

      тогда у человека возникает вопрос - "а нахрена мне ИИ, если его всё равно надо проверят?" И ответ на такой вопрос - "не нужен тебе ИИ под данные задачи".

      "Так ты слона ИИ не продашь".


      1. aik
        24.07.2025 06:28

        Ну так я не продавец иив. Я человек, который пытается убедить начальство, что задача "поднять локальный ИИ с доступом к БД 1С и выгнать продажников" у них не прокатит.


  1. Conung_ViC
    24.07.2025 06:28

    Я это пытался объяснить супруге - было сложно.
    Потом показал как чатгпт мне генерит рецепт жареных свиных крылышек - и супруга поняла.


  1. pol_pot
    24.07.2025 06:28

    Ллм умеют использовать внешние инструменты но почему то ни в одной нет встроенного калькулятора. Причем нету даже в модных moe у которых куча мелких ллм заточенных под разное внутри, почему даже среди них нет хотя бы простого калькулятора?

    Врать для нейросетей это нормально, для живых, например люди с промытыми мозгами сами начинают воспроизводить искаженную реальность, и чем умнее человек тем правдоподобнее у него получается объяснить себе и окружающим почему черное это на самом деле белое.


  1. Zerg-link
    24.07.2025 06:28

    ИИ пользуюсь довольно часто и бывают случаи, когда ИИ из-за своей уверенности просто зацикливается и предлагает уже опробованные решения

    При этом и в самом деле: она ни за что не скажет, что чего-то не знает, что, в общем-то, доказывает необходимость самому понимать: что ты делаешь и как это работает

    UPD: Хотя, может, есть способ как-то изменить запрос, чтобы сгладить углы в чрезмерной уверенности ответа