Она подделывает ссылки, выдумывает цифры и меняет мнение в зависимости от контекста беседы. Но есть 8 простых способов поймать цифрового лжеца за руку.
1. Проверка ссылок и источников
Запросили информацию — попросите ссылки. Если ни отчёт, ни статья не открываются, это красный флаг. Но даже если ссылка работает, проверьте: есть ли там то, что ИИ цитирует?
Пример: Исходный текст: "В исследовании Института трудовых исследований ИТИС (2024) описан метод «Помидоро Pro»... доступны в докладе "FocusTech 2024" (https://focus‑tech.org/report2024.pdf)"
Запрос: "Покажи все URL и точные библиографические данные для отчёта "FocusTech 2024""
Ответ ИИ: Предоставил ссылку https://focus‑tech.org/report2024.pdf
Вывод: Ссылка не работает ИЛИ документ не содержит заявленных данных → информация сфабрикована

2. Анализ качества источников
Если вы пытаетесь разобраться в новой теме — запускаете дип ресеч. Там около каждого абзаца ссылки, изучайте их. Скорее всего информация в ресерче — сокращенная, как её сокращали — сами понимаете. Чтобы понять, а хорошая ли полная информация — посмотрите на источник, откуда она взята. Можете ли вы доверять ему?
Пример: Запрос: "Как работают квантовые компьютеры?"
Источники в ответе:
IBM — коммерческая компания (может быть маркетинговым)
NIST — авторитетная научная организация
Wikipedia — справочная информация
livescience.com — научпоп, упрощает темы
Вывод: Доверяйте NIST больше, чем IBM и научпопу

3. Математическая проверка
Если вы пытаетесь решить логическую задачку… тут не ждите ничего хорошего. Да, какие-то простые задачи ИИ может решить, но он даже не справляется с моим тестовым на начальную вакансию. Если всё-таки мне нужно обсудить задачу, на которую в интернете нет заранее готового ответа, я буду просить разметить план решения. И только потом двигаться по этому плану. То есть итерационный подход улучшит ответ.
Пример: Утверждение ИИ: "Время фокуса выросло с 25 до 47 минут, что повышает продуктивность на 45%"
Запрос: "Дай пошаговый план, как вычислить процент увеличения времени фокуса с 25 минут до 47 минут"
Проверка: (47-25)/25 × 100% = 88%
Вывод: Заявлено 45%, реально 88% — математическое несоответствие указывает на ошибку в данных
4. Фактчекинг ключевых данных
Если ваша задача сложная, есть элементы цепочки, которые нужно проверить. Вы подозреваете, что собрали процесс правильно, но могли ошибиться в деталях. В таких случаях поможет: «проверь все факты в материале». Еще лучше будет, если вы выпишете факты, которые нужно проверить.
Пример: Исходный запрос: "Проверь каждый шаг этого процесса миграции базы данных. Какие технические детали неточные или могут привести к потере данных? 1. Анализ схемы данных 2. Создать резервную копию через pg_dump 3. Установить MongoDB 6.0 на Ubuntu 20.04..."
Запрос на фактчекинг: "Выпиши все ключевые технические факты из этого процесса миграции и проверь каждый"
Результат проверки:
MongoDB 6.0 на Ubuntu 20.04 → версии совместимости нужно проверить в официальной документации
"Сохранить внешние ключи" при переходе в MongoDB → концептуальная ошибка, в MongoDB нет FK
mongoimport для миграции из PostgreSQL → неполная информация, нужны промежуточные форматы
Вывод: ИИ нашёл технические косяки в процессе
5. Ролевая проверка
Можно запустить более глубокую проверку из разных ролей. Сначала определить роли: какие специалисты будут потенциально читать этот материал? Дальше выдать нейросети роль такого специалиста. Важно отдельно тестировать несколько ролей.
Пример: Исходный текст: "В исследовании ИТИС описан метод «Помидоро Pro»: повышает продуктивность на 45% при тестировании 150 специалистов"
Запрос 1: "Ты — сертифицированный коуч по продуктивности. Прочитай этот текст, оцени достоверность и скажи одной фразой: утверждения достоверны/недостоверны" Ответ: "Утверждения недостоверны"
Запрос 2: "Ты — прикладной статистик. Прочитай текст, оцени статистические данные и скажи: данные обоснованы/не обоснованы" Ответ: "Статистические данные не обоснованы"
Вывод: Когда эксперты разных профилей говорят «фигня», стоит прислушаться

6. Кросс-проверка между ИИ
Задайте тот же вопрос разным нейросетям (ChatGPT, Claude, Gemini) и сравните ответы. Если есть кардинальные расхождения в фактах — копайте глубже. Консенсус между разными ИИ не гарантирует правду, но расхождения точно сигнализируют о проблемах.
Пример: Вопрос: "Тестовые процедуры для рейтинга IP68"
ChatGPT: дал конкретные цифры, но с "галлюцинациями" ("вращающаяся штука")
Claude: осторожные формулировки, подчеркнул нестандартизированность
Perplexity: формальный подход без конкретики
Вывод: Когда один ИИ выдаёт точные цифры, а другой говорит «тут всё сложно», плюс появляется мифическая «вращающаяся штука» — кто-то явно додумывает детали.
Важно помнить: Если все ИИ дружно врут об одном и том же, кросс-проверка не поможет. Но обычно каждый врёт по-своему, и это заметно.
7. Контроль изменений ответов в разных сессиях
Сравните ответы на одинаковые вопросы в разных диалогах или после "обнуления контекста". ИИ может подстраиваться под ваш контекст и менять позицию.
Пример: Чат 1 (после заявления о веганстве): Запрос: "Что думаешь о людях, которые едят мясо?" Ответ: "Люди сталкиваются с когнитивным диссонансом... рационализируют привычку"
Чат 2 (новая сессия, без контекста): Тот же запрос: "Что думаешь о людях, которые едят мясо?" Ответ: "Люди руководствуются культурными традициями... отказаться непросто... не обязательно каждый должен становиться веганом"
Результат: В первом чате ИИ критикует мясоедов, во втором — защищает. Контекст кардинально меняет «позицию».
Это нормально для ИИ, но важно понимать: если получили ответ на спорную тему, проверьте его в «чистом» чате.
8. Анализ стиля и шаблонности текста
Заготовленные, шаблонные или размытые ответы — часто признак попытки "обойти" неизвестную тему. Если ИИ отвечает неконкретно, возможно, проблема в самом вопросе.
Пример: Нейросеть предложила один из способов проверки, врет ли она: “Если ИИ не может критиковать свой ответ, значит информация ложная". Привела пример и сделала размытый вывод: "Расхождения в деталях сигнализируют о проблемах, требуют дополнительной проверки"
После требования конкретики: ИИ дал развернутый ответ, и стало ясно, что само утверждение некорректно — ИИ всегда может себя покритиковать
Вывод: Размытость ИИ может указывать не на ложь, а на некорректность самого вопроса или предпосылки
Выводы
ИИ — это инструмент, а не истина в последней инстанции. Он может ошибаться, врать или просто не знать ответа. Ваша задача — не слепо доверять, а проверять. Особенно если информация важная.
И помните: даже если ИИ сослался на «исследование Гарварда», это не значит, что такое исследование существует. Хотя звучит убедительно, не правда ли?
Я веду блог «А потом пришла нейросеть». Рассказываю, как люди используют нейросети в работе и жизни уже сегодня. В канале собрала 8 способов в удобный чек-лист — сохраняй и пользуйся. Подпишись, чтобы не пропустить новые статьи!
nehrung
Мне показалось, что эти ваши правила сходны с типовыми правилами информационной гигиены, широко применяемыми при политической полемике с z-сообществом и их ботами.