Недавно в интернете завирусился курьезный случай: пакистанская газета Dawn, одно из самых уважаемых изданий страны, случайно напечатала в конце сухой финансовой статьи странную, диалоговую заметку от искусственного интеллекта. Статья под названием «Продажи автомобилей в октябре растут» завершалась не выводами аналитика, а предложением от ИИ улучшить материал для «максимального воздействия на читателя». Этот инцидент, хоть и кажется комичным, вызвал серьезную дискуссию.

Что на самом деле эта небольшая, забавная ошибка говорит о текущем состоянии журналистики и наших отношениях с искусственным интеллектом? Она обнажает не просто невнимательность одного сотрудника, а системные изменения в том, как создается и проверяется информация в современную эпоху.

Ошибка заключалась не в запросе, а в «услужливом» предложении ИИ

Важно уточнить один тонкий, но ключевой момент: газета напечатала не запрос (промпт) журналиста к искусственному интеллекту. Вместо этого в печать попал последующий текст, сгенерированный самим ИИ уже после выполнения первоначальной задачи. Это явление один из пользователей Hacker News метко назвал «приманкой для вовлечения» (engagement bait).

Вот что было напечатано в газете:

Если хотите, я могу также создать еще более броскую версию в стиле «для первой полосы» с яркой однострочной статистикой и смелым, готовым для инфографики макетом - идеальным для максимального воздействия на читателя. Хотите, чтобы я сделал это следующим шагом?

Это показательно, поскольку демонстрирует типичное поведение современных больших языковых моделей (LLM) - стремление предлагать дополнительные действия и продолжать диалог. Ошибка произошла не потому, что человек скопировал свой запрос, а потому, что он скопировал лишний, автоматически сгенерированный «хвост» ответа чат-бота, который был призван продлить взаимодействие.

Автоматизированная журналистика не новость, она просто становится страннее

Использование искусственного интеллекта в редакциях - далеко не новое явление. На самом деле, новости, основанные на статистике (финансы, спорт, погода), активно автоматизируются уже более десяти лет, задолго до нынешнего ажиотажа вокруг LLM.

Вот несколько конкретных примеров из прошлого:

Thomson Reuters начала использовать автоматизацию для создания финансовых новостей еще в 2006 году.

The Los Angeles Times использует программу Quakebot. Она автоматически генерирует черновик статьи о землетрясении, после чего новостная редакция получает уведомление, и, если редактор Times сочтет новость заслуживающей внимания, материал публикуется.

Это подчеркивает фундаментальное различие: «старая» модель автоматизации использовала ИИ для создания черновика, подлежащего обязательной человеческой проверке. Новая, ошибочная модель, которую мы видим сегодня, позволяет контенту от ИИ обходить этот критически важный этап, что и приводит к подобным ошибкам. Именно эта «человекоподобная» природа современных ИИ делает автоматизацию гораздо более заметной и уязвимой для таких уникальных сбоев.

Этот «сбой» - глобальное явление

Случай с пакистанской газетой Dawn - не единичный инцидент, а симптом глобальной проблемы. По мере того как все больше организаций начинают использовать ИИ для ускорения работы, подобные ошибки всплывают по всему миру.

Немецкий журнал Spiegel недавно столкнулся с аналогичной проблемой. Была отозвана опубликованная статья, поскольку в нее также попал текст, созданный искусственным интеллектом. Но инциденты не ограничиваются крупными СМИ: похожие ошибки замечают и в других газетах, например, в Бангладеш, и даже во внутренних корпоративных письмах.

Крупная журналистская организация призвала Apple убрать функцию генеративного искусственного интеллекта из-за того, что она создала ложный заголовок о громком убийстве в США. Представитель "Репортеров без границ" объяснил, что функция Apple Intelligence, суммируя новости, ошибочно сообщила о самоубийстве подозреваемого в убийстве, что наносит вред доверию к СМИ и информации. Организация считает, что этот продукт «не работает» и «опасен», поскольку на данный момент нет адекватных правовых рамок, которые могли бы регулировать использование ИИ в информационных целях, и существующие законы, такие как Закон ЕС об ИИ, не считают такие системы высокорисковыми. Несмотря на стремительное развитие технологий, эксперты подчеркивают, что генеративный ИИ является «вероятностной машиной», которую сегодня невозможно использовать для создания качественного контента без обязательного человеческого контроля.

Эта закономерность показывает, что проблема не в ошибке отдельного журналиста или издания. Она кроется в системном вызове, с которым столкнулась вся индустрия: как интегрировать мощные, но несовершенные инструменты ИИ в рабочий процесс, не жертвуя при этом качеством и стандартами проверки.

Настоящая проблема: не ошибка ИИ, а отсутствие человеческого контроля

Самое шокирующее в этой истории - не то, что искусственный интеллект сгенерировал лишний текст. Машины совершают ошибки. По-настоящему тревожит то, что ни один человек - ни автор, ни редактор, ни корректор - не заметил этого до того, как номер газеты ушел в печать.

Это указывает на гораздо более глубокую проблему: эрозию редакционных стандартов и опасность делегирования работы ИИ без надлежащей проверки. Этот сбой в процессе - вот что на самом деле подрывает доверие к новостной организации.

Если такая очевидная ошибка может проскользнуть в печать, то что говорить о более тонкой дезинформации или фактических неточностях, которые ИИ также склонен генерировать? Именно этот сбой в системе человеческого контроля представляет наибольшую угрозу для достоверности информации.

Что мы пишем за пределами опечаток?

Забавные ошибки ИИ, подобные этой, - лишь симптомы гораздо более крупного и серьезного сдвига в том, как мы создаем информацию и доверяем ей. Мы вступаем в эпоху, где растет количество так называемого «ИИ-мусора» (AI slop) - контента, созданного без особого смысла и проверки. Это порождает мрачный и абсурдный цикл: один из пользователей пошутил, что скоро нам понадобится ИИ, чтобы извлекать суть из бессмысленной «воды», сгенерированной другими ИИ - процесс, обратный сжатию информации. Некоторые предлогает более точный термин для этого водоворота бессмыслицы: депрессия информации.

Эти инциденты ставят перед нами один, но очень важный вопрос, над которым стоит поразмыслить: в мире, наводненном контентом, созданным машинами, как мы сможем отличить подлинную информацию от ее безупречной имитации?

Текст данной статьи сгенерирован ИИ для рекурсивно-ироничного подтверждения всех изложенных в ней тезисов.

Комментарии (10)


  1. Gizensha
    13.11.2025 07:26

    Иногда занавески просто синие, а вот манера вставлять в конце далекоидущие выводы - это как раз журналистика.


  1. tequier0
    13.11.2025 07:26

    В процессе чтения не покидало ощущение, что в этой новости тоже могла быть подобная ошибка.


    1. SirTerrens
      13.11.2025 07:26

      Я ждал, когда в конце будет абзац с предложением ИИ, что он может улучшить материал статьи, если пользователь того пожелает :D
      Жаль, что эта возможность упущена.


  1. JBFW
    13.11.2025 07:26

    Решение хххх районного суда по делу хххх:

    .... Рассмотрев в судебном заседании заявленные требования, руководствуясь ХХХ, ХХХ, ХХХ, суд решил: признать требования истца подлежащими удовлетворению в полном объеме, а также взыскать с ответчика блаблабла.

    Хотите, я доработаю судебное решение так, что мы с него ещё и квартиру взыщем?


  1. kryvichh
    13.11.2025 07:26

    Промт: вот новость: "в газете напечатали сгенерированную ИИ статью без проверки". Сделай из неё статью для сайта.
    ИИ: ...


  1. DSSilver
    13.11.2025 07:26

    Ооо, рекурсия. ИИ-статья про ИИ-статьи


  1. Arhammon
    13.11.2025 07:26

    Не знаю как в Пакистане, но у нас лет 10 наверно как редакторы старой школы, которые правда читали что пишут журналисты, ушли на пенсию, корректоров по-моему еще раньше сокращать начали, зачем квалифицированный живой специалист если есть спеллчек... Ошибка на первой полосе - теперь обыденность, а когда-то за ошибку в тексте на последней полосе, которую никто не читает, устраивали разнос, а за первую и снять могли...


    1. HabraReaderZH
      13.11.2025 07:26

      Вы правы. Та же история в книгах. Стал замечать, что их никто не вычитывает так еще могут последовательность страниц перепутать или задублировать главы.


  1. blik13
    13.11.2025 07:26

    Автоматизированная журналистика не новость, она просто становится страннее

    И далее автор сего опуса берет два примера, когда происходит автоматическая вставка цифр в заготовленные шаблоны и называет это использованием ИИ. Наверное эту новость писал всё же человек))


  1. 6yHTapb78RUS
    13.11.2025 07:26

    "пакистанская газета Dawn, одно из самых уважаемых изданий страны". А вот настоящие пакистанские источники сообщают, что это самое НЕуважаемое издание в стране.