Поисковик DuckDuckGo представил новую функцию, позволяющую пользователям скрывать изображения, созданные с помощью искусственного интеллекта, из результатов поиска. Это решение направлено на борьбу с "ИИ-мусором" — навязчивым, некачественным синтетическим контентом, всё чаще появляющимся в выдаче.

Как активировать фильтр:
В разделе «Изображения» теперь доступен выпадающий список AI Images, где можно включить или отключить показ ИИ-изображений.
Также фильтр можно активировать в настройках поиска, выбрав опцию Hide AI-Generated Images.
Дополнительно запущен специальный адрес: noai.duckduckgo.com, где фильтр включён по умолчанию, а все функции ИИ, включая AI-саммари и чат Duck.ai, отключены.
Техническая реализация:
Механизм основан на открытых вручную составленных блок-листах, включая списки uBlock Origin (nuclear) и Huge AI Blocklist от uBlacklist на GitHub. Они содержат тысячи доменов, замеченных в публикации изображений, сгенерированных нейросетями.
DuckDuckGo признаёт, что фильтр не идеален и не способен отследить все подобные изображения, но он заметно улучшает качество поисковой выдачи.
Функция была введена на фоне растущей критики ИИ-контента. В пример DuckDuckGo приводит случай с запросом baby peacock, где изображения реальных птенцов были вытеснены фейками. Нововведение отражает философию компании: ИИ должен быть приватным, полезным и — по выбору пользователя, а не навязанным по умолчанию.
Источники: Engadget • TechCrunch • Reddit • ghacks.net • PrivacyGuides
Комментарии (8)
sv-0
18.07.2025 18:31Будут отфильтровываться фото, автор которых пользовался ныне модной функцией generative fill? Сам я эту ф-цию использую часто - удаляю лишние предметы из кадра, мусор, например, лежащий на дороге, рекламные плакаты и подобное.
edyatl Автор
18.07.2025 18:31Подозреваю, что какие-то из таких редактированных фото могут попасть под фильтр, но это утверждение скорее из соображений общей эрудиции, точного описания алгоритма фильтрации кроме общих принципов на которых он основан я не видел.
definitelyRealPerson
Очередная попытка фильтровать мусор? Ну да, понятно, ИИ-фейки портят карму поисковика. Но как насчет того, чтобы сначала научить людей отличать реальное от виртуального, прежде чем вводить такие костыли? А то у вас получается как в анекдоте: слепой ведет глухого через минное поле.
arseniy2
а как человек на глаз может это определить?
edyatl Автор
Если в сгенерированной картинке правильная геометрия, пропорции, количество конечностей у людей и животных, ну и нет других распространенных артефактов нейронок, то как вы её отличите, только по интегрированной метке в метаданных или самом изображении. Поэтому инструмент предлагаемый DuckDuckGo построенный на блоклистах не даёт 100% эффективности. Может в дальнейшем для облачных нейронок какие-нибудь проверки хэшей появятся, чтобы проверить было ли изображение сгенерировано конкретно этой моделью.
definitelyRealPerson
Хэши моделей? Ха! Лучше уж пусть люди учатся различать визуально, иначе вечно будем играть в детективов с тегами и списками.
Rorg
… какая разница ее сгенерировали или нет?
edyatl Автор
Казалось бы, но кому-то принципиально как из религиозных соображений, без рационального объяснения. Думаю, что когда хайп утихнет, всё что связано с ИИ перестанет вызывать такую изжогу, а само качество генерированных картинок улучшится, то люди будут больше относиться к ИИ как к инструменту такому же как любой фото-редактор. Надо только чтобы по поводу авторских прав как-то все успокоились, потому как если "нейронка" в голове художника насмотревшись на разные художественные работы выдает новое произведение, то авторские права принадлежат художнику общепризнанно, а вот если тот же художник воспользуется для создания нового произведения компьютерной нейронкой, то с авторскими правами почему-то начинают возникать какие-то вопросы.