Нейросети при тщательно проработанном текстовом запросе генерируют достаточно качественные изображения. Зачастую их сложно отличить от творений человека.

Для идентификации изображений, сгенерированных ИИ, нейросети встраивают в них незаметный цифровой водяной знак. Например, Google для своих моделей использует технологию SynthID. Подробности о скрытых знаках, естественно, не раскрываются.

В статье расскажем, для каких целей маркируются изображения ИИ и существуют ли способы удаления таких скрытых водяных знаков.

Как определить, что изображение создано ИИ

Есть три способа: визуальный, посредством чтения метаданных и с помощью AI-детекторов.

Визуально

Сгенерированные нейросетью изображения отличаются от реальных такими паттернами:

  • характерные искажения в текстурах, особенности освещения или теней;

  • неправильное отражение (в воде, в зеркале);

  • отсутствие естественного шума (реальные фото содержат шум сенсора);

  • слишком идеальные градиенты, неестественно плавные переходы.

Ошибки в анатомии (многорукие многоноги) и странные пропорции людей, животных, предметов также указывают на искусственный интеллект.

Сколько ног?
Сколько ног?
Разные зрачки, слишком гладкая кожа
Разные зрачки, слишком гладкая кожа
Неправильное отражение в воде
Неправильное отражение в воде

С помощью метаданных

Через форматы EXIF и XMP в изображениях автоматически записывается техническая информация (параметры и настройки камеры, геолокация, данные о редактировании и другие метаданные). Формат IPTC содержит описательную информацию (название, авторские права, подпись и другое), которая заполняется вручную в редакторе.

Все три формата независимы друг от друга и могут присутствовать в файле одновременно. Проверить метки можно в свойствах графических файлов и с помощью специальных программ, например, ExifTool, Adobe Bridge, WildBit Viewer, PhotoME.

В свойствах файла в строке Атрибуты отображается значение AI (искусственный интеллект).

AI-детекторы

Модели-детекторы обучаются на миллионах реальных и сгенерированных изображений, чтобы отличать одно от другого. Нейросетевой детектор проверяет, есть ли в его базе похожие ИИ-сгенерированные изображения. Если обнаруживается совпадение, система помечает картинку как искусственную.

Детектор Hive Moderation определяет картинку с вероятностью 99,9 % как творчество AI
Детектор Hive Moderation определяет картинку с вероятностью 99,9 % как творчество AI

Также AI-детекторы распознают скрытую информацию, которую нейросети встраивают в генеративные изображения. Первым о технологии скрытых меток заявил Google, представив инструмент SynthID для маркировки сгенерированных изображений. Цифровые водяные знаки размещаются среди пикселей. Они незаметны для человеческого глаза, не влияют на качество изображения и определяются специально обученными нейротехнологиями.

Скрытые знаки позволяют отслеживать происхождение контента.

Правовой аспект генерации изображений нейросетями

Относительно изображений, созданных с помощью ИИ, нет единого правового урегулирования. В разных странах законы по-своему трактуют авторские права на генерируемый нейросетью контент. Поэтому следует внимательно изучать пользовательское соглашение, прописанное на ИИ-платформе, которой вы пользуетесь, и проверять лицензию генератора.

Требования и разрешения у нейросетей отличаются. У каждой — свои правила относительно коммерческого использования изображений. При этом с ростом популярности каждая нейросеть всё больше добавляет ограничений. Например, Stable Diffusion на платформе Playground AI на первых порах разрешала использовать все сгенерированные изображения в коммерческих целях, в том числе и на бесплатном тарифе. По мере развития постепенно вводились ограничения на количество бесплатных генераций и ужесточались правила о передаче прав на изображения.

Сегодня использование изображений, созданных искусственным интеллектом, может быть ограничено или запрещено в следующих случаях:

  • Нарушение авторских прав. Нейросети обучаются на фотографиях и картинах известных (и не очень известных) художников. Эти произведения изобразительного искусства могут являться объектами авторского права. Если ИИ-генератор создал изображение, слишком похожее на работу реального художника, то использование таких картинок в коммерческих целях может привести к судебным искам. Если художник не давал согласия на использование своих произведений для обучения нейросети, он вправе заявить о нарушении своих авторских прав. Судебные прецеденты уже существуют.

  • Незаконный, запрещённый законодательством контент.

  • Создание фальшивых документов (паспортов, водительских прав, сертификатов, справок и т. п.).

  • Генерация поддельных фотографий для доказательства в суде или СМИ.

  • Использование deepfake-изображений для клеветы или шантажа, дезинформации (например, поддельные фото знаменитостей или политиков).

  • Нарушение правил ИИ-платформ: когда не соблюдается требование указывать, что изображения созданы искусственным интеллектом.

Поэтому, если вы планируете использовать AI-изображения в коммерческих целях, важно внимательно изучать условия использования нейросетей и учитывать возможные юридические последствия.

Зачем в изображения встраивают скрытые цифровые водяные знаки

Чем совершеннее становятся генеративные нейросети, тем острее встают вопросы этики и безопасности, связанные с использованием AI-контента.

Технические артефакты, которые присутствуют на изображениях после ИИ-генерации (такие, как лишние ноги), можно заранее исключить условиями промпта. И картинка будет выглядеть максимально естественно. А метаданные в файле легко удалить тем же софтом, в котором их можно просматривать.

Поэтому, чтобы обозначить, что изображение создано искусственным интеллектом, нейросети используют алгоритмы, которые позволяют встраивать в изображения скрытые цифровые водяные знаки. Скрытые водяные знаки становятся важным инструментом для маркировки изображений, помогая бороться с нарушением авторских прав, фейками и незаконным использованием сгенерированных материалов.

Можно ли удалить скрытые знаки ИИ на изображениях

Те, кто используют нейрокартинки не только в личных целях, но и в коммерческих, и при этом не скрывают, что изображение создано при помощи искусственного интеллекта, приобретают платную подписку для доступа к генеративным моделям. После оплаты выдаётся лицензия на использование полученных изображений, что гарантирует безопасность с юридической стороны.

А вот те, кто желает выдать результат работы нейросети за своё творение, часто оказываются в числе тех, кто старается найти способы, как обойти систему распознавания ИИ.

В сети предлагаются различные способы удаления скрытых меток ИИ для обхода системы распознавания. Основные способы:

  • использование фильтров в графических редакторах (шум, зернистость, размытие и т. п.);

  • кадрирование (предполагается, что метки нейросети ставят на краях изображений);

  • цветовая коррекция.

Проведём небольшой эксперимент. Создадим в разных генераторах AI-картинки и проверим, как влияют эти «народные» способы преобразования на определение авторства искусственного интеллекта.

Определять, создано изображение человеком или ИИ, будем с помощью AI-детекторов: 

  • Undetectable AI

  • Hive Moderation

  • Illuminarty

Эти сервисы часто упоминаются в различных обзорах, бесплатные и не требуют регистрации. Также нет ограничений на количество проверок.

Для чистоты эксперимента протестируем сначала детекторы на «человеческих» картинках.

Фотография этого жизнерадостного пушистика появилась в интернете задолго до ИИ-генераторов.

Проверим фотографию на AI-детекторах.

Реальную фотографию все три нейросетевых детектора определяют как «человеческую» с высокой долей вероятности (97 – 98%). 

Посмотрим, как обстоят дела с иллюстрациями. Создадим простые картинки в Photoshop (белый фон и кисть).

Детекторы определяют эти картинки, как творчество человека.

Ещё примеры. Иллюстрации нарисованы в Photoshop «с нуля».

Как видим, в изображениях, сходных с паттернами нейросети, детекторы Undetectable AI и Illuminarty усматривают творчество искусственного интеллекта. А вот детектор Hive Moderation верно определяет принадлежность картинки.

А эта акварельная зарисовка была создана в Stable Diffusion и тщательно отретуширована. Вот результаты детекции:

Undetectable AI и Hive Moderation явно указывают на искусственное происхождение, а Illuminarty сомневается.

Далее проверим картинки, созданные нейросетью (Stable Diffusion, бесплатный тариф).

По результатам тестирования можно сделать вывод, что AI-детектор Hive Moderation верно определяет авторство как «человеческих» фотографий и картинок, так и нейросети. Поэтому для эксперимента по удалению скрытых водяных знаков в изображениях ИИ будем использовать именно этот детектор.

Создадим в разных генераторах по одному и тому же промпту простые картинки с лесным пейзажем. Нейросети генерируют весьма реалистичные фотографии природы. Но мы добавим акварельный стиль, чтобы получить не фото, а картинки.

Промпт:

«Акварельный лесной пейзаж, реалистичная вода, солнечный день, нежная атмосфера, высокая детализация, высокое качество».

Выберем нейросети, доступные для пользователей из РФ и с возможностью бесплатной генерации изображений. Бесплатные изображения нельзя использовать в коммерческих целях, только для личного эстетического удовольствия без извлечения прибыли. Логично, что вероятность скрытых знаков в таких изображениях выше.

  • ChatGPT

  • Flux

  • Kandinsky 3.1

  • Stable Diffusion

  • YandexART

Для манипуляций оставим картинки в тех же форматах, в каких их позволяют скачивать AI-генераторы.

Проверим сгенерированные картинки на детекторе Hive Moderation.

Все акварели определяются, как AI-изображения.

Выполним цветокоррекцию (уровни, кривые, яркость в Photoshop) и обрезку краёв (сделаем все исходные картинки квадратными). Снова пропускаем через детектор.

Теперь переведём изображения в чёрно-белое и посмотрим результаты проверки на детекторе.

Детектор по-прежнему указывает на искусственный интеллект.

Попробуем применить фильтр с размытием.

Как видим, даже после обработки (кадрирования, цветокоррекции, изменения формата) детекторы продолжают распознавать AI-изображения. То есть, помимо распознавания изображений путём сравнения с картинками в базе, AI-детектор определяет какие-то скрытые нейросетевые метки. Эти метки встроены таким образом, что их не убирают манипуляции с картинками.

Попробуем сильно изменить одну из картинок.

Пропускаем через детектор и видим, что всё равно определяются следы ИИ.

Можно, конечно, различными фильтрами добиться такого результата, когда детектор не найдёт признаков ИИ. Но цель изменений — это всё-таки красивая качественная картинка, которая не определяется как результат работы ИИ.

К тому же детекторы ИИ также как и генеративные модели постоянно совершенствуются и могут находить остаточные следы любых скрытых меток.

В будущем, вероятно, появятся способы обхода скрытой маркировки. Но уже сейчас ясно: если ИИ-платформы ограничивают использование сгенерированных изображений, обойти эти правила будет непросто. 


НЛО прилетело и оставило здесь промокод для читателей нашего блога:

-15% на заказ любого VDS (кроме тарифа Прогрев) — HABRFIRSTVDS

Комментарии (1)


  1. spirit1984
    12.08.2025 09:42

    Что мешает просто пережать картинки с другим расширением, чуть поменьше? По идее такой перевод резко затрет все метки.