Привет, Хабр. Меня зовут Таня Дорохова, я продуктовый дизайнер в Центре ИИ Контура.

За последние пару лет в интерфейсах появился новый паттерн — ✨. Магическая искорка сигналит, что здесь работает ИИ. Визуальный язык для новых функций, про это даже есть отличная статья на UX Design.

Но с маркировкой сгенерированного контента всё сложнее. Нет единого стандарта: кто-то прячет информацию, кто-то показывает крупный дисклеймер, кто-то вообще не маркирует.

Я столкнулась с подобной задачей в Контуре: в продукте речевой аналитики появилась функция обработки записей разговоров менеджеров. LLM помогает проверить соблюдение методологии в сотнях диалогов. Результат влияет на показатели менеджеров. Если не указывать использование ИИ — либо люди не поймут, что контент может быть неточным (риск конфликтов), либо вообще перестанут доверять продукту.

Я изучила практики разных компаний и родилась идея: уровни маркировки можно систематизировать как предупреждения на лекарствах.

⚠️ Это не официальный стандарт, а моя систематизация на основе подходов, которые используют другие.

Уровень 1: Витамины

Состав указан мелким шрифтом на обороте упаковки. Никто его обычно не читает, но информация есть.

Как выглядит в продуктах:

  • Метка может быть спрятана в меню с тремя точками. Например, так выглядит маркировка в Нельзяграмм и Яндекс.Директе.

  • Информация может содержаться только в FAQ.

Пример отображения в меню рекламы Яндекс.Директа
Пример отображения в меню рекламы Яндекс.Директа

Когда использовать: Развлекательный контент, низкие риски. Если ИИ ошибётся, ничего страшного не произойдёт. Например, если ИИ предложит странный фильм — пользователь просто не посмотрит его, ничего не сломается.

Уровень 2: Обычное лекарство

Пометка «Перед применением проконсультируйтесь с врачом» расположена на видном месте, но детали скрыты.

Как выглядит в продуктах:

  • Поиск в Google: «Обзор от ИИ» с иконкой Gemini, по клику открывается предупреждение о возможных ошибках.

  • Контур.Толк: блок «Создано ИИ Контура» с иконкой, дисклеймер появляется при наведении на (i).

В Толке есть несколько ИИ-функций: протокол встречи, краткий пересказ и транскрипция. Метка отображается под сгенерированным контентом.
В Толке есть несколько ИИ-функций: протокол встречи, краткий пересказ и транскрипция. Метка отображается под сгенерированным контентом.

Когда использовать: Поисковые системы, контент-платформы, средние риски. Пользователь видит, что контент создан ИИ, но подробности про риски — по запросу. Например, Обзор от ИИ Гугла может дать неточный ответ. Последствия? Пользователь загуглит по-другому.

«Обзор от ИИ» на примере… нестандартного запроса (это реальный скрин, где-то полгода назад). Дисклеймер отображается под ответом нейросети после клика на «Развернуть».
«Обзор от ИИ» на примере… нестандартного запроса (это реальный скрин, где-то полгода назад). Дисклеймер отображается под ответом нейросети после клика на «Развернуть».

Уровень 3: Рецептурный препарат 

Крупная надпись «ОПАСНО. Может вызвать побочные эффекты. Беречь от детей» — сразу на упаковке, невозможно не заметить.

Как выглядит в продуктах:

  • Чат-боты с LLM: под каждым ответом текст «ИИ может ошибаться, проверяйте информацию».

  • В интерфейсах, связанных с медициной и финансами показывают предупреждение о том, что сгенерированные результаты носят рекомендательный характер.

В ChatGPT предупреждение под полем ввода промптов
В ChatGPT предупреждение под полем ввода промптов
В Claude — под каждым ответом
В Claude — под каждым ответом

Когда использовать: Высокие риски — оценка работы людей, медицина, финансы. Если ИИ ошибётся, последствия серьёзные. Нужно не только информировать, но и снять ответственность с компании. Дисклеймер должен быть виден всегда, без действий пользователя.

Например, в сфере найма есть кейсы, когда ИИ оценивает резюме, это влияет на карьеру людей. Или если нейросеть даёт рекомендации по инвестициям — в конечном итоге именно человек понесёт убытки и возьмёт риски на себя.

Уровень 4: Сертификат качества 

Как защитная голограмма на упаковке — подтверждает подлинность.

Это не про интерфейс, речь идет о переносимых метках по стандарту C2PA — криптографически подписанные метаданные, встроенные в файл. Работает как «цифровая история происхождения» контента. Про это тоже есть хорошая статья на Хабре.

Как работает:

  • В файл встраивается метка: кто создал, когда, какими инструментами, какие изменения вносились.

  • Метка сохраняется при копировании и экспорте.

  • Можно проверить через специальные инструменты.

Примеры:

  • ChatGPT (DALL-E 3): картинки содержат C2PA метаданные.

  • Adobe Firefly: встраивает метаданные при генерации.

Когда использовать: Контент уходит за пределы платформы (новости, стоковые фото, медиа). Нужна защита от подделок и возможность проверить происхождение даже через месяцы.

Важно: В интерфейсе C2PA невидим пользователю. Это техническая защита, а не UX-элемент. Некоторые инструменты (например, Google SynthID) дополнительно встраивают водяные знаки прямо в пиксели — их сложнее удалить, чем метаданные.

Мой выбор: уровень 3

В моём продукте речевой аналитики две точки потенциальной ошибки:

  1. Речь могла быть распознана неточно.

  2. LLM мог неправильно интерпретировать текст.

Если ошибка случится, менеджер получит несправедливую оценку. Это конфликт, потеря доверия, проблемы для людей.

Поэтому я выбрала уровень 3, когда дисклеймер виден сразу рядом с анализом: «Искусственный интеллект может ошибаться или давать неточные результаты. Всегда проверяйте информацию».

Это не просто про прозрачность. Это про защиту обеих сторон: пользователь знает о рисках, компания не несёт ответственность за неизбежные ошибки модели.

Пограничные случаи

Некоторые продукты находятся на границе между уровнями. Пример: Яндекс Алиса в поисковой выдаче сразу показывает дисклеймер: «На основе источников, возможны неточности» рядом с иконкой. Хотя Google AI Overview (тоже поисковая система) использует уровень 2 с дисклеймером по клику, Яндекс выбрал уровень 3 — предупреждение видно сразу. И это оправдано, контекст использования может быть разным: условный поиск «рецепта борща» не равен запросу симптомов болезни в плане рисков. Формулировка предупреждения краткая и достаточно мягкая.

В Рerplexity все упоминания о том, что результаты носят рекомендательный характер спрятаны в документации. У меня есть предположение, что это связано с позиционированием продукта — быстрые и точные ответы (любой дисклеймер обесценивает это). Кроме того, в продукте выделяют ссылки на источники, чтобы мотивировать пользователя ознакомиться с ними самостоятельно. В Grok ситуация похожая. Илон Маск позиционирует этот инструмент как максимально правдивый ИИ без цензуры, поэтому в продукте избегают предупреждений, чтобы не «пугать» пользователей. Правда это обернулось скандалами и обвинениями.

Как выбрать свой уровень маркировки

Уровень и видимость

Последствия ошибки

Примеры применения

1: Скрытые в меню, в документации

Без последствий

Развлекательный контент, рекомендации для развлечений (фильмы, музыка)

2: Видимая метка, детали по запросу

Снижение качества. Не влияет на важные решения

Поисковые системы, саммари статей

3: Отображается постоянно

Влияет на деньги, здоровье, работу или репутацию

Медицинские и финансовые решения, оценка персонала

4: Невидима для пользователей

+контент распространяется за пределами продукта

Стоковые библиотеки

Чтобы определить подходящий уровень для вашего продукта, ответьте на три вопроса:

  1. Оцените последствия ошибки ИИ.

  2. Определите, насколько критично видимое предупреждение.

  3. Проверьте, уходит ли контент за пределы продукта (опционально).

Поделитесь, как вы решали подобные задачи в своих продуктах? Какой уровень маркировки выбрали?

Комментарии (4)



  1. GDragon
    22.10.2025 10:37

    Например, Обзор от ИИ Гугла может дать неточный ответ. Последствия? Пользователь загуглит по-другому.

    Пользователь загуглит по другому если пользователь УЖЕ в курсе того о чем он гуглит и поймет что ответ неправильный.
    Но нейросетка гугла, регулярно глючит и выдает ответы ПРЯМО противоположные своим же результатам поиска.
    А уж замечательные советы выпить уксуса при боли в горле, благо быстро пофиксили...


    1. tatydor Автор
      22.10.2025 10:37

      Согласна, пользователь продолжит гуглить только если понимает/подозревает, что ответ неверный. Но можно ли предусмотреть все риски и сценарии? Вспоминается легенда про кота, которого посушили в микроволновке, потому что в инструкции не было явного запрета. 

      С ИИ ситуация аналогичная или ещё сложнее + кроме очевидных рисков, есть проблемы локализации и культурных табу: что если на невинный запрос "что съесть на завтрак" ИИ порекомендует мусульманину яичницу с беконом? )

      Моя классификация — это попытка систематизировать подходы к маркировке исходя из рисков и последствий ошибок. Ваш комментарий показывает важный нюанс. Даже внутри одного продукта могут требоваться разные уровни маркировки в зависимости от типа запроса и контекста использования (звучит как дорого и сложно, но вдруг и до этого тоже доживём).


  1. Zippy
    22.10.2025 10:37

    зависит от клиента

    Одному можно впарить дороже потому кактут Ии - а это круто.

    другой скажет - если тут контент от ИИ то чего я должен за это ва платить