
Пользователи ИИ предполагают, что их данные защищены. Но это может оказаться опасным заблуждением.
Все больше людей обращаются к чат-ботам не только с текстовыми запросами, но и с визуальными — загружают фотографии, чтобы определить высыпания, узнать название растения во дворе или отредактировать портрет для LinkedIn.
Однако по мере того, как взаимодействие с искусственным интеллектом через изображения становится привычным, эксперты по приватности предупреждают: пользователи могут делиться куда большим, чем они осознают.
Дисклеймер: это вольная адаптция статьи издания The Wall Street Journal. Перевод подготовила редакция «Технократии». Чтобы не пропустить анонс новых материалов подпишитесь на «Голос Технократии» — мы регулярно рассказываем о новостях про AI, а также делимся полезными мастридами и актуальными событиями.
Если у вас стоит задача интеграции ИИ в бизнес-процессы, то напишите нам.
Компании-разработчики ИИ нередко представляют загрузку изображений как временный процесс. Но что происходит с фотографиями после завершения сессии — вопрос гораздо менее прозрачный. С этим связаны риски: технические уязвимости, непоследовательные и размытые политики компаний и неопределенные сценарии дальнейшего использования данных.
«Важно не загружать фотографии, которые вы не хотите показывать никому, кроме себя», — отмечает Джейкоб Хоффман-Эндрюс, старший технолог в правозащитной организации Electronic Frontier Foundation. Но на деле слишком многие пользователи ИИ (как и интернета в целом) полагаются на приватность, которой может и не быть.
Что на самом деле показывают ваши снимки
По словам Хоффмана-Эндрюса, чат-боты с ИИ следует воспринимать как еще одно хранилище для ваших снимков — наподобие iCloud или Google Photos, но с дополнительными рисками. Самый очевидный из них — безопасность: такие сервисы могут быть взломаны, а учетные записи пользователей — скомпрометированы.
Но дело не только в этом. Компании сами имеют доступ к пользовательским данным. Чтобы оценить эффективность работы моделей, они регулярно просматривают выборку взаимодействий — в том числе загруженные фотографии. Это называется «человеческий контроль в цикле». То есть даже если пользователь удаляет переписку, она и её элементы могли уже попасть на проверку.
Это может показаться безобидным, если речь идет о фото цветка или снимке руки с сыпью. Но изображения зачастую содержат больше, чем намеревался показать человек. В них есть метаданные — например, место и время съемки.
Кроме того, на фото высокого разрешения фон может непреднамеренно захватить документы или банковские карты на столе. На снимке могут оказаться детали дома или офиса, а также биометрические данные других людей.
Если компании не удаляют метаданные, они получают целый массив информации о ваших привычках, местоположении и образе жизни, отмечает Дженнифер Кинг, эксперт по политике приватности Стэнфордского института человеко-ориентированного ИИ.
Это означает, что пользователи иногда невольно предоставляют компаниям бесплатные тренировочные данные для их моделей — и вряд ли согласились бы на это, имей они выбор.
А что по поводу политики персональных данных?
Вместе с метаданными существуют и разные подходы компаний к самим изображениям. Исследование Кинг показало: Microsoft не использует фотографии для обучения Copilot. Аналогично поступает Anthropic, разработчик моделей Claude. OpenAI же, напротив, применяет все данные для обучения, если пользователь сам не отказался от этого. Meta*, по данным Кинг, не дает пользователям в США такой возможности вовсе.
Хотя обычные фотографии вроде снимка из отпуска растворяются в массиве данных, некоторые изображения несут повышенный риск быть «запомненными» системой. Хоффман-Эндрюс выделяет два типа: фото, часто встречающиеся в сети (например, знаменитый снимок «Афганской девочки»), и снимки с уникальными чертами, делающими их статистическими аутлайерами.
Для большинства пользователей вероятность увидеть точное воспроизведение личных фото минимальна. Но проблема в том, что системе не нужно идеально копировать изображение, чтобы создать риск. Достаточно повторить характерную родинку, заметное заболевание или набор признаков, по которым фото можно опознать.
В зону риска также попадают фотографии, используемые для создания аниме-персонажей, профессиональных портретов или «омоложения» лица. Такие приложения требуют четких изображений лица, содержащих уникальные биометрические данные.
Даже внимательные к приватности пользователи могут столкнуться с нежелательной оглаской из-за путаных настроек. Так, когда Meta* запустила свой чат-бот, оказалось, что часть разговоров с загруженными фото и реальными именами оказалась доступна в общем публичном ленте приложения.
Неожиданное использование
Долгосрочный риск, предупреждает Сара Майерс Уэст, сопредиректор AI Now Institute, в том, что сегодняшние загрузки могут однажды использоваться совсем иначе, чем задумывалось изначально.
Microsoft, Anthropic, Meta* и OpenAI утверждают, что не передают данные третьим лицам. Но компании могут сохранять фотографии, и пользователи не могут предсказать, каким образом они будут использоваться, когда технологии и стратегии бизнеса изменятся.
«Все, что вы загружаете, продолжает жить гораздо дольше того момента, когда вы взаимодействуете с системой», — говорит Уэст.
Что нужно проверить перед тем, как загружать фото в LLM
Ознакомьтесь с политикой использования данных и настройками обучения платформы
Отключите сохранение истории чатов
Не загружайте изображения с данными, которые могут вас идентифицировать, например с адресом
Не загружайте фотографии, которые вы не хотели бы, чтобы кто-то увидел или повторно использовал
*Meta признана экстремистской организацией и запрещена на территории РФ.
pol_pot
Не знаю как другие(скорее всего так же) а яндекс в своей алисе записывает каждый ход и потом показывает людям набранным с улицы поржать (они это называют обучением алисы но больше похоже на какой то внутренний распил).
Вообще это логично, если не просматривать логи чат бота то как ты узнаешь о проблемах и исправишь их, юзеры никогда в жизни не сообщат, у них в голове такой концепции вообще нет, они даже не знают что ошибка это ошибка.