Инструменты LLM получили большую популярность практически во всех сферах IT, но из-за этого возникла очень серьёзная проблема: утечки информации. Многие пользователи случайно или по незнанию отправляют в облако конфиденциальную информацию о себе или своей компании. А попав на серверы AI-разработчика, эти данные могут (и будут) использоваться для обучения LLM, профилирования, социального моделирования, перепродажи и др. В любом случае, компании выгодно сохранять запросы пользователей навечно. Пользовательские данные — главный актив таких компаний, включая чат-сессии и документы.

Возникает вопрос: как работать с LLM, но отправлять запросы и получать ответы в зашифрованном виде, чтобы даже провайдер услуг и владелец LLM не имел доступа к этой информации? Эту проблему решает гомоморфное шифрование. Выполнение зашифрованных операций над зашифрованным текстом.


Гомоморфное шифрование — форма шифрования, позволяющая производить определённые математические действия с зашифрованным текстом и получать зашифрованный результат, который соответствует результату операций, выполненных с открытым текстом. Например, один человек может сложить два зашифрованных числа, не зная их, а другой человек — узнать зашифрованную сумму, не зная слагаемых. Гомоморфное шифрование позволяет оказывать различные услуги, не предоставляя открытые пользовательские данные для каждой услуги.

FHE использует криптографию на решётках (lattice-based cryptography), обучение с ошибками (Learning with errors, LWE) и внешне работает достаточно просто:

Для функции f(х) в клиент-серверной архитектуре это выглядит так:

Полностью гомоморфная криптосистема (Fully Homomorphic Encryption, FHE) поддерживает выполнение двух операций: сложение и умножение (в обычном гомоморфном шифровании — только сложение).

Промышленное использование FHE делает возможным следующие сервисы, среди прочего:

  • Зашифрованная нагрузка в облаке

  • Зашифрованная выдача LLM

  • Секретные смарт-контракты в блокчейне

По сути, FHE можно рассматривать как более продвинутую версию сквозного шифрования (E2E), но только во взаимодействиях клиент-сервер, и здесь даже провайдер не видит пользовательских данных на своём сервере в открытом виде. То есть теоретически можно организовать полностью зашифрованный канал между двумя пользователями (E2E) с сервером посредине между ними, на котором эти пользователи секретно обрабатывают свои зашифрованные данные. LLM-сервер просто выдаёт зашифрованный результат, но сам не понимает его.

Конечно, гомоморфное шифрование работает очень медленно, но производительность FHE-алгоритмов растёт примерно в 8 раз ежегодно. Криптография на решётках хорошо распараллеливается, поэтому отлично портируется на GPU. С 2010 по 2014 годы производительность FHE увеличилась в 10¹² раз:

Это многое изменит для интернет-бизнеса. Под угрозой окажутся целые отрасли экономики, у которых бизнес-модель основана на сборе пользовательских данных.

С другой стороны, повсеместное внедрение FHE означает масштабные изменения в информационной безопасности. Вот некоторые из последствий:

Типичная сессия с LLM может выглядеть таким образом:

# Ваше устройство
pk, sk = keygen() # pk: public key, sk: secret (private) key
enc_prompt = encrypt("Почему разработчик пошёл к врачу?", pk)
server.send(enc_prompt, pk)

# Серверы OpenAI (они никогда не расшифруют и не увидят ваш запрос)
enc_prompt, pk = client.receive()
enc_llm = encrypt(LLM_MODEL, pk)
enc_answer = enc_llm.run(enc_prompt)
client.send(enc_answer)

# Снова ваше устройство
enc_answer = server.receive()
answer = decrypt(enc_answer, sk)
print(answer)
"""Слишком много зависимостей!"""

Полностью зашифрованные чат-сессии с облачным LLM — не такое далёкое будущее. Например, стартапы вроде Duality обещают вскоре реализовать такие технологии для коммерческих (платных) клиентов. Пока что экспериментальный фреймворк поддерживает лишь очень маленькие, как Google BERT, и их приходится дополнительно настраивать для поддержки FHE.

Эта конкретная система работает на свободной библиотеке гомоморфного шифрования OpenFHE.

Вероятно, через несколько лет такие технологии станут доступны бесплатно для более широкой аудитории.

По теме:

Комментарии (1)


  1. fnlnz
    21.12.2025 20:41

    «Когда вы поймёте, что утечка информации – это не баг, то уже будет слишком поздно» © Сара Коннор