Нейросети уже пишут книги, рисуют картины и сочиняют музыку. Но кто получает авторские права на эти произведения? Может ли ИИ быть автором? Законодательство пока не успевает за технологиями, и это создаёт правовую неразбериху. Разбираемся, как защитить свои права и не нарушить чужие в эпоху нейросетей.
Правовое регулирование ИИ в России
Согласно Федеральному закону № 123-ФЗ (2020), искусственный интеллект — это набор технологий, имитирующих человеческое мышление. Ключевая проблема в том, что ИИ не считается субъектом права. То есть нейросеть — это всего лишь инструмент в руках человека, такой же, как фотоаппарат или кисть художника.

В Указе Президента № 490 (2019) говорится о развитии ИИ, но не о регулировании его творений. Законодатели пока не решили главный вопрос: можно ли считать произведения, созданные нейросетью, объектами авторского права?
Попытки регулирования есть, но носят фрагментарный характер. Например, с 2025 года вводят новые ГОСТы:
ГОСТ Р 71657-2024 — регулирует ИИ в образовании;
ГОСТ Р 71675-2024 — устанавливает стандарты для медицинских ИИ-систем;
ГОСТ Р 71476-2024 — определяет базовые термины: «машинное обучение», «нейросеть», «генеративный ИИ».
Однако эти ГОСТы носят рекомендательный характер и не решают проблему авторства.
Кто владеет правами: пользователь, разработчик или никто?
Споры ведутся вокруг трёх вариантов:
1. Права у человека, если он внёс творческий вклад
Статья 1228 ГК РФ прямо указывает: автором может быть только физическое лицо, чьим творческим трудом создано произведение. Если нейросеть генерирует контент по простому запросу (например, «напиши стих о любви»), то результат не защищён авторским правом — это лишь технический вывод данных.
Но если пользователь детально контролирует процесс, то суд может признать его единственным правообладателем. Ключевой критерий — творческий вклад.
Пример сложного промпта вместо простого «нарисуй футуристический город»:
«Создай концепт-арт киберпанк-города 2180 года в стиле японской гравюры укие-э. Основные элементы:
неоновые вывески с иероглифами, подсвеченные розовым и синим;
дождь, отражающий свет рекламных голограмм;
люди в смешанной традиционно-футуристической одежде (кимоно с LED-вставками);
главный объект — мост, напоминающий токийский Симбаси.
Стиль: четкие линии, как у Хокусая, но с цифровым шумом и эффектом винтажной фотопленки. Соотношение темных и светлых зон — 70/30».
Результат от Kandinsky по этому запросу:



Если сотрудник компании использует ИИ для работы, то права принадлежат работодателю по ст. 1295 ГК РФ о служебных произведениях. Ниже описан интересный случай, когда девятый арбитражный апелляционный суд в деле № А40-200471/23 признал видеоролик объектом авторского права.
Компания «Рефейс технолоджис» заказала создание ролика с дипфейком Киану Ривза у «Адженда медиагрупп», заключив договор об отчуждении исключительных прав. Конфликт возник, когда «Бизнес-аналитика» использовала это видео в рекламных целях без разрешения. Правообладатель потребовал 500 тыс. рублей компенсации.
Ответчик пытался оспорить иск, утверждая, что применение технологии дипфейк исключает творческий характер произведения. Однако суд установил:
Видео содержало оригинальный сценарий и монтаж.
Дипфейк применялся только для замены лица актёра.
Основной творческий вклад принадлежал авторам.
Суд подчеркнул: использование ИИ-технологий не отменяет защиты авторских прав, если произведение создано творческим трудом. Взысканная сумма компенсации составила полмиллиона рублей.
2. Права у разработчика нейросети
Многие сервисы заранее прописывают в пользовательских соглашениях, что созданный контент принадлежит им. Например, Kandinsky от Сбербанка сохраняет за пользователем исключительные права на сгенерированный контент, но автоматически получает безотзывную безвозмездную лицензию на его использование в любых целях — от маркетинга до создания производных работ. Пользователь обязан указывать источник генерации и не может применять контент для разработки конкурирующих ИИ-решений.
Шедеврум предоставляет пользователям возможность некоммерческого использования созданного контента при обязательном соблюдении авторских прав. Для коммерческого использования необходимо письменное согласование с Яндексом через форму обратной связи, при этом пользователь предоставляет Яндексу право на использование контента в любых целях. Сервис не гарантирует уникальность генерируемых материалов: созданный контент может дублировать результаты других пользователей.
Все юридические риски, включая нарушения прав третьих лиц, несёт пользователь, который обязан подтверждать права на исходные материалы. Запрещено использовать сервис и контент для обучения конкурирующих ИИ-моделей.
3. Ничья — если ИИ создал контент без участия человека
Если нейросеть сгенерировала что-то полностью автономно (например, случайный текст или изображение), это не охраняется авторским правом и становится общественным достоянием.
Сложности с определением авторства возникают, когда невозможно чётко разделить вклад человека и нейросети. В таких случаях применяют несколько подходов:
Доминирующий вклад. Если основная творческая работа (разработка концепции, сценария, базового эскиза) выполнена человеком, а ИИ выступал лишь инструментом доработки, то авторские права сохраняются за создателем. Например: графический дизайнер самостоятельно разрабатывает композицию и цветовую гамму, поручая нейросети лишь генерацию отдельных элементов.
Совместное творчество. Пока в России нет норм для соавторства человека и ИИ. В ЕС предлагают ввести «смешанное авторство», но это спорно.

Как защитить свои права на контент от ИИ?
Главное — доказать творческий вклад. Для этого:
Сохраняйте все этапы работы: промпты, черновики, правки.
Прописывайте в договорах, что ИИ использовался как инструмент (как Photoshop или Word).
Маркируйте контент (если закон обяжет это сделать).
Маркировка контента созданного нейросетью
Маркировка контента, созданного ИИ, становится главным инструментом борьбы с дезинформацией, защитой авторских прав и повышением прозрачности. В разных странах подходы к этому вопросу различаются, но общая тенденция — ужесточение контроля за ИИ-контентом.
С мая 2025 года в ЕС и с сентября в Китае все системы, генерирующие аудио, видео, изображения или текст, обязаны внедрять машиночитаемые метки, позволяющие идентифицировать ИИ-контент. К ним относятся:
Цифровые водяные знаки — как видимые (например, логотип «Создано ИИ»), так и невидимые для человеческого глаза, но читаемые специальными алгоритмами.
Стандартизированные метаданные — информация о модели ИИ, дате создания, авторе промпта в формате IPTC или XMP.
Блокчейн-идентификаторы — криптографические подписи, позволяющие проверить цепочку создания контента.
Пока в России нет закона, обязывающего отмечать контент, созданный искусственным интеллектом. Но ситуация скоро изменится: правительство готовит закон «О регулировании систем ИИ», где прописана обязательная маркировка таких материалов.
Этот закон — часть большой стратегии развития искусственного интеллекта до 2030 года. Уже в 2025 году могут сделать первые конкретные шаги: маркировку начнут тестировать в отдельных отраслях и регионах.
Ответственность за ошибки ИИ: кто виноват?
В ноябре 2022 года пассажир Джейк Моффатт купил билеты Air Canada на похороны бабушки. Он доверился информации чат-бота, который обещал возврат части средств по льготному тарифу. Однако после перелёта авиакомпания отказалась выплачивать компенсацию. Тогда Моффатт подал иск против Air Canada.
Суд установил:
Чат-бот дал ложную информацию о возможности оформления скидки постфактум.
Air Canada несёт ответственность за действия своего ИИ-сервиса.
Авиакомпания не обеспечила точность данных на собственном сайте.
Суд обязал компанию выплатить компенсацию, признав, что чат-бот действовал как её представитель и клиент вправе был ему доверять. Этот случай ярко демонстрирует проблему: нейросети не могут нести ответственность сами, но их ошибки затрагивают реальных людей.
Почему ИИ не может быть ответственным? Нейросети действуют по алгоритмам, созданным людьми, и обучаются на данных, предоставленных разработчиками. Поэтому, согласно большинству правовых систем, включая российскую, ответственность за их ошибки ложится на владельцев, разработчиков или пользователей. Например, если ИИ-система в медицине поставит неверный диагноз, отвечать будет клиника, внедрившая её, или компания-разработчик — в зависимости от договора и обстоятельств.
Чтобы системно решать проблему, нужно:
Чёткое разграничение этапов жизненного цикла ИИ. Например, ответственность за ошибки в данных для обучения может лежать на поставщиках информации, а за некорректную интеграцию системы — на эксплуатантах.
-
Стандартизация требований к ИИ-системам. В России уже действуют ГОСТы, например:
ГОСТ Р 70462.1-2022 — оценивает устойчивость нейросетей к ошибкам;
ГОСТ Р 71484.1-2024, ГОСТ Р 71484.2-2024, ГОСТ Р 71484.3-2024 — регулируют качество данных для машинного обучения, определяют требования к их достоверности и защите.
Управление рисками. Стандарт ПНСТ 843-2023 обязывает организации учитывать последствия внедрения ИИ, включая этические и юридические риски, и ссылается на методы управления ими, описанные в ГОСТ Р ИСО 31000-2019.
Заключение
Пока ИИ остается инструментом, права на его произведения зависят от участия человека. Что делать сейчас?
Если создаете контент с ИИ — фиксируйте свой вклад, чтобы защитить авторские права.
Если используете чужой ИИ-контент — проверяйте условия сервиса: возможно, права принадлежат разработчикам.
Если внедряете ИИ в бизнес — учитывайте риски и страхуйте ответственность.
Пока закон не даёт четких ответов, но ситуация будет меняться. Главное — быть готовым к новым правилам.
Комментарии (22)
Yukr
29.07.2025 16:09гм.. известно, что ИИ обучается на больших массивах данных. следовательно, новое произведение состоит из уже имеющихся, в разной степени заимствования.
такое заимствование не требует согласия автора, с точки зрения закона РФ, только в жанре карикатуры и цитаты. цитата должна быть ограничена обьёмом, оправданном целью цитирования (ГК ст.1274).
если объём цитирования установить невозможно (настолько много составляющих у этой "мозаики") - ИМХО, авторства при генерации ИИ не должно возникать вообще.
Ну вот тут как понять объём цитирования? Узнаёте?
aGGre55or
29.07.2025 16:09Только если законодательно обязать авторов датасетов передавать вместе с датасетом список всех изображений использованных для обучения. Строго говоря ни одна нейросеть не способна нарисовать ничего вообще и в принципе. Обучение суть процесс восстановления тех изображений на которых её обучали. Если бы это были изображения квадратиков и треугольников, она и рисовала бы только квадратики и треугольники, и никаких Мона Лиз.
YaMishar
29.07.2025 16:09А почему Кандинский не умеет в отражение (я про первую картинку)? Это типа нового теста на количество пальцев?
alcotel
29.07.2025 16:09Точно. Кроме авторских прав нужно ещё и административную ответственность ввести:
"Халатность при исполнении промпта. Штраф - от 10 до 45 секунд исправительных работ."Кандинский, кстати, пока лучше других проходит тест на "болт М8". Не идеально, но больше похоже.
kompilainenn2
29.07.2025 16:09Кому принадлежат права на произведения, созданные искусственным интеллектом?
Общественное достояние и никак иначе
PrinceKorwin
29.07.2025 16:09Тогда и за работу нейронки все в складчину должны платить, не?
LeToan
29.07.2025 16:09Платой общества за работу нейронки является право на использование в обучении датасетов с защищенными данными. Если за датасеты не платили, то доступ к сетке должен быть полностью открыт для любого желающего.
DachnikGarik
29.07.2025 16:09Если за датасеты не платили, а материалы, из которых составили датасет, не тупо украли, то разработчики должны понести наказание, а датасет и производные (файлы с весами) должны быть изъяты и уничтожены.
А так получается, что в национальное достояние предлагаете передать результаты воровства.
LeToan
29.07.2025 16:09Мой комментарий на основе недавнего решения суда в США, где постановили считать использование в датасетах правовых материалов без разрешения правообладателя на это правомерным (если они получены законным путем во владение). То есть, общество дарит интеллектуальную собственность - значит, результаты не могут быть закрыты для общества.
RusikR2D2
29.07.2025 16:09Опять и снова :)
Просто мнение (вроде логичное даже): тому, кто ввел промт на генерацию картинки (или компании, на которую работает "писатель"). В смартфоне тоже есть ии для обработки фото, и в "про" камерах тоже появляются. В процессе обработки фото и "улучшайзинга" также используются нейросети. Но никто не сомневается, что права на фото принадлежат фотографу. Нейросеть - это просто инструмент, почти такой же как фотоаппарат или молоток.
PereslavlFoto
29.07.2025 16:09Я ввёл промпт на генерацию фотографии и несколько раз запустил исполнение. По моему промпту фотограф сделал 106 фотографий.
Почему права на все эти фотографии принадлежат не мне, а фотографу?!
Ведь это я сочинил все 4 слова промпта?!
Как же так?!
RusikR2D2
29.07.2025 16:09А это уже зависит от того, что написано в вашем с фотографом договоре. К примеру, права на код Windows принадлежит компании Microsoft, а не тем программистам, которые его написали.
PereslavlFoto
29.07.2025 16:09Нейросеть не может заключать никаких договоров. Она всего лишь получает промпты.
RusikR2D2
29.07.2025 16:09Вот. Нейросеть всего лишь объект - предмет и инструмент. а фотограф - субъект
alcotel
4. У авторов контента, использованного в датасете
Обсуждение этой версии я здесь не раз встречал, и она тоже достойная. Пусть Хокусай давно умер, но он имеет право на упоминание.
PereslavlFoto
Нельзя забывать и об учителях Хокусая!