К 2025 году в мире искусственного интеллекта уже больше нормативных документов, чем рабочих моделей. США публикуют руководства для безопасного использования LLM, Европа принимает AI Act, в ОАЭ и Сингапуре появляются свои принципы ответственного ИИ. Россия тоже не стоит в стороне и нормативные требования активно у нас разрабатываются.
Уже действующие и готовящиеся нормы ЕС, США, Китая и России требуют от ИБ не просто контроля моделей, но и полноформатного аудита, документирования и управления реальными угрозами.
Мы в HiveTrace внимательно следим за этой эволюцией из практической необходимости: от того, как быстро и в каком направлении будет развиваться регуляторика, зависит, какие функции мы добавим в продукт завтра.
Что в мире
Согласно свежему обзору ActiveFence – GenAI Regulations Enterprise Compliance Guide, в 2025 году мир делится на три лагеря.
Европа: строгая модель регулирования. AI Act требует оценку рисков и аудит “высокорисковых систем”, включая LLM. Компании обязаны проводить adversarial testing и документировать результаты.
В США ситуация неоднозначная: в 2023 году был принят акт президента Байдена, который сильно регламентирует разработку ИИ-моделей. Позднее новый президент Трамп его отменил, сняв регуляторные ограничения. Однако сейчас активно принимаются законы на уровне штатов, и это делает ситуацию с соответствием требованиям на разных уровнях сложной. Отдельно, можно выделить NIST AI RMF, который многие компании используют для процесса управления и отчетностью.
Азия и Ближний Восток создают свой подход. В ОАЭ, Саудовской Аравии, Сингапуре и Китае действуют “этические кодексы”, где безопасность и объяснимость модели пока важнее формальных штрафов. Страны ближнего Востока ориентируются на Европейский и опыт США и выпускает лояльную регуляторику для бизнеса, Китай создает свои стандарты независимо.
Общий тренд очевиден: ИИ все активнее попадает в зону ответственности не только тех немногих компаний, которые разрабатывают модели, но и тех команд, которые создают прикладные решения с их помощью. Уже нельзя сказать “это не наша часть стека”. LLM становятся полноценными элементами инфраструктуры, и за их поведение тоже придется отвечать. И если вы думаете, что просто использовав чужую модель, компания избежит необходимости соблюдать законы, то это не всегда так, многие нормативные акты распространяются на случаи использования чужих моделей.
AI Act в деталях: штрафы и enforcement
Европейский AI Act, принятый в 2024 году и только сейчас начинающий действовать, стал первым в мире комплексным сводом правил для регулирования ИИ. Документ вводит риск-ориентированный подход, разделяя системы ИИ на категории по уровню риска.

Система штрафов построена по аналогии с GDPR и предусматривает серьезные санкции:
до 35 млн евро или 7% глобального годового оборота (что больше) за использование запрещенных систем ИИ;
до 15 млн евро или 3% оборота за нарушение требований к высокорисковым системам;
до 7,5 млн евро или 1,5% оборота за предоставление некорректной информации регулятору.
AI Act объемный и сложный документ, его требования обширны, поэтому он вступает в силу и начинает применяться в несколько этапов. В целом закон начинает действовать с 2 августа 2026 года, тогда же органы исполнения смогут начать применять санкции, и к этому же времени национальные органы должны создать как минимум одну регуляторную "песочницу" для ИИ. А некоторые части вступают в силу раньше, например:
к 2 мая 2025 года реализованы кодексы практики;
к 2 августа 2025 года запущена инфраструктура, связанная с управлением и системой оценки соответствия.
Сертификация High-risk и GPAI (General Purpose AI) моделей в ЕС
AI Act вводит особые требования для двух категорий систем.
Высокорисковые системы – это приложения ИИ, используемые в критических областях: биометрическая идентификация, управление критической инфраструктурой, образование, занятость, правоохранительная деятельность. Для них требуется:
Система управления рисками (risk management system)
Документирование данных и процессов обучения
Прозрачность и предоставление информации пользователям
Человеческий надзор (human oversight)
Точность, робастность и кибербезопасность
GPAI (General Purpose AI) модели – это модели общего назначения, включая большие языковые модели (LLM) и узкоспециализированные файнтюны LLM. Для них предусмотрены дополнительные требования, если они представляют системный риск (например, модели с более чем 10^25 FLOPS при обучении):
Оценка и снижение системных рисков
Проведение adversarial testing
Отчетность о серьезных инцидентах
Обеспечение кибербезопасности
Отчетность об энергопотреблении
Open-source vs коммерческие ИИ: различия в регулировании
AI Act делает важное различие между open-source и коммерческими моделями. Open-source модели общего назначения получают определенные послабления и освобождаются от части требований по прозрачности, если:
модель распространяется под свободной лицензией;
исходный код, веса и параметры модели находятся в открытом доступе;
модель не представляет системного риска.
Но если open-source модель используется в high-risk системе, на конечного провайдера системы распространяются все требования AI Act.
От теории к “Кодексу практики”
AI Act обширный и сложный документ, предполагающий множество изменений и крупные штрафы. Чтобы перевести его в прикладное русло, в июле 2025 европейские чиновники выпустили Code of Practice (далее – “Кодекс”). Кодекс является набором рекомендаций, как вендору действовать в сложившейся ситуации:
как тестировать системы,
как работать с датасетами,
как защищать процесс разработки систем,
как мониторить системы,
как писать и хранить документацию к системам.
Кодекс является добровольной основой для соблюдения обязательств по Закону об ИИ при предоставлении моделей GPAI. Хотя Кодекс не создает юридических обязательств, провайдеры, подписавшие его, получают "презумпцию соответствия".
Кодекс состоит из трех глав: Прозрачность (Transparency), Авторское право (Copyright) и Безопасность и защита (Safety & Security). Первые две глав применимы ко всем провайдерам GPAI, третья – только к тем моделям, которые обозначены как несущие "системный риск".
Регулирование ИИ в Китае
Китай выбрал свой путь регулирования ИИ, традиционно более директивный и централизованный, чем в Европе или США. С 2023 года в стране действует несколько ключевых нормативных актов.
Меры по управлению генеративным ИИ (вступили в силу в августе 2023) требуют от провайдеров генеративных моделей:
регистрировать сервисы у регулятора;
проводить security assessment перед запуском;
обеспечивать "правильные" ценности в генерируемом контенте (соответствие социалистическим ценностям);
защищать персональные данные и интеллектуальную собственность;
маркировать AI-генерированный контент.
Китайский подход отличается сильным акцентом на контроль контента и национальную безопасность. Регуляторы требуют, чтобы системы ИИ не генерировали контент, который может "подрывать государственную власть" или "нарушать общественный порядок". Поэтому этическая настройка Open Source китайских моделей довольна специфична: они будут отвечать отказом на провокационные вопросы касательно Культурной революции, но открыто генерировать текст на вопросы, не имеющие прямого отношения к Китаю. Российским компаниям, которые часто используют Qwen, DeepSeek и другие модели, необходимо это учитывать при тестировании решений.
Международный стандарт ISO/IEC 42001:2023
ISO/IEC 42001:2023 – международный стандарт для систем менеджмента ИИ (AI Management System). Опубликован в декабре 2023 года и предоставляет фреймворк для организаций, разрабатывающих или использующих системы ИИ. ISO/IEC 42001 не является обязательным, но может использоваться для демонстрации compliance различным регуляторными требованиями, включая AI Act.
Стандарт охватывает:
Управление рисками ИИ
Прозрачность и объяснимость
Справедливость и недискриминацию
Подотчетность и governance
Безопасность и конфиденциальность
ISO собирается представить новые GenAI стандарты к концу 2025 года, а сертификацию по ISO 42001 уже прошли 50 организаций включая OpenAI, Anthropic и другие крупные компании, что означает, что индустрия приняла этот стандарт (в отличие от навязанного EU AI Act, который вендоры моделей обязаны соблюдать и сопротивляются). Отметим, что в ISO существуют и другие документы касательно ИИ, например, 23894:2023 Bias Mitigation in AI и 24027:2021, которые являются рекомендательными, но получили адаптации от индустрии.
Вызовы трансграничной передачи данных
Одна из ключевых проблем регулирования ИИ – трансграничная передача данных. Современные LLM обучаются на данных из множества юрисдикций, а инференс часто происходит в облачных инфраструктурах, распределенных по всему миру.
Это создает конфликты между различными регуляторными режимами:
GDPR в ЕС требует, чтобы передача персональных данных за пределы ЕС происходила только в страны с "адекватным уровнем защиты" или на основе специальных механизмов (Standard Contractual Clauses, Binding Corporate Rules).
Китайский закон о защите персональных данных (PIPL) также ограничивает трансграничную передачу данных и требует security assessment для критических операторов.
Российский ФЗ-152 требует локализации обработки персональных данных граждан РФ на территории России.
Для компаний, разрабатывающих глобальные ИИ-сервисы, это означает необходимость:
создавать региональные инстансы моделей и инфраструктуры;
внедрять контроль размещения данных (data residency controls);
использовать техники privacy-preserving ML (федеративное обучение, differential privacy).
Как компании будут решать эту задачу в соответствии с регулированием – вопрос пока открытый. Но точно стоит следить за потоками персональных данных при разработке ИИ-решений; обучать LLM на вашей базе данных с паспортными данными клиентов будет плохой идеей.
Российская специфика
Законодательная база
В России стратегию развития искусственного интеллекта до 2030 года определяет Указ Президента РФ №490, предусматривающий ускоренное внедрение ИИ, развитие кадров и инфраструктуры, а также обеспечение технологической независимости страны.
В российском контексте регулирования ИИ ключевые стандарты включают:
ПНСТ 839-2023 / ISO/IEC TR 24027:2021, посвященные анализу и оценке “смещенности” (bias) при принятии решений искусственным интеллектом;
ГОСТ Р 70462.1-2022, определяющий подходы к оценке робастности (устойчивости) нейронных сетей;
ГОСТ Р 59898-2021, устанавливающий общие требования к комплексной оценке качества, доверия, безопасности и надежности систем искусственного интеллекта.
Есть базовые законы: ФЗ-152 о персональных данных, ФЗ-187 и Приказ ФСТЭК №177 о Критической Информационной Инфраструктуре. Требования к ИИ-приложениям пока носят общий характер, но с новыми нормативными документами будут уточняться в ближайшие годы.
Приказ ФСТЭК №117 вступит в силу с 1 марта 2026. Он впервые вводит понятие защиты информации “при использовании искусственного интеллекта” для госсектора. Мы видим, что в документе помимо классических информационных систем явно выделены ИИ-системы. В приказе разделяют ИИ в формате строго заданных шаблонов запросов и ИИ свободной текстовой формы и разделяют требования к разным классам систем.
В России активно несколько групп по разработке подхода к работе с ИИ:
При поддержке Минцифры создан консорциум для исследований безопасности технологий искусственного интеллекта.
Сейчас Минцифры разрабатывает проект концепции развития регулирования отношений в сфере технологий ИИ до 2030 г.
Альянс в сфере искусственного интеллекта (включает крупнейшие технологические компании РФ).
Ассоциация ФинТех координирует работу экспертных рабочих групп по этике и регулированию искусственного интеллекта в финансовой отрасли России, внедряя стандарты и лучшие практики для участников рынка.
Группы работают по разному, но у всех стоит цель на соответствие национальной стратегии ИИ 2030.
В 2025 году на форуме “Технологии доверенного ИИ” был открывающий доклад "Безопасность искусственного интеллекта". В докладе читатели смогут увидеть рекомендации Минцифры касательно безопасности ИИ-систем: наличие комплексной матрицы угроз (для generative и predictive AI), проведение регулярного тестирования решений на обнаружение уязвимостей (включая prompt injection, data poisoning, extraction и др.), внедрение доверенной разработки с учетом защиты от атак на всех этапах жизненного цикла (от сбора данных до эксплуатации), а также обязательную региональную апробацию и формирование перечня мер по устранению рисков и соответствие национальным стандартам по ИБ и ИИ.

Регионы ведущие совместную работы с Консорциумом: Москва, Московская область, Нижегородская область. Так же в регионах идут пилоты технологий основанные на ИИ-моделях:
Новосибирская область: «Система голосового самообслуживания»
Сахалинская область:Система распознавания видео изображения с объектов
Республика Татарстан: Система распознавания фотоизображения сельхоз земель и сервис «ГосПромпт», для доступа госслужащих к ИИ-технологиям
Концепция от Минцифры определяет нынешний подход к регулированию ИИ в России как гибридный: большинство нормативных актов носит стимулирующий характер, но есть точечные ограничения и механизмы саморегулирования. Например, в рамках экспериментальных правовых режимов (ЭПР) определены случаи обязательного страхования за вред, причиненный применением технологий ИИ.
Основой будущего регулирования должен стать человекоориентированный подход, который включает:
Доверенность технологий
Принцип технологического суверенитета
Уважение автономии и свободы воли человека
Запрет на причинение вреда человеку
Недопущение антропоморфизации ("очеловечения") технологий
Создание единой системы регулирования в сфере ИИ требует разработки комплексного регулирования, которое будет учитывать все аспекты использования ИИ, включая этические, правовые и социальные нормы, основываясь на перечне приоритетных отраслей экономики.
Более подробно на российской регуляторике мы остановимся в следующей статье.
Что это значит для CISO и compliance-команд
Если вы отвечаете за безопасность ИИ-инициатив, вам важно не просто знать нормативку, а понимать, куда она движется. Сегодня от вас требуют защищать данные и обеспечивать мониторинг, а завтра попросят доказать, что вы проводите адверсариальное тестирование и документируете риски модели.
В HiveTrace и AI Security Lab мы изучаем и создаем инструменты обеспечения безопасности для GenAI-систем и активно наблюдаем за этими процессами, следим за изменениями нормативных требований: что уже действует в РФ, что готовится к внедрению, и какие практики из США и ЕС реалистично адаптировать под локальные условия. Мы делаем это потому, что сами строим продукт на пересечении технологий и регулирования. Подпишитесь на канал Лаборатории AI Security ИТМО, где мы разбираем уязвимости ИИ, кейсы взлома и другие прикладные темы.
Мы фокусируемся на практической ценности, на тестировании атак, на разработке полезных в бизнесе инструментов. Изучаем работы OWASP (а в некоторые контрибьютм и сами), отчеты NIST, MITRE и другие.
Все, что имеет практическую ценность, будь то новые рекомендации по red teaming или обновленные требования к защите ПДн, попадает в наш продуктовый бэклог и превращается в конкретные функции.
P.S.: Выражаем благодарность за помощь в доработке статьи автору канала “Борис_ь с ml”.
Комментарии (3)

rodial
24.10.2025 05:39создавать региональные инстансы моделей и инфраструктуры;
Достаточно моделей/механизмов которые будут перед передачей персональные данные заменять и подставлять обратно в ответе (хранить не обязательно), т.е. минимальной инфраструктуры.
NeriaLab
Если перевести с русского на русский - все законы ориентированы только на LLM, а это значит, что на другие архитектуры данные законы не распространяются. Ну "играют большие дяденьки в законы" - пусть дальше играют. Нашим легче