Автор: Дмитрий Кутейников, юрист и исследователь в сфере AI Governance, к.ю.н., автор телегам-канала howtocomply_AI: право и ИИ.

Рамочная конвенция Совета Европы об искусственном интеллекте и правах человека, демократии и верховенстве права была принята 17 мая 2024 года Комитетом министров Совета Европы на 133-й сессии, проходившей в Страсбурге. С 5 сентября 2024 года она стала открыта для подписания на Конференции министров юстиции в Вильнюсе. Конвенцию сразу подписали Андорра, Грузия, Исландия, Норвегия, Республика Молдова, Сан-Марино, Великобритания, а также Израиль, США и ЕС. Далее страны (и ЕС) должны ее ратифицировать в соответствии с национальным законодательством. После чего Конвенция официально вступит в силу.

Подписание документа 5 сентября 2024 года
Подписание документа 5 сентября 2024 года

TLDR:

  1. Конвенция устанавливает принципы, направленные на снижения рисков для прав человека, демократии и верховенства права, потенциально возникающих на всех стадиях жизненного цикла систем ИИ.

  2. Конвенция распространяется как на государственный, так и на частный секторы.

  3. Государство может выбрать, в каком объеме принять на себя обязательства в отношении частного сектора.

  4. Конвенция не распространяется на научные исследования, национальную безопасность и оборону.

  5. Перечень запрещенных систем ИИ стороны определяют самостоятельно.

  6. Конвенция на Россию не распространяется, так как последняя вышла из Совета Европы.

  7. Россию могут потенциально пригласить подписать документ, но с учетом текущей политической ситуации пока это маловероятно.

Краткая предыстория

Работа над созданием концепции регулирования в сфере ИИ в рамках Совета Европы началась еще в 2019 году в рамках работы Специального комитета по искусственному интеллекту (CAHAI). В те далекие по современным меркам времена членом Совета Европы была и Россия. Соответственно, в рабочих группах принимали участие и отечественные эксперты.

Специальный комитет по искусственному интеллекту (CAHAI)
Специальный комитет по искусственному интеллекту (CAHAI)

Далее, в 2022 году вместе CAHAI был создан Комитет по искусственному интеллекту (CAI), который уже непосредственно начал готовить текст будущей конвенции. В состав комитета вошли представители стран-членов СЕ, ЕС, а также еще 11 стран (Австралия, Аргентина, Израиль, Канада, Коста-Рика, Мексика, Перу, США, Уругвай, Святой Престол (Ватикан), Япония). Представители частного сектора, гражданского общества и академии участвовали в качестве наблюдателей.

Комитет по искусственному интеллекту (CAI)
Комитет по искусственному интеллекту (CAI)

Разработка конвенции во многом совпала по времени с обсуждением законодателями ЕС вариантов текста Регламента ЕС об ИИ (комплексный закон, который с 1 августа вступил в силу на уровне Европейского союза. Подробнее — тут), поэтому эти документы изначально разрабатывались в тесной связи. Более того, данная конвенция отлично дополняет Регламент на уровне ЕС: конвенция направлена на защиту фундаментальных прав человека, а регламент - хоть и защищает фундаментальные права, но в большей мере является частью законодательства о безопасности продукции.

Во многом эти акты разделили общую судьбу и в процессе принятия: финальные их тексты стали значительно более мягкими по отношению к регулированию в сфере разработки и применения систем и моделей ИИ частным сектором.

Терминология

Конвенция использует обновленную версию определения систем ИИ из принципов ОЭСР:

“Система ИИ — это машинная система, которая для достижения явно или неявно поставленных целей на основе полученных входных данных определяет, каким образом генерировать выходные данные, такие как прогнозы, контент, рекомендации или решения, способные влиять на физическую или виртуальную среду. Системы ИИ различаются по уровню автономности и способности к адаптации после развертывания”.

Сфера применения

Конвенция охватывает использование систем ИИ на всех стадиях жизненного цикла:

  1. в государственном секторе, включая частные компании, действующие от имени государственных органов;

  2. в частном секторе.

Далее очень важный момент. По отношению к частному сектору предусматривается два способа применения требований конвенции:

  1. государство может напрямую взять на себя обязанности по исполнению требований, изложенные в конвенции (в главах II-VI);

  2. государство может принять иные адекватные меры по уменьшению рисков в сфере разработки и применения ИИ частными субъектами.

Такая добровольность относительно принятия на себя обязательств по отношению к частному сектору стала предметом критики со стороны правозащитников и научного сообщества. Примечательно, что данное положение появилось в последней версии проекта документа. Более ранние проекты предусматривали равные обязанности как для государственного, так и для частного секторов.

В сферу применения не входит:

  1. деятельность, связанная с защитой интересов национальной безопасности;

  2. научно-исследовательская деятельность в отношении систем искусственного интеллекта, если только испытания не осуществляются таким образом, что от них могут пострадать права человека, демократия и верховенство права (не исключая ст. 12 (безопасные инновации) и п. 2 ст. 25 (международное сотрудничество).

  3. вопросы, связанные с национальной обороной.

Общие обязательства (глава II)

Кратко их можно охарактеризовать как защита прав человека и демократических институтов.

Полное описание обязательств
Полное описание обязательств

Основные принципы (глава III)

Конвенция определяет рад основных принципов:

  1. достоинство и личная свобода человека (Human dignity and individual autonomy);

  2. прозрачность и подконтрольность (Transparency and oversight) (в том числе в контексте маркировки синтетического контента и взаимодействия человека с системой ИИ);

  3. подотчетность и ответственность (Accountability and responsibility) (за неблагоприятные последствия);

  4. равенство и недопущение дискриминации (Equality and non-discrimination);

  5. конфиденциальность и защита персональных данных (Privacy and personal data protection).

Подробнее про конфиденциальность и защиту персональных данных
Подробнее про конфиденциальность и защиту персональных данных
  1. надежность (Reliability) (обеспечения безопасности и надлежащего качества);

  2. безопасные инновации (Safe innovation) (тестирование и эксперименты с системами ИИ под надзором компетентных органов).

Средства по обеспечению защиты прав (глава IV)

Государства должны установить их по своему усмотрению. Они могут включать:

  1. раскрытие информации и документирование в тех случаях, когда системы ИИ представляют опасность для прав человека (информация должна предоставляться как органам власти, так и иным заинтересованным лицам);

  2. информация должна быть достаточной, чтобы оспорить как принятое системой ИИ решение, так и саму необходимость применения в этом случае систему ИИ;

  3. должна иметься возможность подать жалобу в компетентные органы.

Средства защиты должны быть обеспечены процессуальными гарантиями.

Оценка и смягчение рисков и неблагоприятных последствий (глава V)

Для обеспечения принципов государства должны применять меры по оценке и смягчению рисков и неблагоприятных последствий. Эти меры должны быть пропорциональными и дифференцированными, а также учитывать:

  1. контекст и предполагаемые сценарии использования систем ИИ;

  2. вероятность наступления потенциальных негативных последствий;

  3. мнения заинтересованных сторон;

  4. необходимость их итеративность в ходе всего жизненного цикла систем ИИ;

  5. мониторинг рисков и потенциальных негативных последствий;

  6. документирование негативных последствий;

  7. необходимость тестирования систем ИИ до начала их использования и при наличии существенных доработок.

Очень важным аспектом является то, что в конвенции не определены сценарии использования систем ИИ, которые могут находиться под запретом или временным мораторием. Это определяет каждая сторона в случае, если считает такое использование несовместимым с соблюдением прав человека, функционированием демократии или верховенством права. Отсутствие списка запрещенных систем ИИ также стало основанием для критики документа.

Применение конвенции (глава VI)

В данной главе указывается, что применение конвенции не должно нарушать права человека и их равенство.

Помимо этого для сторон предусмотрены два интересных требования:

  1. государства должны стремиться обеспечить, чтобы решение важных вопросов, связанных с ИИ, происходило с участием широкой общественности;

  2. стороны должны развивать цифровую грамотность всех слоев населения для уменьшения потенциальных рисков от применения систем ИИ.

Дальнейшее сотрудничество и вступление в силу (главы VII и VIII)

Стороны должны обмениваться информацией и сотрудничать между собой. Для этого учреждается Конференция сторон, на которой должны обсуждаться актуальные проблемы и предоставляться отчеты.

Стороны должны определить (или создать) один или несколько органов, которые будут следить за исполнением взятых обязательств.

Вступает в силу конвенция через три месяца после того, как ее должным образом ратифицируют пять сторон (из них не менее трех должны быть членами СЕ).

В данных главах есть еще и иные положения, характерные для международных договоров, однако они представляют интерес по большей части для юристов, поэтому разбирать их подробно не будем.

Распространяется ли конвенция на Россию?

Конвенция на Россию не распространяется, так как она вышла из Совета Европы.

В документе предусмотрен механизм, который позволяет сторонам пригласить подписать конвенцию новое государство, в том числе и Россию. Однако с учетом текущей политической ситуации пока это маловероятно.

Критика

По большей части конвенцию критикуют за «беззубость» по ряду причин:

  1. излишне декларативный характер и отсутствие конкретных требований;

  2. государствам предоставляется возможность избежать для частного сектора исполнение обязательств в полной мере;

  3. добровольность в определении списка запрещенных систем ИИ;

  4. неоправданное исключение из сферы действия национальной безопасности и обороны.

Тут можно почитать критику в адрес конвенции Европейского инспектора по защите данных (EDPS).

Тут открытое письмо от правозащитников и гражданского общества.

Больше новостей о регулировании в сфере ИИ в моем телеграм-канале howtocomply_AI: право и ИИ.

Комментарии (4)


  1. avshkol
    07.09.2024 22:06
    +6

    Конвенция не распространяется на научные исследования, национальную безопасность и оборону.

    То есть составители конвенции предлагают мешать частным исследователям и разработчикам моделей ИИ, если у них нет покровителя в виде научной организации или силового ведомства?


    1. d_kuteynikov Автор
      07.09.2024 22:06

      Конвенция минимальным образом затрагивает частный сектор. По сути, она устанавливает только общие принципы. Более того, у государств есть выбор по способу имплементации ее положений, о чем написано в материале.


  1. avshkol
    07.09.2024 22:06
    +2

    “Система ИИ — это машинная система, которая для достижения явно или неявно поставленных целей на основе полученных входных данных определяет, каким образом генерировать выходные данные, такие как прогнозы, контент, рекомендации или решения, способные влиять на физическую или виртуальную среду. Системы ИИ различаются по уровню автономности и способности к адаптации после развертывания”.

    Неудачное определение. Любая сложная функция, получающая на входе набор данных X и выдающая по какому-то алгоритму набор Y, будет "системой ИИ". И чем вообще "система ИИ" отличается от просто ИИ???


    1. d_kuteynikov Автор
      07.09.2024 22:06

      Термин ИИ в большей степени касается отрасли науки и совокупности методов. Система ИИ - конкретная единица ПО (машинная система).

      Из техстандарта ISO/IEC 22989:2022(en):

      3.1.3
      artificial intelligence - <discipline> research and development of mechanisms and applications of AI systems (3.1.4)

      3.1.4
      AI system - engineered system that generates outputs such as content, forecasts, recommendations or decisions for a given set of human-defined objectives

      Note 1 to entry: The engineered system can use various techniques and approaches related to artificial intelligence (3.1.3) to develop a model (3.1.23) to represent data, knowledge (3.1.21), processes, etc. which can be used to conduct tasks (3.1.35).

      Note 2 to entry: AI systems are designed to operate with varying levels of automation (3.1.7).

      Данное определение сейчас является наиболее распространенным: аналогичное ему содержится и в NIST AI RMF (разработана американским органом по стандартизации) и в недавно принятом Регламенте ЕС об ИИ. На него же ориентируются и остальные страны ОЭСР.

      Если остались вопросы, то подробное разъяснение ОЭСР по данному определению можно почитать тут.