image

Прозрачность и подотчетность алгоритмических решений, доступ к значимым составляющим алгоритма и его исправлениям – это инструменты для принятия справедливых решений социальных, технических и регулятивных проблем, возникающих в связи с применением алгоритмических систем. Вопрос осуществления контроля и надзора за такими системами активно прорабатывается в Канаде и Евросоюзе.

Дальше всех в решении данного вопроса продвинулась Канада. Но она сосредоточилась исключительно на государственных системах. Так, правительство страны в апреле 2019 г. утвердило Директиву об автоматизированном принятии решений для обеспечения управления, надзора и аудита за государственными алгоритмическими системами. Соблюдение директивы обязательно с 1 апреля 2020 г. и предполагает периодичность проведения проверки каждые 6 месяцев. Последствия несоблюдения директивы варьируются от профилактических мер вплоть до требований по «заморозке» системы и существенных ограничений работы организации.

Как будет работать регулирование алгоритмических систем?


Согласно директиве, государственные сайты и сервисы, на которых используются алгоритмические системы для принятия решений, обязаны уведомлять об этом пользователей «на видном месте и понятном языке» и регулярно публиковать информацию об эффективности и действенности автоматизированных систем принятия решений. Также владелец алгоритма обязан по требованию предоставлять объяснения принятия алгоритмом именно этого решения и доступные варианты регресса (в случае оспаривания принятого решения).

Для определения уровня воздействия алгоритмических систем правительство Канады разработало и опубликовало инструмент оценки с открытым исходным кодом (заявлена возможность использования другими странами). В частности, для оценки воздействия государственных алгоритмических систем Канады владельцам алгоритмов предлагается ответить на 60 вопросов. По результатам анализа ответов алгоритмической системе присваивается уровень от 1 до 4. Ключевыми для определения уровня являются социально-экономическое воздействие, оценка влияния на государственные процессы (услуги), управления данными, (методологической) прозрачности и сложности системы (оценка влияния показателей прилагается).

Евросоюз еще не выработал практических шагов или обязательных мер, но в целом движется в том же направлении, что и Канада. Однако, в отличии от североамериканцев, ЕС планирует осуществлять контроль за всеми алгоритмами, а не только принадлежащими государству.
Проблема оценки воздействия алгоритмических систем исследуется Исследовательским центром Европейского парламента.

В частности, были подготовлены два аналитических документа: «Понимание алгоритмического принятия решений: возможности и проблемы» (март, 2019 г.) и «Система управления для обеспечения алгоритмической подотчетности и прозрачности» (апрель, 2019 г.).
Документы подготовлены как справочный материал для членов Европейского парламента.

По мнению исследователей, могут быть эффективны следующие меры:

  • Создание регулирующего органа для контроля и надзора за деятельностью алгоритмических систем, в задачи которого войдут: проведение оценки рисков применения алгоритмов по степени воздействия на человека, классификация типов алгоритмов, исследование алгоритмов в случае нарушения прав человека, консультирование регулирующих органов в отношении алгоритмических систем, определение стандартов и лучших практик, аудит алгоритмических систем, помощь пользователям в защите их прав при неподобающем использовании алгоритмов;
  • Сертификация и стандартизация алгоритмических систем, установление требований и обязательств по сертификации. Например, соответствие разрабатываемым стандартам IEEE P7000 «Процесс решения этических проблем во время проектирования систем» и IEEE P7001 «Прозрачность автономных систем». Этот стандарт будет описывать измеримые, проверяемые уровни прозрачности, чтобы можно было объективно оценить автономные системы и определить уровни соответствия;
  • Создание правовых условий для обеспечения прозрачности и подотчетности алгоритмических систем, созданных по заказу государства или реализуемых на государственное финансирование. Обеспечение публичного раскрытия цели, области применения, предполагаемого использования, соответствующих политик и практик, графика и процесса самооценки алгоритмической системы, публикации плана значимого и постоянного доступа внешних исследователей для проверки системы;
  • Защита осведомителей (сотрудников компаний-разработчиков алгоритмов) в случае раскрытия фактов неправомерного использования алгоритмов или скрытых функций;
  • Защита исследователей от судебного преследования (нарушение авторских прав или условий пользования) при их независимом тестировании или глубоком анализе, если это служит общественным интересам;
  • Обеспечение «алгоритмической грамотности» для повышения осведомленности населения о принципах работы алгоритмических систем, оказываемом влиянии и формирования критической оценки;
  • Обеспечение стандартизированного обязательного уведомления пользователей об осуществляемой алгоритмической обработке (информация разъяснительного характера, которая потенциально может повлиять на процесс принятия решения отдельного пользователя или более широкое общественное понимание поведения совокупной системы).