Этические вопросы, связанные с искусственным интеллектом (ИИ), в настоящее время являются крайне актуальной темой. На протяжении последних пяти лет наблюдается стабильный рост числа публикаций по вопросам этики ИИ и регулирования интеллектуальных систем. Эта тема привлекает внимание исследователей в области машинного обучения, представителей бизнеса, использующих системы ИИ в своей деятельности, а также государственных органов и широкой общественности. Внедрение ИИ во все сферы человеческой жизни требует выработки подходов к этическому и нормативному регулированию как самих технологических решений, так и областей их применения.
Различные общественные организации и регулирующие органы разрабатывают политики в сфере этики ИИ, кодексы этики и декларации этических принципов. Эти инициативы охватывают множество сфер, подчеркивая важность создания единого подхода к этическим вопросам, связанным с использованием технологий ИИ.
В свете растущего интереса к этой проблеме возникает вопрос: насколько актуальны и полезны эти вопросы? Действительно ли назрела практическая необходимость обсуждения этических проблем, связанных с ИИ? Может ли все это быть лишь пустым философствованием на тему, которая сейчас в моде?
Этика нужна для информирования об опасностях
Существует множество мнений о роли этики в практическом использовании систем ИИ. Среди различных подходов можно выделить два наиболее значимых аспекта технологической этики в контексте применения ИИ. Во-первых, широкое общественное обсуждение этических вопросов служит средством информирования населения о проблемах и опасностях, с которыми могут столкнуться как разработчики, так и пользователи систем ИИ. Внедрение ИИ в разные сферы человеческой жизни уже достигло критической массы, что позволяет говорить о систематизации накопленного опыта в применении ИИ для решения различных задач и конкретных случаев внедрения.
При этом как разработчики интеллектуальных систем, так и их пользователи должны иметь возможность обмениваться опытом и рефлексировать модели машинного обучения и сценарии их использования. Практика и регулярно проводимые опросы показывают, что основным источником страхов перед ИИ является непонимание возможных рисков, несовершенство регуляторной системы и высокий уровень неопределенности. В этих условиях постановка и систематизация этических вопросов, их постоянное и открытое экспертное обсуждение помогают демистифицировать системы ИИ, повышая информированность всех участников. Это, в свою очередь, способствует более эффективному и широкому применению ИИ в обществе.
Этика как источник права
При обсуждении систем ИИ часто поднимается вопрос о недостаточности правовых норм в этой области и необходимости создания законов, регулирующих применение ИИ в различных сферах. Уже начали разрабатываться и приниматься специализированные правовые нормы в отдельных областях и государствах. Обсуждение этических вопросов становится источником общественного консенсуса и, следовательно, основой для формирования правовых норм в сфере ИИ. То, что сейчас становится этической нормой, в будущем вполне может стать и нормой регуляторной. Поэтому участие в этических дискуссиях полезно не только для общего образования, но и для понимания этого нарождающегося контекста. Это касается не только общественных организаций, но и представителей крупного, среднего и мелкого бизнеса, заинтересованных в разработке и внедрении систем ИИ.
Этика не должна быть обязательной, она должна быть полезной
В подобных дискуссиях часто сложно провести четкую границу между этическими нормами и нормами, регулирующими поведение. Обсуждение лучших и худших практик неизбежно затрагивает вопросы контроля за исполнением нежелательного поведения и введение санкций. Насколько обязательными должны быть кодексы этики в сфере ИИ? Что должно последовать за их неисполнением? На наш взгляд, здесь необходимо провести четкую дифференциацию: этические нормы не являются обязательными и принимаются в ходе общественных дискуссий, зачастую инициируемых общественными организациями. Они не должны включать в себя подробное изложение форм контроля. Кодексы этики и подобные документы не имеют юридической силы; их функция заключается в информировании о возможностях и опасностях ИИ и формировании общественного консенсуса. На основании этих обсуждений законодательные или регулирующие органы могут принимать отдельные законы и акты в сфере ИИ или модифицировать существующие регламенты и законы, касающиеся систем ИИ.
Вопрос контроля в сфере ИИ стоит особняком. Существуют технические сложности в детектировании контента, сгенерированного нейросетями, а также в доказательстве применения ИИ при принятии решений. Это очень сложный и неочевидный вопрос. Кроме того, вопросы соотношения систем генеративного ИИ с нормами авторского права требуют отдельного и глубокого изучения.
Какие вопросы решает этика ИИ?
Следует отметить, что все вопросы этики искусственного интеллекта можно разделить на фундаментальные и прикладные. Фундаментальная этика ИИ охватывает такие вопросы, как правосубъектность искусственного интеллекта, моделирование долгосрочных последствий его применения, тождественность искусственного интеллекта человеческому разуму, разработка систем сильного или супер интеллекта и другие теоретические проблемы, которые в настоящее время не имеют прямого приложения к практическим аспектам использования ИИ.
В отличие от этого, прикладная этика искусственного интеллекта касается конкретного применения существующих моделей слабого ИИ в принятии решений в различных областях человеческой деятельности. Она также включает в себя обеспечение соблюдения действующих норм морали и права с учетом новых технических возможностей, открывающихся перед человечеством благодаря разработке новых моделей машинного обучения. Это в значительной степени связано с современным поколением генеративных систем ИИ, которые обладают принципиально новыми возможностями, непредвиденными еще 10-15 лет назад. В дальнейшем под этикой ИИ мы будем понимать именно прикладные вопросы.
90% всех проблем не специфичны для ИИ
Важно отметить, что подавляющее большинство этических и правовых вопросов, связанных с применением систем ИИ, не являются специфичными для этой области. Существует обширный пласт проблем, для которых общие подходы к решению могут быть выведены на основе уже известных норм. Например, использование ИИ в образовательном процессе поднимает новые дискуссии об академическом мошенничестве. Применение генеративных систем вопрос-ответ ставит вопросы о качестве получаемой информации, верификации фактов, достоверности и доверии к информации из открытых источников — в данном случае источником является результат работы крупных языковых моделей. Однако подходы к решению этих проблем не являются новыми: академическое мошенничество существует независимо от технических средств, с помощью которых оно осуществляется. Обеспечение тайны частной жизни и конфиденциальности данных усложняется в связи с разработкой новых технических решений, но базовые принципы остаются теми же, что и до эпохи ИИ.
Но ИИ ставит новые задачи и вызовы
Тем не менее, новые технологии, основанные на искусственном интеллекте, действительно ставят перед нами принципиально новые вызовы и проблемы, с которыми мы не могли столкнуться до разработки соответствующих моделей. Поэтому широкое внедрение систем ИИ требует обновления нормативной базы и переосмысления некоторых терминов и определений. (Применение ИИ на финансовом рынке. Доклад ЦБ для общественных обсуждений)
Этические нормы не должны дублировать все существующее право
Таким образом, выработка этических и правовых норм в сфере ИИ должна учитывать принцип экономии. В противном случае существует риск дублирования всех существующих норм и положений, механически переформулируя их так, чтобы они относились к системам ИИ. Хотя декларации о хорошем и плохом также имеют свою ценность, они не должны быть единственным инструментом.
При этом важно помнить, что декларация о том, что является хорошим и плохим, желательным и нежелательным, может иметь значимую ценность. Например, при разработке декларации этических принципов для ИИ в образовании необходимо подчеркнуть недопустимость академического мошенничества с использованием новых технологий. Нужно четко заявить, что использование систем генеративного ИИ для написания квалификационных работ, диссертаций и выдачи сгенерированного контента за собственный интеллектуальный результат является академическим мошенничеством в новой форме. В то же время следует задекларировать, что применение ИИ для повышения эффективности принятия решений и улучшения качества образования, без нарушения прав других, может быть оправданным и желательным.
Существует риск стигматизации любого внедрения новых технологий, например, в образовательный процесс, что недопустимо.
Обсуждение этики должно приучать к комплаенсу
Широкое обсуждение этических и правовых норм в сфере ИИ несет еще один, не столь очевидный смысл. Мы должны способствовать тому, чтобы как разработчики, так и пользователи ИИ на всех этапах его внедрения задумывались о соответствии как самих моделей, так и случаев их использования этим нормам. Разработчики систем ИИ должны заниматься этическим комплаенсом своих моделей. Пользователи ИИ, в свою очередь, должны осознавать этические аспекты использования технологий. Все участники процесса должны учитывать не только непосредственное назначение технологий, но и возможность их использования не по назначению.
Как этическое регулирование будет влиять на отрасль?
В современных условиях репутация крупных компаний играет решающую роль в их успехе. Игнорирование этических вопросов при разработке и использовании систем искусственного интеллекта может привести к серьезным репутационным рискам. В практике уже зафиксированы случаи, когда неосторожное внедрение систем поддержки принятия решений, игнорирование оценки негативных последствий и угроз безопасности вызывало общественный резонанс, прямые убытки и нарушение бизнес-процессов. Например, юридические претензии к компаниям, использующим данные пользователей для обучения собственных генеративных моделей, становятся всё более распространенными. Необдуманное применение таких моделей может вызывать дополнительные юридические риски. Повышенное доверие к системам ИИ и отсутствие верификации их результатов могут приводить к ошибочным суждениям о наличии фактических ошибок в контенте.
Крупные компании, разрабатывающие или использующие ИИ, обладают необходимыми ресурсами для организации соответствующего комплаенса. Они более подвержены репутационным рискам и, как правило, относятся к внедрению искусственного интеллекта более тщательно и осторожно. В результате крупные игроки на рынке ИИ становятся главными драйверами и участниками выработки этических и правовых норм в этой области.
Потенциал развития ИИ лежит в нахождении новых, мелких ниш
По мнению Эндрю Ына, ведущего специалиста в области машинного обучения и искусственного интеллекта, многие крупные отрасли, использующие ИИ, уже внедрили соответствующие технологии и имеют практику оценки их последствий (Andrew Ng. Opportunities in AI 2023). Такие сферы, как маркетинг, реклама, финансовый сектор, здравоохранение, разработка новых лекарств и образовательная сфера, первыми испытали влияние новых интеллектуальных технологий. В связи с этим, по прогнозам Ына и других экспертов, в середине двадцатых годов ожидается взрывной рост новых кейсов применения ИИ в более мелких нишах, что приведёт к увеличению разнообразия бизнес-кейсов и применения интеллектуальных систем.
Исследователи также отмечают, что рост качества генеративных моделей в области написания кода и создания программных продуктов с меньшим участием человека приведет к значительному увеличению эффективности труда в разработке программного обеспечения. Использование таких систем, как Google Copilot, демократизирует процесс создания как классических программных продуктов, так и собственных интеллектуальных систем. Это означает, что программные продукты, включая те, которые используют машинное обучение, смогут создавать более широкий круг разработчиков, а промышленная разработка перестанет требовать специализированных глубоких знаний и навыков. В то же время, расширение применения ИИ во всех сферах несет в себе этические риски и угрозы безопасности. Уже сейчас наблюдается компетентностный разрыв между специалистами по информационной безопасности и аналитиками данных, что приводит к недостаточному аудиту безопасности систем ИИ по сравнению с классической информационной инфраструктурой, особенно в критически важных областях.
Демократизация ИИ приводит к размытию ответственности
Демократизация разработки программного обеспечения, безусловно, является благом, но также может привести к размытию ответственности за инциденты, связанные с информационной безопасностью, защитой конфиденциальности данных пользователей и неправомерным использованием технологий. В настоящее время большинство разработчиков систем ИИ не создают свои модели с нуля, а используют готовые интеллектуальные модули и платформенные решения в области анализа данных и машинного обучения. Это ставит под сомнение степень ответственности каждого участника рынка, так как затрудняет оценку их активного и ответственного участия в процессе разработки программного обеспечения.
Сложность используемых систем и решений также вносит свою лепту в размытие ответственности. Увеличение количества побочных эффектов от систем ИИ становится неизбежным. Не только конечные пользователи, но и разработчики могут не обладать полным знанием о внутреннем устройстве, принципах работы и потенциальных уязвимостях этих систем. Это создает риск недостаточной осведомленности о всех аспектах, необходимых для оценки безопасности предлагаемых решений и моделирования последствий их применения в различных сценариях.
Надо оценивать этичность стартапов на ранних стадиях
Некоторые исследователи подчеркивают, что в условиях демократизации разработки всё больше решений, доступных широкой аудитории, создаются не крупными компаниями с соответствующим комплаенсом, а мелкими организациями и стартапами. В связи с этим возникает вопрос об этическом регулировании систем ИИ на этапе оценки идей в бизнес-инкубаторах, венчурных фондах и других подобных площадках, которые зачастую модерируются крупными технологическими и финансовыми компаниями, а также государственными или общественными организациями.
Эндрю Ын, будучи главой фонда искусственного интеллекта, говорит о необходимости внедрения в практику работы его фонда отсева потенциально прибыльных идей для разработки ИИ-систем, которые не прошли проверку на этичность. Однако из-за сложности и многогранности понятия этики, а также отсутствия четкой и системной модели рисков интеллектуальных проектов такая этическая и юридическая экспертиза требует особых компетенций и зачастую не может быть проведена даже экспертами в области ИИ. Поэтому в настоящее время мы наблюдаем зарождение института уполномоченных по этике искусственного интеллекта. Приведенные выше аргументы подтверждают необходимость и практическую значимость внедрения подобных механизмов.
Применение ИИ несет долгосрочные, слабопрогнозируемые последствия
Важно понимать, что этика искусственного интеллекта как научная отрасль находится на начальном этапе формирования. У нас нет полной и системной картины всех возможных рисков, методологий их оценки и моделирования. Поэтому негативные последствия применения систем ИИ могут быть трудно предсказуемыми и неожиданными, даже если постфактум они кажутся очевидными. Необходимо подчеркнуть важность широкого общественного обсуждения существующих кейсов применения ИИ, их этической и правовой оценки. Это потребует от всех участников рынка максимальной прозрачности и раскрытия информации о используемых моделях и деталях практики их применения. Конечно, требования к компаниям о полном раскрытии всей информации, включая ноу-хау и чувствительные для бизнеса сведения, могут быть нереалистичными. Тем не менее, необходимо стимулировать на данном этапе развития технологий ИИ предпочтение использования открытых решений.
Комментарии (9)
Anarchist
28.10.2024 19:35Выиграет в гонке тот, кто наплюёт и положит на всю эту этику. А после этого победителя будет некому судить.
seiros Автор
28.10.2024 19:35Не совсем так однозначно. Игнорирование этических вопросов наоборот, может привести к неверным бизнес-решениям. Но я согласен с тем посылом, что введение этического регулирования не должно тормозить развитие отрасли.
ivazhu
Могу сказать, зачем нужна этика ИИ на западе - чтобы нечестными методами выигрывать конкуренцию. Дабы не быть голословным, приведу пример, который наблюдаю последние лет 8. Биометрия. Как все знают, лучшее распознавание лиц - это русские и китайцы. Сначала западные компании пробовали жульничать со звёздочкой и маленьким шрифтом, например, ROC.ai имела рекламу, что у них лучшее распознавание лиц по результатам теста FRVT NIST, дальше ставилась звездочка, а снизу мелким шрифтом писалось «не считая русских и китайских компаний». В этот момент, считая русских и китайцев, они были где-то в конце второй десятки. Но потом им показалось этого мало и были придуманы «этичные» базы данных для обучения. Т.е. скачать кучу лиц разных людей из открытого доступа - это неэтичное поведение. Этичное - это у каждого, чьё лицо у тебя в базе, попросить разрешение. С тех пор у русских и китайцев базы неэтичные, а у американцев и французов - этичные. Они даже приводят некие примеры, где, действительно, базы с подписями. Соль состоит в том, что невозможно обучить хоть что-то стоящее на этих базах в несколько тысяч, ну или даже десятков тысяч человек. Все современные алгоритмы обучены на миллионах и десятках миллионов людей (фоток вообще миллиарды). Откуда фотки - из соцсетей и Гугла. И они и у русских из инстаграмма, и у американцев оттуда же. Только американцы себе купили бумажку про «этичность»
seiros Автор
Вы абсолютно правильно указали на одну из больших методологических проблем в сфере этики ИИ. Этические нормы, как и любые регуляции могут быть слишком жесткими, что приведет к дестимулированию развития технологий в этой отрасли. Сейчас в России сложилась очень ценная ситуация реального технологического преимущества. И нам нужно постараться не зарегулировать себя настолько, чтобы потерять это преимущество.
Поэтому во всех дискуссиях по этике искусственного интелекта, которые ведутся, в том числе на площадках Альянса ИИ, особое внимание уделяется влиянию предлагаемых норм на технологический рынок. В этом плане замечательная позиция, например, ЦБ, который, будучи регулятором на финансовом рынке, открыто и явно декларирует необходимость придерживаться стимулирующего подхода к регулированию ИИ, избегать по возможноти жестких мер.
Но я бы не стал заходить так далеко и сводить всю этику к возможности получения неконкурентных преимуществ. Конечно, как и любой информационный инструмент, который направлен на широкие массы, этическое регулирование может использоваться как инструмент и маркетинговый. Но главная цель этих обсуждений - информационная. В оношении систем искусственного интеллекта наблюдается некоторое неприятие среди несведущих, порожденное неясными опасениями. Этика должна быть направлена на снятие этого страха перед ИИ в обществе.
ivazhu
Во-первых, я совершенно не согласен про ЦБ. Его «стимулирующий» подход в случае биометрии - это саботирование закона о ЕБС. Я понимаю, что этот закон очень жесткий, но он уже почти два года как закон. И по нему следить за поведением банков должен ЦБ. Все мы знаем повсеместное нарушение этого закона одним желтым банком, недавно была развёрнутая статья на хабре очень крутого и неленивого чувака, который по этому поводу выиграл суд (т-банк подал аппеляцию на решение). Но во всей истории меня больше банка смущает только ЦБ, который не делал ничего.
А во-вторых, на мой взгляд проблема «этики» ИИ в том, что ее обсуждают все кому не лень кроме реальных разработчиков ИИ. Позиция всех моих коллег, которую я знаю, «какая нафиг этика, что за бред». Объясняется она тем, что никакого ИИ нет, есть machine learning на стероидах. Разработчики это знают, а общественность этого не понимает. Поэтому по сути вся этика должна сводится к законодательному регулированию конкретных применений данных решений. Тут нет никакой этики, есть проблема, что разработчики медицинских применений не могут нести ответственность за ошибки, как несут врачи, или кто будет нести ответственность за дтп с автопилотом. Законодатели должны собраться и решить эти вопросы. Только, опять же на мой взгляд, консультироваться они должны с разработчиками, а не общественниками/социологами/философами/церковными деятелями, потому что все эти люди не понимают саму проблему, а «как бабушки у подъезда» сплетничают о каком-то ИИ. Никакого ИИ в попсовом смысле ближайшие десятилетия не будет, а вот автопилоты, детекторы болезней, генераторы лекарств, различные помощники уже есть
seiros Автор
Могу поспорить с тем, что обсуждение этики проходит без участия технологических компаний. Насколько я знаю, в том же альянсе по искусственному интеллекту как раз именно разработчики систем ии играют ведущую роль.
ivazhu
Я полистал кодекс альянса - извините, но это писали не разработчики. Ни один разработчик под этой фигней подпись не поставит, потому что там много букв о каком-то сферическом коне в вакууме, не имеющем никакого отношения к реальным разработкам в сфере ИИ. Например, когда писался пункт про «непричинение вреда», кто-нибудь подумал, что эти пунктом весь современный ВПК сделали неэтичным?
seiros Автор
Ну тут прям совсем поспорю. Если нашли текст кодекса, зайдите рядом в раздел "Подписанты" и посморите, кто под "этой фигней" поставил подпись.
ivazhu
Ну компании - это не разработчики. Вы пытаетесь спорить с аргументом «смотрите, кто подписал», а не «смотрите, что написано»
Среди подписантов есть, например, Т-Банк. Вы знаете историю с дикторами и генератором голоса, обученного на начитанном этими дикторами? Вы считаете такое поведение «этичным»?