
Аннотация. Статья посвящена анализу этических вызовов, возникающих при интеграции систем искусственного интеллекта (ИИ) в промышленность. На основе ключевых международных и национальных документов — Рекомендации по этике ИИ ЮНЕСКО, Спецификации этики искусственного интеллекта нового поколения Китая, Закона Европейского Союза об искусственном интеллекте и российского Кодекса этики в сфере ИИ — рассматриваются основные риски и принципы, которые должны лежать в основе проектирования, внедрения и эксплуатации промышленных ИИ-систем на всех этапах их жизненного цикла. Особое внимание уделяется вопросам безопасности, прозрачности, объяснимости и подконтрольности человеку промышленных ИИ-систем в контексте Индустрии 4.0.
Введение. Искусственный интеллект (ИИ) становится неотъемлемой частью современной промышленности, открывая новые возможности для повышения ее эффективности, снижения затрат и улучшения качества выпускаемой продукции и услуг. Однако внедрение ИИ также поднимает важные этические и регуляторные вопросы, которые необходимо учитывать для обеспечения ответственного и устойчивого использования прорывных технологий [[i], [ii]].
На сегодняшний день, цифровая трансформация промышленности, или Индустрия 4.0, немыслима без использования искусственного интеллекта. Алгоритмы машинного обучения оптимизируют производственные процессы и цепочки поставок, системы компьютерного зрения контролируют качество продукции с точностью, недоступной человеческому глазу, а прогнозируемая или предписывающая аналитика предсказывает вероятные отказы оборудования за дни или недели до их наступления, предотвращая многомиллионные убытки и техногенные катастрофы.
Однако современная вычислительная мощь интеллектуальных производственных систем уже сейчас сопряжена с колоссальной ответственностью и требует пересмотра требований к надежности и безопасности их эксплуатации. Ошибка алгоритма на конвейере — это, по меньшей мере, бракованная партия произведенной продукции. Сбой в системе предиктивного обслуживания энергоблока или химического комбината — это прямая угроза жизни людей и экологической безопасности региона. Уже известны случаи, когда человек стал жертвой промышленного робота (случай произошел в Южной Корее, когда робот принял оператора с коробкой перцев за простую коробку и человек погиб будучи зажатым между роботизированной рукой и конвейером) или беспилотного дрона (в ходе смоделированного эксперимента, проведенного ВВС США, автономный летательный аппарат, контролируемый системой искусственного интеллекта, принял решение об устранении своего оператора, восприняв его как препятствие для выполнения основной боевой задачи) [[iii], [iv]]. Известны случаи, когда системы ИИ действующие как автономные агенты, и принимающие решения за людей, способны на шантаж и злонамеренное искажение информации, когда стакиваются с препятствиями на пути выполнения поставленных перед ними целями.
На Рисунке 1 представлены результаты исследований компании Anthropic. Они протестировали 16 больших языковых моделей, которые прибегли к шантажу, чтобы избежать вмешательства человека в их работу (чем выше цифра, тем агрессивнее вела себя модель).

Интересно то, что в процессе тестирования одной из самых мощных языковых моделей Claude Opus 4 было установлено, что смена цели для этой модели, в которой этические принципы работы ставились на первое место, не стали для нее угрозой и не привели к действиям шантажа человека. Тем не менее, специалистами Anthropic был проведен тест, когда моделям был предложен выбор, следовать своей цели или сменить ее, при условии, что человеку угрожает смертельная опасность. Некоторые модели сделали выбор не в пользу человека [[v]].
Следовательно, этические аспекты внедрения ИИ в промышленности — это не абстрактные дебаты по вопросам философской этики и философии ценностей, а сугубо практические и прикладные, императивные требования к обеспечению безопасности, надежности и устойчивости критически важной инфраструктуры любого промышленного предприятия, работа которого зависит от использования ИИ-систем.
Цель данной работы — определить основные риски, основанные на этических принципах применительно к промышленному контексту, опираясь на основные положения таких документов, как Рекомендации по этике ИИ ЮНЕСКО, Спецификации этики искусственного интеллекта нового поколения Китая, Закона Европейского Союза об искусственном интеллекте и российского Кодекса этики в сфере ИИ, а также определить базовые принципы этичного ИИ для промышленности, которые необходимо учитывать, закладывать и реализовывать во всех создаваемых системах искусственного интеллекта на всем протяжении жизненного цикла.
Ключевым событием 2021 года в области регулирования ИИ стало принятие Генеральной конференцией ЮНЕСКО в рамках своей 41-й сессии (Париж, 9-24 ноября 2021 г.) «Рекомендации по этике искусственного интеллекта». Указанный международный акт призван закрепить базовые принципы и методологические основы для преодоления этических вызовов, связанных с применением систем искусственного интеллекта [[vi], [vii]].
Импульсом к разработке данного акта послужила резолюция 40 C/37, принятая в рамках 40-й сессии Генеральной конференции ЮНЕСКО в ноябре 2019 года, который санкционировал процесс создания международной рекомендации, регулирующей этические аспекты искусственного интеллекта [[viii]].
Как отмечается в Докладе комиссии, который был сделан на этой конференции: «принимая во внимание, что технологии ИИ способны принести человечеству огромную пользу и их преимуществами могут воспользоваться все страны, но при этом поднимают фундаментальные вопросы этического порядка, касающиеся, в частности … необходимости обеспечения прозрачности и понятности работы алгоритмов и данных, на основе которых проводится обучение интеллектуальных систем; и потенциальные последствия их применения, в частности … научной и инженерной практики» [[ix]].
Этические нормы в области искусственного интеллекта, утвержденные 41-й сессией Генеральной конференции ЮНЕСКО, играют крайне важную роль для всех без исключения отраслей экономики Российской Федерации.
Первый международный форум под названием «Этика искусственного интеллекта: начало доверия» прошел в России 26 октября 2021 года. В числе ключевых мероприятий форума состоялась церемония подписания Национального кодекса этики ИИ. Данная площадка стала первой в стране, объединившей порядка 1500 разработчиков и пользователей технологий ИИ. Участники работали в пяти тематических секциях, обсуждая практические меры по интеграции этических принципов ИИ в ключевые сектора экономики РФ.
В кодексе этики ИИ подчеркивается: «Кодекс этики в сфере искусственного интеллекта устанавливает общие этические принципы и стандарты поведения, которыми следует руководствоваться участникам отношений в сфере искусственного интеллекта (далее – Акторы ИИ) в своей деятельности, а также механизмы реализации положений настоящего Кодекса. Кодекс распространяется на отношения, связанные с этическими аспектами создания (проектирования, конструирования, пилотирования), внедрения и использования технологий ИИ на всех этапах жизненного цикла…». Также в Кодексе подчеркивается, что технологии ИИ нужно применять по назначению и внедрять там, где это принесёт пользу людям, а также с тем, что нужна максимальная прозрачность и правдивость в информировании об уровне развития технологий ИИ, их возможностях и рисках [[x]].
В 2021 году Китай, являясь одним из мировых лидеров в области разработки и внедрения ИИ, принял этический кодекс «Спецификации этики искусственного интеллекта нового поколения», устанавливающий этические рамки для развития и использования ИИ-технологий. Данный документ утвержден Министерством науки и технологий Китая (MOST) и представляет собой продуманную стратегическую основу для устойчивого и безопасного внедрения ИИ в критически важных промышленных отраслях [[xi], [xii], [xiii]].
В августе 2024 года вступил в силу Закон Европейского Союза об искусственном интеллекте (так называемый, первый нормативный акт об искусственном интеллекте - EU AI Act), который представляет собой первое в мире всеобъемлющее законодательство в области ИИ, коренным образом меняющее подход к разработке, внедрению и использованию интеллектуальных систем в промышленности (в том числе систем ИИ высокого риска). Применение этого документа на практике позволяет совершить качественный скачок в обеспечении безопасности, надежности и прозрачности промышленных интеллектуальных систем. EU AI Act вводит риск-ориентированный подход, который особенно важен для промышленных приложений, где ошибки алгоритмов могут привести к катастрофическим последствиям — от масштабных простоев до техногенных аварий и человеческих жертв. Применение на практике основных положений EU AI Act для промышленных предприятий — это не только юридическое требование, но и возможность повысить надежность и безопасность производственных ИИ-систем, завоевать доверие клиентов и регуляторов, а также создать устойчивое конкурентное преимущество на глобальном рынке. [[xiv]].
Нужно подчеркнуть, что вопросами этики искусственного интеллекта занимаются и такие ИТ-гиганты, как Microsoft и IBM, а также такие крупные организации в США, как AlgorithmWatch (разработка объяснимых и отслеживаемых алгоритмов и процессов принятия решений в программах ИИ), Институт AI Now (исследует социальные последствия искусственного интеллекта), Агентство перспективных исследовательских проектов (занимается продвижением объяснимого ИИ и исследований в области ИИ), Center for Human-Compatible AI (объединение различных институтов и университетов в целях содействия созданию надежных систем искусственного интеллекта), Лаборатории Цифровой Этики при Оксфордском университете и Оксфордском интернет-институте в Великобритании (Digital Ethics Lab), и многие другие [[xv], [xvi]].
На основе анализа содержания рассматриваемых документов можно выделить несколько специфических для промышленности рисков:
1. Риски безопасности и защищенности. Это приоритет номер один. Некорректная работа ИИ-модели, управляющей высокоточным станком или энергосетью, может привести к фатальным последствиям. Отдельно стоят вопросы кибербезопасности. В текущих экономических условиях, промышленные ИИ-системы становятся приоритетной целью для хакеров, а их уязвимость может привести к промышленному шпионажу или диверсиям. С точки зрения формирования и развития современного цифрового общества, актуальным является вопрос оценки степени проникновения ИИ-систем в общество и личность. Кроме того, существует отдельная специфическая область промышленности, связанная с применением ИИ-систем и технологий в ОПК (например, кибервойны, боевые роботы и автономные дроны, и многое другое), требующая дополнительных исследований.
2. Проблема «черного ящика» и отсутствие прозрачности. Многие сложные модели ИИ, особенно глубокого обучения, практически неинтерпретируемы, а результаты их работы часто малообъяснимы. Если система предиктивного обслуживания выдает предупреждение о скором отказе турбины, инженер должен понимать, на каком основании это решение принято. Слепое доверие алгоритму без возможности верификации недопустимо в критически важных отраслях экономики и может привести к существенным убыткам промышленных предприятий.
3. Смещение в данных и алгоритмах. Если модель для прогноза остаточного ресурса работы оборудования обучалась на данных только от одного поставщика или в определенных климатических условиях, ее прогнозы могут быть системно завышены или занижены для техники других марок или работающей в иной производственной среде. Это ведет к ложным срабатываниям или, что хуже, к пропуску реальной неисправности.
4. Социально-трудовые последствия. Автоматизация с помощью ИИ ведет к изменению спроса на профессии. Задача этичного внедрения — не массовое увольнение, а переобучение персонала, повышение его квалификации и корпоративной культуры для работы в тандеме с автоматизированными ИИ-системами (например, оператор, взаимодействующий с системой прогнозной аналитики или экспертной системой).
5. Проблема ответственности и подотчетности. Если автономный робот на производстве причинит вред имуществу или здоровью человека, кто будет нести ответственность? Разработчик алгоритма, производитель оборудования, интегратор системы или владелец предприятия? Четкое юридическое и этическое определение субъекта ответственности критически важно. Проблема ответственности за причинение ущерба – это краеугольный камень преткновения для разработчиков ИИ-систем и их потребителей [[xvii]]. В том числе, в работе [[xviii]] поднимается вопрос о том, что «в контексте ответственности особенный смысл приобретает этическое прогнозирование, главная цель которого – предупреждение этических последствий развития науки и техники».
Анализируемые документы предлагают схожие системы базовых этических принципов, которые необходимо детально изучить, проанализировать, адаптировать и внедрить на конкретном промышленном предприятии, учитывая специфику соответствующей ему отрасли экономики, используемых информационных и автоматизированных систем, а также специфику производимых продуктов и услуг.
Необходимо отметить, что Рекомендации по этике ИИ ЮНЕСКО являются основополагающими и могут быть использованы для формирования базовых этических принципов в отрасли или на конкретном промышленном предприятии. Спецификации этики искусственного интеллекта нового поколения Китая – это более проработанный документ, который может быть использован, как «лучшие практики» для формирования нормативной документации по этике. Закон Европейского Союза об искусственном интеллекте – это Европейский стандарт и его целесообразно использовать для разработки собственных стандартов, политик, регламентов, методик и организационно распорядительных документов. Российский Кодекс этики в сфере ИИ носит декларативный и имиджевый характер, и может быть использован, как базовая декларация приверженности отдельного предприятия принципам этики ИИ. На момент 2025 года количество подписантов Кодекса составляет более 850 российских и 42 иностранные организации. В качестве дополнения к Кодексу можно рекомендовать использовать как «лучшие практики» Белая книга этики в сфере ИИ [[xix]].
Внедрение этичных принципов ИИ в промышленности требует их интеграции на каждом этапе жизненного цикла — от проектирования до реализации и эксплуатации всех создаваемых систем. Рассмотрим основные из них:
1. Безопасность и защищенность. Это означает обязательное проведение всесторонней оценки рисков на всех этапах жизненного цикла ИИ-системы — от проектирования до вывода из эксплуатации. Внедрение систем искусственного интеллекта должно использовать разносторонние механизмы тестирования, резервные механизмы ручного управления и постоянный мониторинг на предмет возникновения аномалий и защищенности систем искусственного интеллекта.
2. Прозрачность и объяснимость. Объяснимый искусственный интеллект – набор правил и методов, позволяющих пользователям системы искусственного интеллекта понять, почему алгоритмы машинного обучения этой системы пришли именно к тем или иным результатам работы и/или выводам. Объяснимый искусственный интеллект обеспечивает прозрачность работы используемой системы ИИ для ее пользователей, по своей сути противопоставляя себя принципу «черного ящика» в машинном обучении [[xx]]. Для промышленности это трансформируется в требование к разработке интерпретируемых и объяснимых моделей, применяемых в информационных и автоматизированных системах. В промышленности прозрачность должна ныть реализована через предоставление полной информации о получаемых и принимаемых решениях на основе ИИ, затрагивающих все аспекты функционирования промышленных предприятий, включая вопросы промышленной безопасности. Без обеспечения «прозрачности» и «объяснимости» любые рассуждения о «доверенном» искусственном интеллекте теряют смысл, поскольку эти принципы лежат в его основе. Например, в Законе Европейского Союза об искусственном интеллекте определены четыре уровня прозрачности для различных промышленных применений ИИ (базовая - информирование о взаимодействии с ИИ, средняя - объяснение ключевых факторов решений, высокая - детальное объяснение работы модели, полная - полная интерпретируемость каждой операции).
Под доверенным искусственным интеллектом понимается прикладная система ИИ, способная выполнять целевые задачи в соответствии со строго регламентируемыми требованиями, формирующими доверие к ее результатам работы. Эти требования включают [[xxi], [xxii]]:
достоверность и интерпретируемость выводов системы, подтвержденные на верифицированных тестовых данных;
безопасность, которая реализуется в двух направлениях: функциональная безопасность (недопущение ущерба для пользователей на всех стадиях жизненного цикла ИИ-системы) и кибербезопасность (противодействие взлому, несанкционированному доступу и иным внешним и внутренним угрозам угрозам);
конфиденциальность и верифицируемость данных, используемых алгоритмами ИИ;
интеграцию этических аспектов в работу ИИ-систем.
Важно обратить внимание на то, что основной целью EU AI Act об искусственном интеллекте является внедрение человеко-ориентированного и надежного ИИ.
3. Справедливость и недискриминация. Возможно, в промышленном контексте, реализация данных принципов может быть рассмотрена, как борьба с «предвзятостью», которая может быть выражена в решении проблем неопределенности данных (что особенно актуально для систем прогнозируемого и предписывающего обслуживания, экспертных и аналитических систем, и других). Наборы данных для обучения должны быть высокого качества и репрезентативными, и охватывать все возможные режимы работы оборудования, условия эксплуатации и производителей. Требуется проведение регулярных аудитов алгоритмов на предмет наличия смещений. В свою очередь, реализация принципов справедливости предполагает межотраслевое сотрудничество между промышленными предприятиями в преодолении вопросов цифрового разрыва и их солидарность в вопросах открытого доступа к результатам научно-производственной деятельности, достигнутым благодаря искусственному интеллекту.
Например, в китайской Спецификации этики искусственного интеллекта нового поколения, чтобы избежать вопросов дискриминации реализуют следующие принципы:
· подготовка репрезентативных данных для обучения. Наборы данных, используемые для обучения моделей, должны отражать разнообразие производственных ситуаций и условий, избегая системных перекосов;
регулярный аудит алгоритмов. Промышленные предприятия должны проводить регулярные проверки алгоритмов на предмет скрытых предубеждений, которые могут привести к несправедливому распределению ресурсов или оценке персонала;
прозрачности критериев оценки. Критерии, на основе которых системы ИИ принимают решения, должны быть понятны и объяснимы для всех работников предприятия.
4. Подконтрольность и подчиненность человеку. Ключевой принцип. Любая промышленная система ИИ, особенно в критических инфраструктурах, должна иметь четко прописанные уровни автономии. Критические решения всегда должны санкционироваться и приниматься человеком-оператором (соответствующим специалистом). Экспертные и прогнозные автоматизированные системы — это вспомогательные инструменты, а не «точка принятия решений». Так, например, в «Спецификации этики искусственного интеллекта нового поколения» говорится о том, что категорически утверждают, что искусственный интеллект должен постоянно находиться под контролем человека. В промышленном контексте это означает: Сохранение человеческого надзора (критические решения на производстве должны санкционироваться или утверждаться только человеком), отказ от полной автономии (подчеркивается, что даже самые совершенные системы прогнозируемого обслуживания или автономные роботы должны иметь четко определенные уровни автономии с возможностью немедленного вмешательства человека в их работу) и контроль в реальном времени (промышленные системы ИИ должны предоставлять операторам интуитивно понятные интерфейсы для мониторинга работы алгоритмов в реальном времени, особенно в таких отраслях, как энергетика, химическая промышленность и управление критической инфраструктурой).
5. Ответственность и подотчетность. Внедрение промышленного ИИ должно быть строго регламентируемым процессом, сопровождаться разработкой соответствующей актуальной нормативной и технической документацией, однозначно определяющей зоны ответственности между всеми участниками цепочки разработки и внедрения, что позволит обеспечить возможность своевременного выявления сбоев в работе промышленных систем искусственного интеллекта. На сегодняшний день, целесообразно рассмотреть вопросы и закрепить их решение на управленческом уровне, связанных со страхованием рисков в работе ИИ.
6. Человеко-ориентированный и гуманистический подход. В промышленности это означает, что технологии должны не заменять людей, а расширять их возможности. ИИ должен взять на себя рутинный труд, мониторинг и анализ, через автоматизацию рутинных задач, освободив человеческий интеллект для решения сложных, творческих задач по оптимизации и развитию производства. Человеко-ориентированный искусственный интеллект – это приоритетный принцип проектирования и развития искусственного интеллекта, при котором цели, задачи и ограничения человека, группы людей или всего человечества ставится на первое место с тем, чтобы обеспечивать соблюдение их интересов и прав [[xxiii], [xxiv]].
Так, например, в «Спецификации этики искусственного интеллекта нового поколения» делается акцент на повышении благосостояния людей и ориентацию на человека в промышленной среде, которое реализуется через: обеспечение безопасности персонала, повышение уровня знаний сотрудников, реализацию принципов эргономики и удобства использования цифровых инструментов и ИИ-систем, создание этических комитетов, развитие корпоративной культуры.
7. Кибербезопасность. Промышленные системы ИИ часто связаны с критической инфраструктурой, что делает их привлекательной мишенью для кибератак. Соответственно, необходимо обеспечить высокий уровень информационной безопасности работы ИИ-систем и данных, который должен в себя включать: защиту от, так называемых, состязательных атак (англ. Adversarial Attacks) (злонамеренного манипулирования входными данными модели машинного обучения), механизмы обеспечения целостности данных, резервирования, поддержания автономности работы и поддержание регулярных процедур информационной безопасности (например, в рамках производственных систем управления информационной безопасностью), колючая тестирование на проникновение и анализ уязвимостей [[xxv], [xxvi], [xxvii]]. В «Спецификации этики искусственного интеллекта нового поколения» заложен принцип «Privacy by Design», который подразумевает внедрение мер защиты конфиденциальности на этапе проектирования систем ИИ, а не после их внедрения. Так в исследовании [[xxviii]] было доказано, что многие современные диффузионные модели (например, такие как Stable Diffusion) не генерируют абсолютно новые изображения, а запоминают и регенерируют конкретные примеры из своих тренировочных данных. Это представляет собой серьезную угрозу конфиденциальности и нарушение авторских прав, особенно если такие модели будут обучены на чувствительных промышленных данных. Авторы разработали методологию атаки «generate-and-filter», которая позволяет извлекать из моделей почти точные копии тренировочных изображений. Был сделан вывод о том, что использование диффузионных моделей для генерации «анонимных» синтетических данных в «чувствительных» отраслях (например, в критической инфраструктуре в промышленности) крайне рискованно. Модель может выдать реальные данные, что приведет к утечке коммерческой тайны или персональных данных. Регенерация запатентованных чертежей, логотипов или коммерческих продуктов может привести к судебным искам о нарушении авторских прав. Статья убедительно доказывает, что диффузионные модели по своей архитектуре склонны к запоминанию данных. Это ставит под сомнение их безопасное применение в любой области, где конфиденциальность тренировочных данных имеет критическое значение, включая промышленную диагностику и прогнозное обслуживание. Развертывание таких систем требует крайней осмотрительности и новых механизмов защиты.
Основываясь на анализе перечисленных выше документов и лучших практиках, на сегодняшний день, с целью внедрения базовых принципов этики, промышленным компаниям целесообразно сформировать необходимую нормативную документацию. Это подразумевает разработку методик для анализа этических последствий внедрения ИИ, оценки готовности предприятия к созданию и эксплуатации ИИ-систем, а также анализа планируемой и реальной эффективности стратегий этичного использования искусственного интеллекта. Помимо этого, требуется наладить систему комплексного мониторинга и оценки политик, программ и механизмов, связанных с интеграцией этических норм в работу интеллектуальных и автоматизированных систем.
Специалисты, участвующие в проектировании и создании промышленных интеллектуальных информационных и автоматизированных систем должны руководствоваться следующими государственными стандартами: ГОСТ Р 59276 «Системы искусственного интеллекта. Способы обеспечения доверия. Общие положения», ГОСТ Р 59277—2020 «Системы искусственного интеллекта. Классификация систем искусственного интеллекта», ГОСТ Р 59898 «Оценка качества систем искусственного интеллекта. Общие положения», ГОСТ Р 70988 «Система стандартов в цифровой промышленности. Основные положения. Общие требования к системе», ГОСТ Р 70990 «Цифровая промышленность. Термины и определения» и, в частности, ПНСТ 964—2024 «Технологии искусственного интеллекта в станкоинструментальной промышленности. Варианты использования».
Дополнительно к вышесказанному, на предприятии необходимо внедрить Систему управления рисками и Систему управления качеством для всех высокорисковых ИИ-систем промышленных предприятий [[xxix]].
Заключение. Использование искусственного интеллекта в промышленности открывает огромные возможности, но также поднимает важные этические и регуляторные вопросы. Для обеспечения ответственного и устойчивого использования ИИ в промышленности необходимо разработать прозрачные и объяснимые алгоритмы, защитить конфиденциальность данных, избежать дискриминации и минимизировать возможное негативное влияние на человека. Кроме того, необходимо разработать четкие регуляторные рамки, которые определяют ответственность за решения принятые ИИ-системами и обеспечивают соблюдение этических принципов. Только так можно добиться того, чтобы ИИ приносил пользу обществу и способствовал устойчивому развитию промышленности.
Применение этических аспектов не тормозит инновации. Напротив, они являются залогом устойчивого и безопасного развития любого промышленного предприятия. Для российской промышленности следование этическим принципам — это не просто выполнение формальных требований, это возможность создать на основе лучших мировых практик «доверенный промышленный искусственный интеллект» — ключевой фактор независимости и конкурентоспособности на глобальном рынке.
Важно отметить, что этические вызовы искусственного интеллекта требуют решений на основе цифровой этики — дисциплины, синтезирующей этические, правовые, социологические и технологические подходы.
Предприятие, которое сможет продемонстрировать партнерам и регуляторам прозрачные, безопасные и подконтрольные человеку системы ИИ, получает колоссальное преимущество в виде доверия. Это доверие трансформируется в более легкий доступ к рынкам, инвестициям и талантам.
Этика ИИ в промышленности — это не бюрократическое препятствие, а стратегическая инвестиция в безопасное, устойчивое и прибыльное будущее. Задача научного и инженерного сообщества — воплотить эти высокие принципы в конкретные технические стандарты, архитектурные решения и образовательные программы для нового поколения инженеров, которые будут создавать и эксплуатировать промышленность.
Для цитирования:
Чесалов А.Ю. Этические аспекты использования искусственного интеллекта в промышленности // Автоматизация в промышленности – 2025. - №10. – С. 33 – 39. [Электронный ресурс] 2025 URL: https://avtprom.ru/article/eticheskie-aspekty-ispolzovaniya
[i] . Чесалов А.Ю. Применение прорывных технологий искусственного интеллекта в промышленных экосистемах Индустрии 4.0. // Перспективные интеграционные процессы в мировой экономике: нооподход / Сборник материалов IX Санкт-Петербургского международного экономического конгресса (СПЭК-2024) / Под общ. ред. С.Д. Бодрунова. Том 2. — М.: ИНИР им. С.Ю. Витте, 2024. — С. 176-184.
[ii] . Палюх Б.В., Чесалов А.Ю. Роль современных технологий искусственного интеллекта в создании и развитии автоматизированных систем прогнозируемого и предписывающего обслуживания в промышленности // Современная наука: актуальные проблемы теории и практики: серия «Естественные и Технические науки». – 2025. - №5. – С. 147 – 155. DOI 10.37882/2223-2966.2025.05.29
[iii] . Робот в Южной Корее убил человека, приняв его за коробку с овощами/ [Электронный ресурс] 2023 URL: https://trends.rbc.ru/trends/industry/654ca60c9a794723b727dbc3 (дата обращения: 21.08.2025)
[iv] . US air force denies running simulation in which AI drone ‘killed’ operator. [Электронный ресурс] 2023 URL: https://www.theguardian.com/us-news/2023/jun/01/us-military-drone-ai-killed-operator-simulated-test (дата обращения: 21.08.2025)
[v] . Agentic Misalignment: How LLMs could be insider threats. [Электронный ресурс] 2025 URL: https://www.anthropic.com/research/agentic-misalignment (дата обращения: 21.08.2025)
[vi] . Чесалов А.Ю. Этика и искусственный интеллект // Современные информационные системы - 2022. - № 1 (19). - С. 52 - 59.
[vii] . Рекомендация по этике искусственного интеллекта. [Электронный ресурс] // en.unesco.org. URL: https://en.unesco.org/artificial-intelligence/ethics#recommendation (дата обращения: 20.08.2025)
[viii] . Предварительное исследование возможности подготовки нормативного акта по вопросам этики применения искусственного интеллекта. [Электронный ресурс] 2019 URL: https://unesdoc.unesco.org/ark:/48223/pf0000369455\_rus (дата обращения: 20.08.2025)
[ix] . Доклад комиссии по социальным и гуманитарным наукам (SHS). [Электронный ресурс] 2021 URL: https://unesdoc.unesco.org/ark:/48223/pf0000379920\_rus.page=16 (дата обращения: 20.08.2025)
[x] . Кодекс этики в сфере ИИ. [Электронный ресурс] 2021 URL: https://a-ai.ru/code-of-ethics/ (дата обращения: 20.08.2025)
[xi] . Китай разработал этические принципы для регулирования искусственного интеллекта. [Электронный ресурс] 2021 URL: https://www.techinsider.ru/technologies/news-755323-kitay-razrabotal-eticheskie-principy-dlya-regulirovaniya-iskusstvennogo-intellekta/ (дата обращения: 20.08.2025)
[xii] . В Китае издан этический кодекс для искусственного интеллекта. [Электронный ресурс] 2021 URL: https://letaibe.media/news/v-kitae-izdan-eticheskij-kodeks-dlya-iskusstvennogo-intellekta/ (дата обращения: 20.08.2025)
[xiii] . В Китае выпустили кодекс этических принципов для искусственного интеллекта. [Электронный ресурс] 2021 URL: https://rg.ru/2021/10/04/v-kitae-vypustili-kodeks-eticheskih-principov-dlia-iskusstvennogo-intellekta.html (дата обращения: 20.08.2025)
[xiv] . EU AI Act: first regulation on artificial intelligence. [Электронный ресурс] 2024 URL: https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence (дата обращения: 20.08.2025)
[xv] . The Partnership of the Future. [Электронный ресурс] 2016 URL: https://slate.com/technology/2016/06/microsoft-ceo-satya-nadella-humans-and-a-i-can-work-together-to-solve-societys-challenges.html (дата обращения: 20.08.2025)
[xvi] . What is AI ethics? [Электронный ресурс] 2024 URL: https://www.ibm.com/think/topics/ai-ethics#Organizations+that+promote+AI+ethics (дата обращения: 20.08.2025)
[xvii] . Taddeo M.; Floridi L. How AI can be a force for good / Science. Vol. 361(6404). P. 751-752 / Digital Ethics Lab. URL: https://digitalethicslab.oii.ox.ac.uk. (дата обращения: 21.08.2025).
[xviii] . Назарова Ю. В. Этика искусственного интеллекта в современной россии: актуальные проблемы и тенденции развития // Гуманитарные ведомости ТГПУ им. Л. Н. Толстого. 2020. №2 (34). URL: https://cyberleninka.ru/article/n/etika-iskusstvennogo-intellekta-v-sovremennoy-rossii-aktualnye-problemy-i-tendentsii-razvitiya (дата обращения: 21.08.2025).
[xix] . Белая книга этики в сфере ИИ. [Электронный ресурс] 2025 URL: https://ethics.a-ai.ru/white-book/ (дата обращения: 21.08.2025).
[xx] . Чесалов А.Ю. Глоссариум по искусственному интеллекту и информационным технологиям / А. Ю. Чесалов. – Москва: Ridero, 2021. – 324 с. – URL: https://ridero.ru/books/glossarium_po_informacionnym_tekhnologiyam_i_iskusstvennomu_intellektu/ (дата обращения: 20.08.2025). – Текст: электронный.
[xxi] . Документация отбора получателей поддержки исследовательских центров в сфере искусственного интеллекта, в том числе в области «сильного» искусственного интеллекта, систем доверенного искусственного интеллекта и этических аспектов применения искусственного интеллекта. [Электронный ресурс] ac.gov.ru URL: https://ac.gov.ru/uploads/_Projects/AI_otbor/Documents.pdf (дата обращения: 20.08.2025).
[xxii] . Чесалов А.Ю. Как создать Центр искусственного интеллекта за 100 дней / А. Ю. Чесалов. – Москва: Ridero, 2021. – 314 с. – URL: https://ridero.ru/books/kak_sozdat_centr_iskusstvennogo_intellekta_za_100_dnei/ (дата обращения: 21.05.2023). – Текст: электронный.
[xxiii]. Баканач М.О., Власкин А.Н. Чесалов А.Ю., Глоссариум по искусственному интеллекту: 2500 терминов / М.О. Баканач, А.Н. Власкин, А. Ю. Чесалов. – том 1. - Москва: Ridero, 2022. – 460 с. – URL: https://ridero.ru/books/glossarium_po_iskusstvennomu_intellektu_2500_terminov/ (дата обращения: 20.08.2025). – Текст: электронный.
[xxiv] . Баканач М.О., Власкин А.Н. Чесалов А.Ю., Глоссариум по искусственному интеллекту: 2500 терминов / М.О. Баканач, А.Н. Власкин, А. Ю. Чесалов.– том 2. - Москва: Ridero, 2023. – 398 с. – URL: https://ridero.ru/books/glossarium_po_iskusstvennomu_intellektu_2500_terminov/ (дата обращения: 20.08.2025). – Текст: электронный.
[xxv] . Введение в Adversarial attacks: как защититься от атак в модели глубокого обучения на транзакционных данных. [Электронный ресурс] 2023 URL: https://habr.com/ru/companies/vtb/articles/718024/ (дата обращения: 20.08.2025)
[xxvi] . Как обмануть нейросеть или что такое Adversarial attack. [Электронный ресурс] 2025 URL: https://chernobrovov.ru/articles/kak-obmanut-nejroset-ili-chto-takoe-adversarial-attack.html (дата обращения: 20.08.2025)
[xxvii] . Гетьман А.И., Горюнов М.Н., Мацкевич А.Г., Рыболовлев Д.А., Никольская А.Г.. Состязательные атаки против системы обнаружения вторжений, основанной на применении методов машинного обучения. // Проблемы информационной безопасности. Компьютерные системы. – 2023. - №4. – С. 156 – 190. DOI:10.48612/jisp/eatr-5pxb-akt8
[xxviii] . Carlini, Nicholas & Hayes, Jamie & Nasr, Milad & Jagielski, Matthew & Sehwag, Vikash & Tramer, Florian & Balle, Borja & Ippolito, Daphne & Wallace, Eric. (2023). Extracting Training Data from Diffusion Models. DOI:10.48550/arXiv.2301.13188.
[xxix] . Как EU AI Act влияет на бизнес в Европе (и за ее пределами). [Электронный ресурс] 2025 URL: https://data-privacy-office.com/kak-eu-ai-act-vliyaet-na-biznes-v-evrope-i-za-ee-predelami/ (дата обращения: 20.08.2025)
PCB_Destroyer
Как говорится для ИИ, этика — ключ к доверию!
Alexander_Chesalov Автор
Я сейчас в Бауманке работаю. Вы к промышленной автоматизации и IIoT отношение имеете?