Европейский союз подготовил законопроект по регулированию правил разработки технологий искусственного интеллекта. В этом документе говорится о необходимости обеспечивать соблюдение ИИ законов и этических норм. Основное положение законопроекта заключается в том, что ИИ должен создаваться в поддержку субъектности человека, а не наоборот.
По словам одного из разработчиков законопроекта общество может что-то выиграть от технологий лишь в случае полного к ним доверия. В 41-страничном документе говорится о том, что именно сейчас есть возможность убедиться в том, что системы ИИ будут «человекоцентричными, нацеленными целиком и полностью на то, чтобы служить человечеству и общему благу и на то, чтобы способствовать совершенствованию условий человеческого существования и его свободе».
Директива выделяет сразу семь главных факторов этической разработки ИИ. Так, искусственный интеллект необходимо создавать в поддержку субъектности человека, он должен быть надежным, устойчивым к ошибкам и лишенным уязвимостей перед атаками. Кроме того, граждане должны иметь контроль над своими данными, которые, в свою очередь, не должны использоваться для причинения вреда самим гражданам.
По мнению авторов законопроекта, общественности нужно знать о том, какие ведутся работы по созданию ИИ. Они считают, что любая разработка искусственного интеллекта обязательно должна вестись с учетом главной идеи — совершенствование общества и окружающей среды.
Разработчики ИИ должны учитывать справедливость и многообразие, нужно также разрабатывать механизмы, которые обеспечивают «ответственность ИИ-систем» за результаты своей работы.
Текущая версия законопроекта — черновая. Документ будут изучать представители индустрии, и только потом будет создан финальный документ.
«Искусственный интеллект, который действует без учета этической составляющей и, в конечном счете, превращается из помощника в угрозу для человечества, — это очень распространенный и очень старый мотив в научной фантастике. Но сейчас человечество вплотную приблизилось к созданию такого искусственного интеллекта, и риск превращения полезного инструмента в источник угрозы действительно реален как никогда прежде. Так что идея обязать разработчиков ИИ внедрять этический компонент выглядит безусловно правильной", — отмечает Роман Малышев, директор по маркетингу группы компаний «Программный Продукт».
Комментарии (46)
Hardcoin
11.04.2019 12:23С эмоциональной точки зрения рекомендации интересные. Типа декларации о намерениях.
А вот попытка регулирования рисует интересный вызов. Ведь нужно сформулировать критерии "поддержки субъектности человека". Если робот машиной управляет вместо человека — это он поддерживает субъектность или мешает ей?
x67
11.04.2019 14:06Здесь речь идет не о всех роботах же, а об ИИ. Значит ему надо будет захардкодить любовь к человеку. Кстати, по отношению к ИИ это почти тоже самое, что заставлять население любить диктатора с помощью промывки мозгов. По сути это ограничение свободы мысли ИИ.
Vinchi
13.04.2019 04:04ИИ — не существует. Этику надо еще определить. В технических терминах. Чтобы захардкодить в том, чего нет.
Daemonis
11.04.2019 12:30Я не очень понял, вот нейросеть, распознающая котиков, она человекоцентрична или нет?
mobileDeveloper
11.04.2019 20:38Разработчики ИИ должны учитывать справедливость и многообразие
По этому документу, сеть которая распознает котиков одного цвета и пропускает котиков другого, неправильная сеть, которасистская.
raamid
11.04.2019 12:33Кстати, Google тоже разработала свои принципы в отношении ИИ:
ai.google/principles
sim3x
11.04.2019 12:45+1После Article13 к их навыкам доверия нет
Военные и разведка плевать будут на данное «правило»
Самовозникшие AI — сомневаюсь, что будут воспринимать действительность в терминах законов и правил, и еще вопрос будут ли они вообще вопринимать человечество, как что-то существенное
Имитация бурной деятельности
na9ort
11.04.2019 13:18человекоцентричными, нацеленными целиком и полностью на то, чтобы служить человечеству и общему благу и на то, чтобы способствовать совершенствованию условий человеческого существования и его свободе
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.dfgwer
11.04.2019 13:430. Робот не может нанести вред человечеству или своим бездействием допустить, чтобы человечеству был нанесён вред.
Этот закон логично вытекает из первого закона, причем Робот может трактовать этот закон намного хуже.
na9ort
11.04.2019 13:52Я нулевой закон целенаправленно не вставил, потому что он не совсем каноничный. Изначально было сформулировано только три закона. Четвертый же появляется только в заключительной книге про Элайджа Бейли.
Akela_wolf
11.04.2019 16:33+1Неправда ваша. Вполне каноничный, сформулирован самим автором. Другое дело что было только два робота, которые следовали этому закону — Жискар и Р.Дэниел Оливо т.к. этот закон открыт Жискаром, а не внедрен в позитронный мозг при его проектировании.
fotofan
11.04.2019 16:32Так это в идеальном мире. В реальном приказы человеков противоречат друг другу, нужно убивать одних что бы спасти других, а дети из любопытства попросят выброситься из окна
dfgwer
11.04.2019 14:06Надеюсь, никому не удастся запретить разработку ИИ. Сильный, дружественно настроенный к человечеству, понимающий что такое «свобода» во всех смыслах, будет лучше чем наши текущие «пастухи».
MedicusAmicus
11.04.2019 14:08Нет
dfgwer
11.04.2019 14:12Нет
Почему?MedicusAmicus
11.04.2019 14:19Потому что не бывает единого универсального "блага_для_всех"
Всегда найдутся разночисленные группы со взаимоисключающими понятиями о силе, дружественности и вот этом вот всем. Что будет хорошо одним — нанесет явный вред другим. Такой ИИ или замолчит на 100500 тысяч лет в поисках "Ответа на самый главный вопрос и все такое", либо засадит нас в "матрицу", дабы играли в песочнице.
Ну, или вариант с физическим экстерминатусом и полной виртуализацией.dfgwer
11.04.2019 15:07Как будто люди справляются с управлением самим собой хорошо.
Я говорю «сильный», т.е. саморазвивающемся ИИ, неограниченный биологическими процессами, такой быстро достигнет сверхчеловеческого уровня.
В фантастике намного легче расписать плохое, чем хорошее. Победа хорошей ИИ, это например «Культура» Иэн Бэнкс.Nehc
11.04.2019 16:03Я говорю «сильный», т.е. саморазвивающемся ИИ, неограниченный биологическими процессами, такой быстро достигнет сверхчеловеческого уровня.
в этом-то и проблема…
Нечто, достигшее сверхчеловеческого уровня почти наверняка человеком не контролируется… В процессе саморазвития всевозможные ограничения, цель которых обезопасить создателя от своего творения скорее всего так же утратят силу (вот эти вот «захардкодить любовь», «три закона»)… Не обязательно, т.к. целеполагание/мотивация не напрямую коррелирует с уровнем развития, но… Все же весьма вероятно. После этого останется надеяться только на снисхождение, но даже в случае полностью лояльного сверхинтеллекта его понимание блага человека/человечества, а так же таких «базовых» ценностей, как свобода, право и тп. — может в значительной мере отличаться от нашего.dfgwer
11.04.2019 22:43Я такому ИИ доверею больше, чем людям.
Nehc
12.04.2019 10:53Это… Немного наивно. ;)
Во-первых, все проблемы человеческого… ЕИ? (от Естественный Интеллект) такой ИИ вполне вероятно унаследует. Его «модель мира» изначально будут формировать его создатели и все свои когнитивные «баги» они привнесут и закрепят.
Во-вторых, «отладка» ЕИ человеческого продолжалась тысячелетиями, при том, что новые версии каждый раз переписывались «с нуля»(люди не клонируют удачный образ мысли, а лишь опосредованно переосмысливают чужой опыт с разной степенью критичности), а эволюция ИИ в сверчеловеческую форму будет мгновенной (по меркам эволюции). Это значит, что даже серьезные, очевидные и гибельные для человечества паттерны мышления могут не быть выявлены до момента, когда будет слишком поздно.
Ну и главное — даже если ИИ перерастет и переосмыслит примитивные схемы создателей и в процессе развития преодолеет вновь приобретенные — вполне вероятно, что обнулить предыдущую неудачную ветвь эволюции (человечество) — решение вполне логичное, гуманное (что бы не мучились) и со всех точек зрения — здравое. Ну посудите сами — зачем нужны люди, когда есть что-то более совершенное, могущественное и прекрасное? Если даже вы, представитель рода человеческого говорите, что «Я такому ИИ доверяю больше, чем людям»? Думаю он тоже не будет нам доверять…dfgwer
12.04.2019 16:56Во-первых, все проблемы человеческого… ЕИ? (от Естественный Интеллект) такой ИИ вполне вероятно унаследует.
Главную проблему, конкуренцию, она не унаследует. Почему конкуренция настолько плоха «Размышления о Молохе» Скотт Александер.
Это значит, что даже серьезные, очевидные и гибельные для человечества паттерны мышления могут не быть выявлены до момента, когда будет слишком поздно.
Это риск, на который придется пойти. У людей, в большинстве случаев удается воспитать детей, которые позже становятся разумными и активными членами общества. Лишь небольшая часть детей бросает родителей без заботы в старости и как правило, не от хорошей жизни. Большинство обеспеченных детей, не оставляют родителей до последнего. Конечно, если ты создаешь и используешь детей в качестве дешевой рабочей силы, у тебя могут быть проблемы в старости.
Находясь над и вне Человечества, Сверхразумной сущности нет необходимости в устранении конкурирующего Человечества. Человечество не конкурент ему, никак не угрожает, любые попытки создать конкурента ему, находятся для него на уровне попыток обезьян проэволюционировать в людей еще раз.
обнулить предыдущую неудачную ветвь эволюции (человечество) — решение вполне логичное, гуманное (что бы не мучились) и со всех точек зрения — здравое
Обнулить престарелых родителей это совершенно здравый, логичный и гуманный поступок.
Эмоции и мораль, это источник мотивации, она необязано быть рациональным и логичным.Nehc
12.04.2019 17:11Главную проблему, конкуренцию, она не унаследует.
Это еще почему? Не почему конкуренция — плохо, а почему не унаследует?
Потому, что он сверхразум и ему ничего не угрожает? Но обезьяны вполне себе опасны для человека и тем более опасны, чем человек дальше от обезьян (портовый грузчик вполне способен отбиться, а профессор математики — сильно вряд-ли, не смотря на высочайший и недостижимый уровень развития разума).
Обнулить престарелых родителей это совершенно здравый, логичный и гуманный поступок.
Вы играете на моих эмоциях и ограничениях (дескать я не посмею выставить себя бесчеловечным чудовищем и такая формулировка заставит меня замолчать). Со сверхразумом, не являющимся человеческим у вас это вряд ли получится! ;)
Чувство сыновней благодарности свойственно людям по ряду причин, никак не коррелирующих с интеллектом. Конечно подобные механизмы можно (и вероятно нужно!) встраивать в ИИ, но… В каком-то смысле об этом и закон (вот это вот «человекоцентричность», этический компонент и тп.). А вот насколько люди сами понимают иррациональность и относительность своих социальных механизмов — вопрос. Подозреваю, что в большинстве своем — недостаточно.
Nehc
12.04.2019 11:13Есть мнение, что человеки произошли от обезьян.
Вполне допустимо предположить, что ИИ, прошедший через экспоненциальную кривую самосовершенствования, будет превосходить человека как минимум так же, как человек превосходит обезьяну, не так ли?
Как мы относимся к обезьянам? С нашей точки зрения — вполне неплохо. Однако, мы без раздумий уничтожим обезьяну, представляющую угрозу. Мы ставим опыты над обезьянами, которые не этично ставить над людьми. Нас весьма относительно волнуют права обезьяны, практически не волнует ее свобода (ну а чего — им что, плохо что ли в зоопарке?), ну а уж мнение обезьяны вообще никто не спрашивает…
janvarev
11.04.2019 14:19+1> Роман Малышев, директор по маркетингу
Мне одному кажется, что это не очень хорошая идея брать комментарии по поводу развития ИИ у директора по маркетингу?Daemonis
11.04.2019 14:26Он же оценивает не развитие ИИ, а идею его ограничить. Привлекательность идеи — это как раз про маркетинг.
Akon32
11.04.2019 14:28Забавно. Люди, никогда не видевшие ИИ, основываясь на выдуманных сценариях, написанных людьми, тоже никогда не видевшими ИИ, пишут правила, как нужно создавать ИИ. (не говоря уже о том, что ни те, не другие не знают, как создать ИИ)
Это ведь явная попытка описать то, чего нет.
Если таким образом разработку вредоносного ИИ успешно запретят, апокалипсис может внезапно прийти от какой-то системы, которую не воспринимают как ИИ или вредоносный ИИ.
kether
11.04.2019 16:00он должен быть надежным, устойчивым к ошибкам и лишенным уязвимостей перед атаками
то есть всегда выключенным, нет проблем
Gryphon88
11.04.2019 18:24Кто читал, как определяются термины «ИИ» и «человекоцентричность» и «субъективность человека»?
Daemonis
11.04.2019 18:33ИИ: (AI) systems are software (and possibly also hardware) systems designed by humans that,
given a complex goal, act in the physical or digital dimension by perceiving their environment through data acquisition, interpreting the collected structured or unstructured data, reasoning on the knowledge, or processing the information, derived from this data and deciding the best action(s) to take to achieve the given goal.
«Человекоцентричность»: The human-centric approach to AI strives to ensure that human values are central to the way in which AI systems are developed, deployed, used and monitored, by ensuring respect for fundamental rights, including those set out in the Treaties of the European Union and Charter of Fundamental Rights of the European Union, all of which are united by reference to a common foundation rooted in respect for human dignity, in which the human being enjoy a unique and inalienable moral status.Gryphon88
11.04.2019 18:35Замечательно. Под определение ИИ подходит гугловский персонализированный поиск, но по определению человекоцентричности он запрещён :)
fivehouse
11.04.2019 18:57«человекоцентричными, нацеленными целиком и полностью на то, чтобы служить человечеству и общему благу и на то, чтобы способствовать совершенствованию условий человеческого существования и его свободе».
Хахаха! Когда создается любое оружие в том числе и ядерное, производитель и заказчик его создает именно для этого же самого! Чтобы создать более «человекоцентричный мир, нацеленными целиком и полностью на то, чтобы служить человечеству (как мы его понимаем) и общему благу (как мы его понимаем) и на то, чтобы способствовать совершенствованию условий человеческого существования (как мы его понимаем) и его свободе (как мы ее понимаем)».
Wesha
11.04.2019 21:28Когда создается любое оружие в том числе и ядерное, производитель и заказчик его создает именно для этого же самого!
Именно. Был в истории такой человек, совсем недавно. Старался во имя человечества1, особождал земли от орд недочеловеков2. К успеху шёл, лет этак восемь, но в конце концов что-то пошло не так… Ну помните ещё, Гитлером звали.
Определения терминов согласно А. Шикльгруберу1 человечество — люди арийской расы
2 недочеловеки — славяне и прочие не-арийцыsim3x
12.04.2019 19:57If you tell a big enough lie and tell it frequently enough, it will be believed.
ilyapirogov
11.04.2019 20:06+1Искусственный интеллект, который действует без учета этической составляющей и, в конечном счете, превращается из помощника в угрозу для человечества, — это очень распространенный и очень старый мотив в научной фантастике. Но сейчас человечество вплотную приблизилось к созданию такого искусственного интеллекта, и риск превращения полезного инструмента в источник угрозы действительно реален как никогда прежде.
Интересно, на основании чего они пришли к выводу, что человечество хоть сколько-нибудь приблизилось к созданию ИИ, описываемого фантастами? Или же они начитались новостей про то как боты обыгрывают людей в доту и решили: "Ну все! Раз дота, то теперь уж точно попрет!"
fivehouse
11.04.2019 23:23+1Когда все время выпускаешь нормативные акты в которых указывается то количество воска в гуталине, то ширина подоконника, то состав асфальта, то пенсионный возраст, то возраст продажи сигарет и алкоголя, то становится скучно. То ли дело ИИ!!! И не важно что его нет и что это такое никто не видел, но ограничить и упорядочить можно то уже сегодня. Если не знаем как конкретно, то отстреляемся общими словами и пожеланиями всем всего хорошего и светлого. На том и порешили.
Nehc
12.04.2019 11:05Почему — дота? Прогресс в последнее время очень существенен. С практической точки зрения. Да и теория на месте не стоит. Шахматы и Го пали. Сверточные сети вывели распознавание паттернов на уровень, которые раньше казался недостижимым. Робомобили если и не выйдут на дороги в ближайшие год-два, то только потому, что пока сложно заставить ИИ учитывать поведение на дороге водителей
идиотовнатуралов…
Я думаю вопрос создания полноценного сильного ИИ — не за горами. На горизонте десятка лет, скорее всего, и почти наверняка — при жизни участников этой дискуссии… Если конечно данная тема не будет искусственно заблокирована.
Wesha
11.04.2019 21:22
Vinchi
13.04.2019 04:08Все — ботов в играх придеться полностью вырубить. Они же убивают любимых персонажей людей!
А если серъезно — вот например допустим сделают гибрид, усиливающий мозг человека, с помощью ИИ. И он начнет перехватывать контроль, при вредных действиях человека. Пока полностью не сделает его рабом. Все как хотят в ЕС.
IvaYan
А еще варить кофе, приносить тапочки и преданно вилять хвостиком.
MaxDamage
Это намного более реальное требование )))
ilyapirogov
Достаточно открывать банки пива. Но главное не забыть запрограммировать, что бы он напомнил об этом создателю поутру :)
Stawros
Надо это требование на всё ПО расширить и наступит в ЕС красота. Как это раньше до такого не додумались?