Европейский союз подготовил законопроект по регулированию правил разработки технологий искусственного интеллекта. В этом документе говорится о необходимости обеспечивать соблюдение ИИ законов и этических норм. Основное положение законопроекта заключается в том, что ИИ должен создаваться в поддержку субъектности человека, а не наоборот.

По словам одного из разработчиков законопроекта общество может что-то выиграть от технологий лишь в случае полного к ним доверия. В 41-страничном документе говорится о том, что именно сейчас есть возможность убедиться в том, что системы ИИ будут «человекоцентричными, нацеленными целиком и полностью на то, чтобы служить человечеству и общему благу и на то, чтобы способствовать совершенствованию условий человеческого существования и его свободе».

Директива выделяет сразу семь главных факторов этической разработки ИИ. Так, искусственный интеллект необходимо создавать в поддержку субъектности человека, он должен быть надежным, устойчивым к ошибкам и лишенным уязвимостей перед атаками. Кроме того, граждане должны иметь контроль над своими данными, которые, в свою очередь, не должны использоваться для причинения вреда самим гражданам.

По мнению авторов законопроекта, общественности нужно знать о том, какие ведутся работы по созданию ИИ. Они считают, что любая разработка искусственного интеллекта обязательно должна вестись с учетом главной идеи — совершенствование общества и окружающей среды.

Разработчики ИИ должны учитывать справедливость и многообразие, нужно также разрабатывать механизмы, которые обеспечивают «ответственность ИИ-систем» за результаты своей работы.

Текущая версия законопроекта — черновая. Документ будут изучать представители индустрии, и только потом будет создан финальный документ.

«Искусственный интеллект, который действует без учета этической составляющей и, в конечном счете, превращается из помощника в угрозу для человечества, — это очень распространенный и очень старый мотив в научной фантастике. Но сейчас человечество вплотную приблизилось к созданию такого искусственного интеллекта, и риск превращения полезного инструмента в источник угрозы действительно реален как никогда прежде. Так что идея обязать разработчиков ИИ внедрять этический компонент выглядит безусловно правильной", — отмечает Роман Малышев, директор по маркетингу группы компаний «Программный Продукт».

Комментарии (46)


  1. IvaYan
    11.04.2019 11:42
    +2

    он должен быть надежным, устойчивым к ошибкам и лишенным уязвимостей перед атаками

    А еще варить кофе, приносить тапочки и преданно вилять хвостиком.


    1. MaxDamage
      11.04.2019 11:54

      Это намного более реальное требование )))


    1. ilyapirogov
      11.04.2019 20:12

      Достаточно открывать банки пива. Но главное не забыть запрограммировать, что бы он напомнил об этом создателю поутру :)


    1. Stawros
      12.04.2019 11:22

      Надо это требование на всё ПО расширить и наступит в ЕС красота. Как это раньше до такого не додумались?


  1. Hardcoin
    11.04.2019 12:23

    С эмоциональной точки зрения рекомендации интересные. Типа декларации о намерениях.


    А вот попытка регулирования рисует интересный вызов. Ведь нужно сформулировать критерии "поддержки субъектности человека". Если робот машиной управляет вместо человека — это он поддерживает субъектность или мешает ей?


    1. x67
      11.04.2019 14:06

      Здесь речь идет не о всех роботах же, а об ИИ. Значит ему надо будет захардкодить любовь к человеку. Кстати, по отношению к ИИ это почти тоже самое, что заставлять население любить диктатора с помощью промывки мозгов. По сути это ограничение свободы мысли ИИ.


      1. Vinchi
        13.04.2019 04:04

        ИИ — не существует. Этику надо еще определить. В технических терминах. Чтобы захардкодить в том, чего нет.


  1. Daemonis
    11.04.2019 12:30

    Я не очень понял, вот нейросеть, распознающая котиков, она человекоцентрична или нет?


    1. IvaYan
      11.04.2019 13:19

      Если котик понравился человеку, то да.


    1. mobileDeveloper
      11.04.2019 20:38

      Разработчики ИИ должны учитывать справедливость и многообразие

      По этому документу, сеть которая распознает котиков одного цвета и пропускает котиков другого, неправильная сеть, которасистская.


  1. raamid
    11.04.2019 12:33

    Кстати, Google тоже разработала свои принципы в отношении ИИ:
    ai.google/principles


  1. sim3x
    11.04.2019 12:45
    +1

    После Article13 к их навыкам доверия нет

    Военные и разведка плевать будут на данное «правило»
    Самовозникшие AI — сомневаюсь, что будут воспринимать действительность в терминах законов и правил, и еще вопрос будут ли они вообще вопринимать человечество, как что-то существенное

    Имитация бурной деятельности


  1. na9ort
    11.04.2019 13:18

    человекоцентричными, нацеленными целиком и полностью на то, чтобы служить человечеству и общему благу и на то, чтобы способствовать совершенствованию условий человеческого существования и его свободе

    1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
    2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
    3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.


    1. dfgwer
      11.04.2019 13:43

      0. Робот не может нанести вред человечеству или своим бездействием допустить, чтобы человечеству был нанесён вред.

      Этот закон логично вытекает из первого закона, причем Робот может трактовать этот закон намного хуже.


    1. striver
      11.04.2019 13:48

      А еще есть нулевой закон.


    1. na9ort
      11.04.2019 13:52

      Я нулевой закон целенаправленно не вставил, потому что он не совсем каноничный. Изначально было сформулировано только три закона. Четвертый же появляется только в заключительной книге про Элайджа Бейли.


      1. Akela_wolf
        11.04.2019 16:33
        +1

        Неправда ваша. Вполне каноничный, сформулирован самим автором. Другое дело что было только два робота, которые следовали этому закону — Жискар и Р.Дэниел Оливо т.к. этот закон открыт Жискаром, а не внедрен в позитронный мозг при его проектировании.


    1. fotofan
      11.04.2019 16:32

      Так это в идеальном мире. В реальном приказы человеков противоречат друг другу, нужно убивать одних что бы спасти других, а дети из любопытства попросят выброситься из окна


  1. dfgwer
    11.04.2019 14:06

    Надеюсь, никому не удастся запретить разработку ИИ. Сильный, дружественно настроенный к человечеству, понимающий что такое «свобода» во всех смыслах, будет лучше чем наши текущие «пастухи».


    1. MedicusAmicus
      11.04.2019 14:08

      Нет


      1. dfgwer
        11.04.2019 14:12

        Нет

        Почему?


        1. MedicusAmicus
          11.04.2019 14:19

          Потому что не бывает единого универсального "блага_для_всех"


          Всегда найдутся разночисленные группы со взаимоисключающими понятиями о силе, дружественности и вот этом вот всем. Что будет хорошо одним — нанесет явный вред другим. Такой ИИ или замолчит на 100500 тысяч лет в поисках "Ответа на самый главный вопрос и все такое", либо засадит нас в "матрицу", дабы играли в песочнице.
          Ну, или вариант с физическим экстерминатусом и полной виртуализацией.


          1. dfgwer
            11.04.2019 15:07

            Как будто люди справляются с управлением самим собой хорошо.
            Я говорю «сильный», т.е. саморазвивающемся ИИ, неограниченный биологическими процессами, такой быстро достигнет сверхчеловеческого уровня.
            В фантастике намного легче расписать плохое, чем хорошее. Победа хорошей ИИ, это например «Культура» Иэн Бэнкс.


            1. Nehc
              11.04.2019 16:03

              Я говорю «сильный», т.е. саморазвивающемся ИИ, неограниченный биологическими процессами, такой быстро достигнет сверхчеловеческого уровня.
              в этом-то и проблема…
              Нечто, достигшее сверхчеловеческого уровня почти наверняка человеком не контролируется… В процессе саморазвития всевозможные ограничения, цель которых обезопасить создателя от своего творения скорее всего так же утратят силу (вот эти вот «захардкодить любовь», «три закона»)… Не обязательно, т.к. целеполагание/мотивация не напрямую коррелирует с уровнем развития, но… Все же весьма вероятно. После этого останется надеяться только на снисхождение, но даже в случае полностью лояльного сверхинтеллекта его понимание блага человека/человечества, а так же таких «базовых» ценностей, как свобода, право и тп. — может в значительной мере отличаться от нашего.


              1. dfgwer
                11.04.2019 22:43

                Я такому ИИ доверею больше, чем людям.


                1. Nehc
                  12.04.2019 10:53

                  Это… Немного наивно. ;)

                  Во-первых, все проблемы человеческого… ЕИ? (от Естественный Интеллект) такой ИИ вполне вероятно унаследует. Его «модель мира» изначально будут формировать его создатели и все свои когнитивные «баги» они привнесут и закрепят.

                  Во-вторых, «отладка» ЕИ человеческого продолжалась тысячелетиями, при том, что новые версии каждый раз переписывались «с нуля»(люди не клонируют удачный образ мысли, а лишь опосредованно переосмысливают чужой опыт с разной степенью критичности), а эволюция ИИ в сверчеловеческую форму будет мгновенной (по меркам эволюции). Это значит, что даже серьезные, очевидные и гибельные для человечества паттерны мышления могут не быть выявлены до момента, когда будет слишком поздно.

                  Ну и главное — даже если ИИ перерастет и переосмыслит примитивные схемы создателей и в процессе развития преодолеет вновь приобретенные — вполне вероятно, что обнулить предыдущую неудачную ветвь эволюции (человечество) — решение вполне логичное, гуманное (что бы не мучились) и со всех точек зрения — здравое. Ну посудите сами — зачем нужны люди, когда есть что-то более совершенное, могущественное и прекрасное? Если даже вы, представитель рода человеческого говорите, что «Я такому ИИ доверяю больше, чем людям»? Думаю он тоже не будет нам доверять…


                  1. dfgwer
                    12.04.2019 16:56

                    Во-первых, все проблемы человеческого… ЕИ? (от Естественный Интеллект) такой ИИ вполне вероятно унаследует.

                    Главную проблему, конкуренцию, она не унаследует. Почему конкуренция настолько плоха «Размышления о Молохе» Скотт Александер.

                    Это значит, что даже серьезные, очевидные и гибельные для человечества паттерны мышления могут не быть выявлены до момента, когда будет слишком поздно.

                    Это риск, на который придется пойти. У людей, в большинстве случаев удается воспитать детей, которые позже становятся разумными и активными членами общества. Лишь небольшая часть детей бросает родителей без заботы в старости и как правило, не от хорошей жизни. Большинство обеспеченных детей, не оставляют родителей до последнего. Конечно, если ты создаешь и используешь детей в качестве дешевой рабочей силы, у тебя могут быть проблемы в старости.
                    Находясь над и вне Человечества, Сверхразумной сущности нет необходимости в устранении конкурирующего Человечества. Человечество не конкурент ему, никак не угрожает, любые попытки создать конкурента ему, находятся для него на уровне попыток обезьян проэволюционировать в людей еще раз.

                    обнулить предыдущую неудачную ветвь эволюции (человечество) — решение вполне логичное, гуманное (что бы не мучились) и со всех точек зрения — здравое

                    Обнулить престарелых родителей это совершенно здравый, логичный и гуманный поступок.
                    Эмоции и мораль, это источник мотивации, она необязано быть рациональным и логичным.


                    1. Nehc
                      12.04.2019 17:11

                      Главную проблему, конкуренцию, она не унаследует.
                      Это еще почему? Не почему конкуренция — плохо, а почему не унаследует?
                      Потому, что он сверхразум и ему ничего не угрожает? Но обезьяны вполне себе опасны для человека и тем более опасны, чем человек дальше от обезьян (портовый грузчик вполне способен отбиться, а профессор математики — сильно вряд-ли, не смотря на высочайший и недостижимый уровень развития разума).
                      Обнулить престарелых родителей это совершенно здравый, логичный и гуманный поступок.
                      Вы играете на моих эмоциях и ограничениях (дескать я не посмею выставить себя бесчеловечным чудовищем и такая формулировка заставит меня замолчать). Со сверхразумом, не являющимся человеческим у вас это вряд ли получится! ;)

                      Чувство сыновней благодарности свойственно людям по ряду причин, никак не коррелирующих с интеллектом. Конечно подобные механизмы можно (и вероятно нужно!) встраивать в ИИ, но… В каком-то смысле об этом и закон (вот это вот «человекоцентричность», этический компонент и тп.). А вот насколько люди сами понимают иррациональность и относительность своих социальных механизмов — вопрос. Подозреваю, что в большинстве своем — недостаточно.


    1. ffs
      11.04.2019 14:37

      Омниус, спайс, галактический джихад… неее, не надо)


    1. Nehc
      12.04.2019 11:13

      Есть мнение, что человеки произошли от обезьян.

      Вполне допустимо предположить, что ИИ, прошедший через экспоненциальную кривую самосовершенствования, будет превосходить человека как минимум так же, как человек превосходит обезьяну, не так ли?

      Как мы относимся к обезьянам? С нашей точки зрения — вполне неплохо. Однако, мы без раздумий уничтожим обезьяну, представляющую угрозу. Мы ставим опыты над обезьянами, которые не этично ставить над людьми. Нас весьма относительно волнуют права обезьяны, практически не волнует ее свобода (ну а чего — им что, плохо что ли в зоопарке?), ну а уж мнение обезьяны вообще никто не спрашивает…


  1. janvarev
    11.04.2019 14:19
    +1

    > Роман Малышев, директор по маркетингу
    Мне одному кажется, что это не очень хорошая идея брать комментарии по поводу развития ИИ у директора по маркетингу?


    1. Daemonis
      11.04.2019 14:26

      Он же оценивает не развитие ИИ, а идею его ограничить. Привлекательность идеи — это как раз про маркетинг.


  1. Akon32
    11.04.2019 14:28

    Забавно. Люди, никогда не видевшие ИИ, основываясь на выдуманных сценариях, написанных людьми, тоже никогда не видевшими ИИ, пишут правила, как нужно создавать ИИ. (не говоря уже о том, что ни те, не другие не знают, как создать ИИ)
    Это ведь явная попытка описать то, чего нет.


    Если таким образом разработку вредоносного ИИ успешно запретят, апокалипсис может внезапно прийти от какой-то системы, которую не воспринимают как ИИ или вредоносный ИИ.


  1. kvaps
    11.04.2019 14:52

    А кто позаботится о правах ИИ?


  1. kether
    11.04.2019 16:00

    он должен быть надежным, устойчивым к ошибкам и лишенным уязвимостей перед атаками
    то есть всегда выключенным, нет проблем


  1. Gryphon88
    11.04.2019 18:24

    Кто читал, как определяются термины «ИИ» и «человекоцентричность» и «субъективность человека»?


    1. Daemonis
      11.04.2019 18:33

      ИИ: (AI) systems are software (and possibly also hardware) systems designed by humans that,
      given a complex goal, act in the physical or digital dimension by perceiving their environment through data acquisition, interpreting the collected structured or unstructured data, reasoning on the knowledge, or processing the information, derived from this data and deciding the best action(s) to take to achieve the given goal.

      «Человекоцентричность»: The human-centric approach to AI strives to ensure that human values are central to the way in which AI systems are developed, deployed, used and monitored, by ensuring respect for fundamental rights, including those set out in the Treaties of the European Union and Charter of Fundamental Rights of the European Union, all of which are united by reference to a common foundation rooted in respect for human dignity, in which the human being enjoy a unique and inalienable moral status.


      1. Gryphon88
        11.04.2019 18:35

        Замечательно. Под определение ИИ подходит гугловский персонализированный поиск, но по определению человекоцентричности он запрещён :)


  1. fivehouse
    11.04.2019 18:57

    «человекоцентричными, нацеленными целиком и полностью на то, чтобы служить человечеству и общему благу и на то, чтобы способствовать совершенствованию условий человеческого существования и его свободе».
    Хахаха! Когда создается любое оружие в том числе и ядерное, производитель и заказчик его создает именно для этого же самого! Чтобы создать более «человекоцентричный мир, нацеленными целиком и полностью на то, чтобы служить человечеству (как мы его понимаем) и общему благу (как мы его понимаем) и на то, чтобы способствовать совершенствованию условий человеческого существования (как мы его понимаем) и его свободе (как мы ее понимаем)».


    1. Wesha
      11.04.2019 21:28

      Когда создается любое оружие в том числе и ядерное, производитель и заказчик его создает именно для этого же самого!

      Именно. Был в истории такой человек, совсем недавно. Старался во имя человечества1, особождал земли от орд недочеловеков2. К успеху шёл, лет этак восемь, но в конце концов что-то пошло не так… Ну помните ещё, Гитлером звали.




      Определения терминов согласно А. Шикльгруберу

      1 человечество — люди арийской расы
      2 недочеловеки — славяне и прочие не-арийцы


      1. sim3x
        12.04.2019 19:57

        If you tell a big enough lie and tell it frequently enough, it will be believed.


  1. ilyapirogov
    11.04.2019 20:06
    +1

    Искусственный интеллект, который действует без учета этической составляющей и, в конечном счете, превращается из помощника в угрозу для человечества, — это очень распространенный и очень старый мотив в научной фантастике. Но сейчас человечество вплотную приблизилось к созданию такого искусственного интеллекта, и риск превращения полезного инструмента в источник угрозы действительно реален как никогда прежде.

    Интересно, на основании чего они пришли к выводу, что человечество хоть сколько-нибудь приблизилось к созданию ИИ, описываемого фантастами? Или же они начитались новостей про то как боты обыгрывают людей в доту и решили: "Ну все! Раз дота, то теперь уж точно попрет!"


    1. fivehouse
      11.04.2019 23:23
      +1

      Когда все время выпускаешь нормативные акты в которых указывается то количество воска в гуталине, то ширина подоконника, то состав асфальта, то пенсионный возраст, то возраст продажи сигарет и алкоголя, то становится скучно. То ли дело ИИ!!! И не важно что его нет и что это такое никто не видел, но ограничить и упорядочить можно то уже сегодня. Если не знаем как конкретно, то отстреляемся общими словами и пожеланиями всем всего хорошего и светлого. На том и порешили.


    1. Nehc
      12.04.2019 11:05

      Почему — дота? Прогресс в последнее время очень существенен. С практической точки зрения. Да и теория на месте не стоит. Шахматы и Го пали. Сверточные сети вывели распознавание паттернов на уровень, которые раньше казался недостижимым. Робомобили если и не выйдут на дороги в ближайшие год-два, то только потому, что пока сложно заставить ИИ учитывать поведение на дороге водителей идиотов натуралов…

      Я думаю вопрос создания полноценного сильного ИИ — не за горами. На горизонте десятка лет, скорее всего, и почти наверняка — при жизни участников этой дискуссии… Если конечно данная тема не будет искусственно заблокирована.



  1. Vinchi
    13.04.2019 04:08

    Все — ботов в играх придеться полностью вырубить. Они же убивают любимых персонажей людей!

    А если серъезно — вот например допустим сделают гибрид, усиливающий мозг человека, с помощью ИИ. И он начнет перехватывать контроль, при вредных действиях человека. Пока полностью не сделает его рабом. Все как хотят в ЕС.