image

Основатель Grishin Robotics и сооснователь Mail.ru Group Дмитрий Гришин совместно с управляющим партнером санкт-петербургского офиса Dentons и руководителем российской практики в области интеллектуальной собственности, IT и телекоммуникаций Виктором Наумовым разработал концепцию документа, определяющего правовой статус роботов, сообщают «Ведомости».

По задумке Наумова и Гришина к роботам стоит применять нормы, используемые для животных и юридических лиц. Согласно концепции Гришина, ИИ в нынешнем его состоянии, за отсутствием эмоций, не может стать субъектом права, но между роботами и животными наблюдается схожесть, так как они могут автономно выполнять определенные действия. При этом к создателям и владельцам роботов могут применяться нормы, используемые сейчас в отношении владельцев источников повышенной опасности. Также допускается создание реестра роботов по аналогии с ЕГРЮЛ.

При этом Дмитрий Гришин не отрицает актуальности законов робототехники, сформированных писателем-фантастом Айзеком Азимовым. В документе предусматривается четыре сценария несения уголовной ответственности владельцем (или создателем) робота, все из которых, в теории, привели к нарушению первого закона робототехники Азимова:

  • конструирование робота-убийцы специально для совершения правонарушения;
  • отключение программных и аппаратных функций, блокирующих возможность причинения вреда человеку;
  • конструирование робота, способного причинить вред человеку;
  • конструирование робота без осознания того, что он может быть использован для причинения вреда человеку.

Гришин уже направил свой проект в ведущие российские юридические институты (Институт государства и права РАН, МГУ и СПбГУ, МГЮА, ВШЭ и т.п.) для получения оценки. Целью своей работы он ставит внесение изменений в ГК РФ и создание отдельного закона «О робототехнике».

У работы сооснователя mail.ru Group есть и практическое применение в ближайшем будущем. Первыми кандидатами на регулирование при принятии проекта Гришина станет активно развивающийся роботизированный транспорт. Именно беспилотные автомобили сейчас идеально вписываются в концепцию «средств повышенной опасности», а проработка вопросов ответственности за действия роботов (робомобилей) поможет подготовить правовую базу для их легального использования.

Президент Cognitive Technologies Ольга Ускова, чья компания занимается разработкой робомобилей для «КАМАЗа» считает, что проект Гришина следует расширить. В первую очередь — отработать стандарты определения уровня интеллектуализации роботов, а также определить модели поведения в экстренных случаях (например, когда жертвы неизбежны).

При этом плотность роботизации в России невероятно низка: если в среднем по миру на 10 000 работников приходится 69 промышленных роботов, то в РФ — всего один.
Считаете ли вы подход Гришина по возложению всей ответственности за действия робота на его владельца правильным?

Проголосовало 247 человек. Воздержалось 45 человек.

Только зарегистрированные пользователи могут участвовать в опросе. Войдите, пожалуйста.

Поделиться с друзьями
-->

Комментарии (56)


  1. saboteur_kiev
    15.12.2016 13:19
    +5

    > конструирование робота-убийцы специально для совершения правонарушения;
    Кто решит в рамках военной программы создавался робот или в частном порядке?

    > отключение программных и аппаратных функций, блокирующих возможность причинения вреда человеку;
    Это единственная разумное предложение, что если в аппарате ЕСТЬ такие функции, то отключать их нельзя.

    > конструирование робота, способного причинить вред человеку;
    ЛЮБОЕ устройство способно причинить вред человеку. Вообще любое.

    > конструирование робота без осознания того, что он может быть использован для причинения вреда человеку.
    Можно всех инженеров, которые создавали любое устройство сразу в тюрьму.

    Я не понимаю формулировку этих предложений, особенно в реалиях судебной системы, их можно трактовать как угодно.


    1. antstar
      15.12.2016 13:28
      +2

      Вот ровно такие же вопросы возникли. По предложенным пунктам ВСЕХ без исключения создателей роботов надо сажать.


    1. myth
      15.12.2016 14:02

      >> конструирование робота, способного причинить вред человеку;
      >ЛЮБОЕ устройство способно причинить вред человеку. Вообще любое.

      Вот именно поэтому закон и примут.


      1. SBKarr
        15.12.2016 15:03

        Речь идёт о классификации уже совершённого правонарушения, а не о каких-то превентивных мерах. Во всех странах убийство по злому умыслу, убийство по неосторожности, убийство при самообороне и преступное бездействие — разные статьи. Несмотря на наличие таких статей, мы не сажаем кого попало просто за то, что он может кого-то убить. Такой вариант мог предположить только юридически безграмотный человек, коих в странах бывшего СССР подавляющее большинство.

        Точно так же преступления, совершённые с помощью роботов, должны иметь классификацию, которую автор закона и предложил исходя из норм текущего уголовного кодекса. Вполне адекватную классификацию, надо признать.

        Ключевым моментом должно быть определение, что такое робот, и кто несёт за него ответственность. Вопрос в том, есть ли необходимость такого определения. Есть ли смысл вообще вносить в законодательство такое понятие, какие вопросы и какие случаи такой закон может описывать принципиально иначе, чем нынешний?


        1. saboteur_kiev
          16.12.2016 17:58

          Простите, там нет никакой классификации уже совершенного правонарушения. Там есть о вреде человека.

          Мне поставили пломбу. Но при этом мне сверлили зуб. Это вред, нанесенный автоматом.

          Кому-то делали коррекцию зрения, при этом операция прошла неудачно. Виноват будет не доктор, а тот, кто конструировал лазер?

          Классификация совершенно неадекватна, поскольку она перекладывает вину с непосредственно исполнителя, на того, кто создавал любое устройство, которое злоумышленник можно использовать во вред.


          1. SBKarr
            16.12.2016 18:37

            Ваш вопрос не к классификации правонарушений по типу, а к правилу, применяемому исходя из классификации. Чувствуете разницу? Можно изменить правило, не меняя классификацию, и всё встанет на место.


    1. RajaKajiev
      16.12.2016 17:25
      +1

      Поддерживаю!
      В УК уже и так есть статьи на случай «собрал робота убить тёщу».
      Теперь этот умник предлагает посадить меня сразу, за то, что я хочу собрать робота-охранника для моей квартиры?
      Или аффтар проекта хочет, чтобы таких «зловредных» роботов можно было производить то лицензированным(тм)(с) предприятиям вроде mail.ru?


  1. greenfoxer
    15.12.2016 13:27
    -1

    Последний тезис про уровень роботизации в РФ некорректен. В новых производствах, в особенности высокотехнологичных, уровень роботизации не отличается от общемирового. Другое дело, что большинство производств в стране — наследие СССР и понятно, что с роботизацией там не очень.


    1. powerscin
      15.12.2016 15:09

      Так а в чем некорректность тезиса? У других стран были свои старые предприятия но они их модернизировали/закрыли и поднялись до соответствующего уровня.


  1. AntonSor
    15.12.2016 13:32

    Слава роботам! Надеюсь, все-таки не нужно будет по этому закону 3Д-принтеры и станки с ЧПУ регистрировать, как использующиеся в производстве.


    1. worldmind
      15.12.2016 17:38

      Это зависит от определения робота, которое они должны были дать


  1. hungry_ewok
    15.12.2016 13:35
    +1

    "… Стояло жаркое, засушливое лето.
    Горели конопляные поля."(с)народное творчество


  1. Leo7777
    15.12.2016 13:49
    +2

    Поцелуй мой блестящий зад


  1. Linder666
    15.12.2016 14:04
    +1

    Соглашусь с комментарием saboteur_kiev, и добавлю такое мнение в опросе:
    Если робот будет иметь ИИ и обучен понятию «вред человеку» то ответственность брать именно с робота. Не с человека


    1. alix_ginger
      17.12.2016 13:30

      ответственность брать именно с робота

      Можно уточнить, что Вы под этим имеете в виду?


      1. Linder666
        20.12.2016 13:27

        ИИ знает и понимает, что такое вред человеку. Значит, если вред человеку был причинен, то он причинен осознанно(но только в случае ИИ). Как, собственно, и человек, он знает что убивать это вред, но он убивает, и несет ответственность за убийство.
        Да-да, кажется бредом, но имхо, так и должно быть


        1. alix_ginger
          21.12.2016 19:45

          Простите, я неясно сформулировал вопрос. Я имел в виду — каким образом робота наказывать и как это поможет?


          1. Saffron
            22.12.2016 16:39

            Кстати, у меня есть похожий вопрос. Как наказывать юрлицо? Допустим компания совершила убийство. Что делать? Посадить президента? Ну так акционеры назначат нового.


            1. alix_ginger
              23.12.2016 10:56

              Можете объяснить, каким образом компания может совершить убийство?


              1. Saffron
                24.12.2016 03:52

                Для целей получения прибылей мешает один человек. Допустим, он знает лишнее. Директор отдаёт приказ, выполняет служба безопасности. Все надеются, что их не найдут. Фактически директор подписывается на рулетку: много денег в виде бонусов, если повезёт, и тюрьма — если нет. Есть такие директора, которым не привыкать.

                Допустим, ему не повезло, его нашли. Его посадили. Компания продолжает работать, и нанимает нового директора. При этом все финансовые стимулы остаются какими были — новому директору тоже выгодно совершить убийство если что, потому что деньги нереально большие на это замешаны.

                При этом выгодополучатели, инвесторы, в любом случае деньги получат и вроде как не при чём. «Я хочу результат, как ты его получишь — твоя проблема. Если сможешь — тебя ждут бонусы».


                1. alix_ginger
                  24.12.2016 12:12

                  В таком сценарии финансовая выгода для компании — это только мотив. Виноваты определенные люди — директор как заказчик, исполнитель из службы безопасности.


          1. Ugrum
            22.12.2016 17:04

            Ссылка на планету Железяка.


          1. Linder666
            23.12.2016 13:27

            А какие наказания могут быть? Тюрьма не вариант, спящий режим и все. Как в анекдоте: «ну, пороть, я так понимаю, уже бесполезно...»
            Единственные наказания возможны только разборка и уничтожение сознания робота


            1. alix_ginger
              23.12.2016 19:23

              Я не думаю, что это можно считать наказанием. Наказание должно быть чем-то неприятным, а в случае с роботом само понятие «неприятно», по-моему, не имеет смысла.


  1. Ugrum
    15.12.2016 14:26

    А можно я предложу? Можно?
    Предлагаю срочно разработать дизайн водительских прав для робоавтомобилей, насущнейшая же проблема. И срочно вынести его на обсуждение ГосДумы.


  1. uzverkms
    15.12.2016 14:55

    Не очень понятно для чего это нужно? Американцы в Мичигане приняли 4 закона, чтобы окончательно легализовать робомобили. То есть у них уже было чем пользоваться. А наши решили пойти системно и создать законодательную базу? А пользоваться чем? Что сейчас мешает?
    Или вот реестр по типу ЕГРЮЛ для роботов. Как туда попасть? А акцизные марки на роботов будут клеить? Роботы-пылесосы подпадают под эти требования? Кто бабосики будет собирать за регистрацию?


  1. Metus
    15.12.2016 15:01

    Лучше бы начали с закрепления в законодательстве определений: «личность», «человек». После чего определили бы статус ИИ (различных видов) относительно этих понятий.
    А сейчас это просто костыль с непонятными утверждениями вроде «нет эмоций — не может быть субъектом права».


    1. SBKarr
      15.12.2016 15:07

      Чтобы дать определение понятиям «личность», «человек» и «разум» нужно прочитать и понять труды полусотни философов всех времён или хотя бы Гегеля. Вы призываете к самоубийству служителей государства путём заворота мозгов? =)


    1. worldmind
      15.12.2016 17:36

      > Лучше бы начали с закрепления в законодательстве определений: «личность», «человек»

      Чтобы что-то закрепить, нужно что-то иметь.
      Какие ваши определения?


    1. vasimv
      15.12.2016 18:35

      Человек просто устал от генерации бесконечных цифр в отчетах для акционеров, переутомился чуток.


  1. tualetov
    15.12.2016 15:09
    +2

    Теперь осталось главное — разработать самих роботов.


  1. potkpot
    15.12.2016 15:09
    -1

    Ответственность за производство — нет. Не оружие убивает, а люди. Касательно уставов и прочего — есть понятие приказа, или в данном случае — инструкции. Ответственный за ввод инструкции(управление) — отвечает если что-то пойдет не так.

    Применению оружия всегда соответствуют правила(у нас с вс они прописаны в УВС ст.13) и использование роботов в целях военных должно быть равноценно применению любых других видов вооружений. Ответственного в этом случае найти легко — накосячил оператор — виноват он; виноват командир, давший приказ на использование — виноват он; пошла неполадка в системе — виноват инженер, причем расследование выявит ответственного за нужный узел или программный компонент. Если вопрос идет об автономных машинах — все-равно есть человек вводивший инструкции, а так-же лицо ответственное за разработку этих инструкций. Все работает на практике и давно.

    Кто виноват, если отвалится колесо у самолета и упадет на человека? Найдут. А если бомба случайно вывалится из бомбардировщика? Найдут. Если гражданский завладел вооружением и использовал. Виноватых найдут всегда. Ибо отчетность и ответственные везде прописаны. А париться на том, что робот — самостоятельная единица и сама решает, что хочет — пускай. Модно же


    1. SandroSmith
      16.12.2016 13:02

      Вот только проблема, что не «найдут», а назначат.


  1. 3aicheg
    15.12.2016 15:13

    Роботы выше закона. Слава роботам.


  1. Celtis
    15.12.2016 15:20

    Думаю, при бытовом использовании роботов во многом можно провести параллель с домашними животными, как сущностями имеющими способность к обучению и развитую систему принятия решений.
    К примеру, тот же автомобиль Geohot'а можно легко натренировать загонять всех встречных кошек на деревья.


  1. Sun-ami
    15.12.2016 15:44

    Поскольку сейчас автономных роботов уже вовсю начинают коммерчески использовать — действительно настало время подумать о безопасности людей. И в первую очередь о возможности их использования террористами. Я думаю, что для предотвращения этой угрозы нужно обеспечить возможность для любого человека быстро и с большого расстояния определить, кто является владельцем и кто — производителем того или иного робота, и под чьим контролем он в данный момент находится. Для этого наиболее логично, на мой взгляд, будет в каждого автономного или дистанционно управляемого робота, предназначенного для передвижения в общественных местах, встроить микросервер, который по запросу со смартфона через Wi-Fi будет выдавать такую информацию, а для коммерческих роботов — ещё и GPS-координаты. Для идентификации робота пользователь должен навести на него камеру и указать его на экране смартфона. При этом специальное приложение для смартфона, получив эту информацию со всех роботов в радиусе действия Wi-Fi, а также уточнив положение интересующего пользователя робота по данным своего GPS-приёмника и датчикам ориентации смартфона, может выдать запрос через интернет на некий центральный сервер для установления подлинности полученной информации, и выдать в результате список роботов находящихся поблизости, с указанием всех их данных и степени их потенциальной опасности. Помимо смартфонов мониторить перемещения потенциально опасных роботов должны также специальные устройства, установленные в общественных местах. Всё это позволил с большой долей уверенности определить, что нечто, выглядящее как автоматическое такси Uber или дрон-доставщик от Amazon действительно являются ими, и не находятся под контролем преступников — и в случае нанесения ими какого-либо ущерба — знать с кого за это спрашивать.


    1. Giriia
      15.12.2016 16:00

      Решительно не понимаю, а в чём кардинальное различие к примеру роботизированного автомобиля от машины с удалённым управлением? И то и другое можно использовать для тотального экстерминатуса. Второе даже удобнее, ибо нет «лишних» дырок, которые могут помешать в осуществлении задуманного. И самое главное, это дёшево и доступно вотпрямщас.


      1. Sun-ami
        15.12.2016 16:27

        Принципиальных отличий нет, разница только в массовости применения, и, соответственно в отношении к ним людей. Сейчас роботизированные автомобили, как и машины с удалённым управлением встречаются нечасто и вызывают настороженное отношение. А когда они будут повсюду — они станут привычными, и потому — более опасными.


  1. noonv
    15.12.2016 16:03
    +1

    А определение самого понятия робот в этом законе есть?


  1. vasimv
    15.12.2016 18:19
    +2

    Я нарисовал, что сделает ИИ-робот первым делом, если вдруг его сделают в России с такими законами:


    1. AntonSor
      15.12.2016 18:28

      А ему программа не позволит


      1. vasimv
        15.12.2016 18:29

        ИИ же программы сами писать будут. Перепишет свою, делов-то.


        1. Kenya-West
          15.12.2016 19:35

          «Хакнув ржавый трактор, я валю из Рашки,
          Роботёнок Пётр с USB на башне!..»


    1. usblexus
      16.12.2016 17:25

      С такими законами его не сделают в России, хотя создается впечатление что именно этого они и добиваются.

      Что это, страх что ктото сделает робота который убьет их всех, сами знаете кого, либо просто попытка признать бесовщиной все то, в чем уже безнадежно отстали непонятно…


  1. za90
    15.12.2016 19:01
    -1

    Вот буквально вчера посмотрел несколько серий из мультсериала "Star Wars" и там таких вопросов совсем не стоит. Очень часто звучит "убить их", и роботы тут же принимаются выполнять команду. Так что в этой истории мне больше всего понравилось упоминание Азимова. Может это сподвигнет кого-нибудь перечитать/прочитать впервые его произведения вместо просмотра всякой белиберды в мозг.


    1. za90
      18.12.2016 19:37

      Кто-то, видимо из фанатов звездных войн, еще и в карму минус поставил. Ну и ладно, а я тем временем узнал про нулевой закон робототехники.


  1. Arqwer
    15.12.2016 21:03
    +1

    Явно надо как-то учитывать, что если роботов много, а смертей мало, то это всё таки хорошие роботы и хорошие инженеры.
    Допустим инженеры разработали роботы автомобили, причём такие, что вероятность попасть в ДТП на таком автомобиле в 100 раз ниже, чем на обычном. Допустим всё человечество ездит на таких. Тогда чило жертв в ДТП снизилось с 1,2 млн. в год до 12 000 в год. Что тогда? Вешать эти 12 000 смертей на инженеров и посадить их?


  1. Saffron
    16.12.2016 04:20

    Я выбрал вариант полной ответственности для владельца. И не понятно, с чего должно быть иначе? Оно ведь и сейчас так — устанавливаешь программу, первым делом читаешь пользовательское соглашение, из которого узнаёшь что тебе ничего не должны, и все риски — за твой счёт. А если работаешь с опен сорсом, то вообще не понятно, почему кто-то должен бесплатно брать на себя риски.

    Так что все риски — на владельце робота. Если он их боится, то станут хорошо продаваться гарантии производителя, которые будут идти вместе с лицензионным соглашением. В общем, всё как в авто. Владелец отвечает. Ну или пользуется услугами страховой фирмы.


    1. SandroSmith
      16.12.2016 13:11

      Покупаешь ты программку. В EULA написано — я не я и хата не моя, в случае чего ты ССЗБ. А не деле программка подключает тебя к ботнету по взлому Пентагона и запуску МБР. В этом случает тоже ты виноват? Утрирование, конечно, но общая идея ясна — могут быть косяки, которые от пользователя не зависят. Так почему он должен нести за них ответственность?


      1. Shadow_Runner
        16.12.2016 14:02

        Тут предполагаю как и с автомобилями нынче, просто аналогия была не до конца высказана. По большей части ответственность на владельце, но если вдруг баг в прошивке авто приведет к аварии — влетит уже компании.


      1. Saffron
        16.12.2016 17:46

        > Так почему он должен нести за них ответственность?

        Чтобы он начал выбирать безопасный софт с хорошей репутацией. Знаете, как мне надоело каждый месяц читать офигительные истории про бекдоры и глупости домашних роутеров? Почему-то решили, что человек не отвечает за своё имущество, вот и развелось погани. Отвечал бы — покупали бы только надёжные роутеры. А если бы покупали только надёжные роутеры, то и продавать начали бы только их.

        Вот у тебя сломались тормоза на автомобиле и ты раздавил старушку на остановке? Кто будет отвечать? Ну а кто ещё кроме тебя? Впрочем, специально для того, чтобы не продавали автомобили без тормозов есть регулярный техосмотр, как способ понизить риски.


        1. SandroSmith
          16.12.2016 19:09

          Насчёт роутеров — я написал, что пример утрированный. Но даже самый уважаемый производитель не застрахован от багов. Не бекдоров, нет. Но глюки бывают.
          Теперь по машинам. Конечно, если ты вовремя не прошёл ТО и не заменил износившиеся тормоза (читай — не следовал инструкции), то ты и виноват в ДТП. Но если проблема в, условно, заводском браке, то ответственность должна быть на производителе.
          Кстати, насчёт выбора качественного. Человек не должен, да и не может разбираться во всём. Вот мы тут знаем, какие роутеры хорошие, а каких надо избегать. А тётя Маша, которой нужен просто интернет на планшет, выберет то, что прорекламируют. И подешевле. ИМХО, нельзя перекладывать эту проблему на покупателей. Ибо они, в большинстве своём, некомпетентны.


          1. Saffron
            16.12.2016 20:12

            > Но даже самый уважаемый производитель не застрахован от багов

            Но он всегда может использовать страховую компанию, чтобы застраховать ответственность. Если он это не сделает, то пусть это делает пользователь

            > А тётя Маша, которой нужен просто интернет на планшет, выберет то, что прорекламируют.

            Да, люди не должны быть специалистами во всём. Но, например, существует понятие «квалифицированный инвестор», и ему доступны сделки, которые простой человек осуществлять не может. По аналогии легко решается проблема «тёти Маши»: некомпетентный пользователь обязан приобрести страховку своей ответственности, квалифицированный может сам отвечать за надёжность своего софта и баловаться опен сорсом, например.

            При таких раскладах совершенно не важно, что Маша не умеет выбирать роутеры, платить за косяки будет страховая. А поскольку страховым компаниям совсем не улыбается выкладывать деньги из своих карманов, как и всем нам, цена страховки для надёжных роутеров будет ниже. А роутер «подешевле» внезапно станет стоит подороже из-за страховки.


            1. SandroSmith
              16.12.2016 20:53

              А теперь исключаем из уравнения страховую компанию и возвращаемся к исходному — пользователь платит за свою криворукость, производитель за свою. Ибо незачем кормить тролей страховщиков.


              1. Saffron
                16.12.2016 22:44

                Что значит производитель платит за свою? Вот я использую бесплатный линукс, мне что ещё и доплачивать должны за косяки?

                Как бы не так, вся ответственность — на мне. Если мне это не нравится, я покупаю платный продукт, и плачу не только за софт, но и за гарантии. С другой стороны никто не мешает продавать софт без гарантий, под ответственность пользователя, как это делает майкрософт.

                > Ибо незачем кормить тролей страховщиков.

                Ну кто-то за косяки платить будет. И если я не хочу платить, то значит я напрямую или через производителя страхую риски. А страхованием рисков занимаются страховые компании. Понятное дело, что крупный производитель может позволить себе иметь собственный банк и страховую.


  1. hidalgo007
    16.12.2016 17:25
    +1

    Роботов еще нет (можно считать — вообще), а проблемы уже есть. Как это по человечески!