Уже несколько месяцев Google сражается с Microsoft и Amazon за многомиллионный контракт Пентагона на облачные сервисы и системы искусственного интеллекта (см. утечку внутренней переписки топ-менеджеров). К сожалению для руководства, палки в колёса вставляют… собственные сотрудники. В марте 2018 года они начали сбор подписей против разработки военных технологий в компании Google, у которой раньше основным девизом стоял принцип “Don't be evil”.

Руководству пришлось частично пойти на уступки. Вчера исполнительный директор компании Сундар Пичаи (Sundar Pichai) огласил набор принципов, которых обещает впредь придерживаться Google. Среди них — запрет на применение внутренних разработок в области Искусственного интеллекта для оружия, незаконного наблюдения и технологий, которые наносят «общий вред». Но Google продолжит сотрудничать с военными в других областях. Таким образом, облачное подразделение ещё сохраняет шансы на победу в борьбе за тендер.


Американский военный БПЛА

Сундар Пичаи написал в официальном блоге, что Google вкладывает значительные средства в исследования и разработки ИИ, делая эти технологии широко доступными для всех с помощью инструментов и с открытым исходным кодом. «Мы признаём, что такая мощная технология вызывает столь же серьёзные вопросы относительно её использования. То, как разрабатывается и используется ИИ, окажет значительное влияние на общество на многие годы вперед, — считает CEO. — Как лидер в ИИ, мы чувствуем глубокую ответственность. Поэтому сегодня мы объявляем семь принципов нашей работы. Это не теоретические концепции; это конкретные стандарты, которые будут активно управлять нашими исследованиями и разработкой продуктов и будут влиять на наши бизнес-решения».

Итак, вот семь принципов Google в области ИИ, в сокращённом виде.

1. Социальная польза


Достижения в области ИИ окажут преобразующее воздействие в широком спектре областей, включая здравоохранение, безопасность, энергетику, транспорт, производство и развлечения. Рассматривая потенциальное развитие и использование технологий ИИ, компания будет учитывать широкий спектр социальных и экономических факторов и будет действовать там, где общие вероятные выгоды существенно превышают прогнозируемые риски и недостатки.

2. Борьба с дискриминацией


Алгоритмы и наборы данных ИИ могут отражать, усиливать или уменьшать дискриминацию. Google признаёт, что отличить справедливое от несправедливого предубеждения не всегда просто и что оно отличается в разных культурах и обществах. Компания обещает «стремиться избегать несправедливых последствий для людей, особенно тех, которые связаны с такими деликатными характеристиками, как раса, этническая принадлежность, пол, национальность, доход, сексуальная ориентация, способности и политические или религиозные убеждения».

3. Безопасность


Cистемы искусственного интеллекта Google будут «в должной степени осторожны» и разработаны «в соответствии с передовой практикой в области исследований безопасности искусственного интеллекта».

4. Подотчётность


Cистемы ИИ обеспечат соответствующие возможности для обратной связи, соответствующих объяснений своих действий и возможных апелляций. Человек сохранит над ними контроль.

5. Принципы приватности


Google обещает использовать свои принципы приватности при разработке и использовании технологий ИИ, и а также обеспечить надлежащую прозрачность и контроль над использованием данных.

6. Высокие стандарты научного совершенства


Технологические инновации произрастают из научного метода и приверженности открытым запросам, интеллектуальной строгости, целостности и сотрудничеству. Инструменты ИИ имеют потенциал, чтобы разблокировать новые сферы научных исследований и знаний в критических областях, таких как биология, химия, медицина и науки об окружающей среде. Google обещает стремиться к высоким стандартам научного превосходства, ответственно делиться знаниями об ИИ, публиковать учебные материалы, лучшие практики и исследования, которые позволяют большему количеству людей разрабатывать полезные приложения ИИ.

7. Предоставлять технологии ИИ только тем, кто придерживается этих принципов


У многих технологий есть двойное применение, в том числе у ИИ. Google обещает работать над ограничением потенциально вредных или оскорбительных приложений, а также оценивать их вероятное использование.

Сундар Пичаи привёл список технологий, которые неприемлемы для искусственного интеллекта Google.

  1. Технологии, которые причиняют или могут причинить общий вред.
  2. Оружие или другие технологии, основная цель или осуществление которых состоит в причинении или непосредственном облегчении вреда людям.
  3. Технологии, которые собирают или используют информацию для наблюдения, нарушают международно признанные нормы.
  4. Технологий, цель которых противоречит общепризнанным принципам международного права и прав человека.

В чём-то эти принципы напоминают законы робототехники Азимова. Остаётся надеяться, что другие компании-разработчики систем ИИ тоже официально объявят о приверженности этим принципам и будут их соблюдать.

Комментарии (30)


  1. maedv
    08.06.2018 16:39
    +1

    Совершенно банальные пиар-принципы, не поддающиеся количественной оценке. На словах и в бумагах будут соблюдаться, а на деле как всегда.


    1. Halt
      09.06.2018 16:44

      Не хватает только принципа «идти по некапиталистическому пути развития». Такой же конкретный и настолько же исполнимый.


  1. latypov
    08.06.2018 17:05

    … D o n ' t b e l i v e


    1. Vinchi
      09.06.2018 14:28

      вот да. Сгнило что-то в королевстве. Список ни о чем вообще. 7 пункт — это вообще цензура, т.е. ни о какой открытости речи вообще нет.


  1. Lamaster
    08.06.2018 17:06

    2. Борьба с дискриминацией

    В одной из статей, возможно гугла, был мексиканский ресторанчик. И у него были низкие оценки. Но не потому, что он был мексиканский, а потому что просто плохой. Так вот ему выставили повышенные веса, чтобы он ранжировался так же как хорошие. Такое исправление дискриминации меня не устраивает.


    1. kraidiky
      08.06.2018 17:23

      Вот да, эта статья была именно от гугловского русскоязычного евангелиста.
      Ей ещё попытались объяснить в чём проблема с умозрительным назначением былым «уравнивающего» штрафа, но девушка крепко держалась в комментариях за руководящие столпы, и ничего понимать не хотела.

      Свет правильного ответа светился в глазах.


    1. GeekberryFinn
      08.06.2018 17:49

      А мне вспомнилось, как гугловские нейросети не распознавали на фото лица чёрных. И то, как какую-то программу предсказаний преступлений для полиции уличили в предвзятости к небелым.


      1. Halt
        09.06.2018 16:40
        +1

        С таким подходом можно вообще статистику как науку запретить, только потому, что она может выдавать результаты, где одни выходят статистически хорошими, а другие статистически плохими.

        Модели машинного обучения не умеют сочинять или быть предвзятыми, они являются отражениями статистических закономерностей во входных данных. Так что увы.


    1. Neikist
      08.06.2018 19:55

      Почти предвижу холивар на эту тему как в прошлой статье с похожим заголовком. Какая то странная у них борьба с дискриминацией…


      1. Vilgelm
        09.06.2018 01:13

        Жители бывшего СССР это уже переживали все (правда больше на бумаге), ничего нового американские левые не придумали, просто копируют СССР.

        Есть старый анекдот на эту тему
        В консерваторию по классу скрипки на 10 мест 100 претендентов: 10 евреев и 90 русских. Собрался ректорат, решают, кого взять, чтобы по справедливости.
        Проректор-патриот: — Надо взять 10 русских.
        Проректор-коммунист: — Надо взять 9 русских и одного еврея.
        Проректор-демократ: — Надо взять 5 евреев и 5 русских.
        Проректор-сионист: — Надо взять 9 евреев и одного русского.
        Ректор: — А вы все, оказывается, националисты.
        Все: — Ни фига себе! А кого же, по-твоему, надо брать?
        Ректор: — Тех, кто лучше играет на скрипке.


    1. picul
      09.06.2018 01:01

      #MeToo


      1. marsermd
        09.06.2018 16:09

        Как вы тут захарраситься умудрились?


    1. Nikelandjelo
      09.06.2018 04:07

      «Борьба с дискриманацией» не совсем удачный перевод принципа «Avoid creating or reinforcing unfair bias». Так что ваш пример не подходит тут. ИИ не должен дискриминировать (принцип) и ИИ будет использоваться для борьбы с дискриминацией (ваш пример) это 2 разные вещи.


  1. MXMBNKNDRF
    08.06.2018 17:13

    Очень хочется верить, что эти принципы будут непоколебимыми


    1. kraidiky
      08.06.2018 17:25

      Мне хочется верить, что нет.


      1. port443
        08.06.2018 20:16

        Хаб «Научная фантастика» тут, скорее всего, не случайно добавлен.


  1. SurPaul
    08.06.2018 17:32

    Если Google не следует концепциям Material Design, неужели этим принципам будет следовать?


  1. OKyJIucT
    08.06.2018 17:46

    Многовато, у Азимова поменьше было.


    1. Welran
      08.06.2018 18:33

      Это не для ИИ, а для Гугла.


    1. Nikelandjelo
      09.06.2018 04:09

      Ага. Можно короче чем у Азимова: «Don't be evil». Такой предпочтете?


  1. reaferon
    08.06.2018 18:10
    +2

    п.4… Человек сохранит над ними контроль.

    А какой именно человек? Явно не любой.
    Про автомат Калашникова тоже можно сказать, что человек хранит над ним контроль.


    1. agat000
      08.06.2018 20:11
      +1

      С п. 4. как раз проще всего. Человек — какой нибудь вообще. Владелец, админ, в общем любой хомо. Оставлять бесконтрольно никто, естественно, не будет.

      А с остальными пунктами — чистая абстракция и благие пожелания. ИИ — инструмент для выполнения определенных функций. Если «принципы» будут мешать — их отключат.


      1. reaferon
        08.06.2018 23:29

        Любой — слишком размыто. Контроль будет иметь вполне конкретный человек (или группа). Получая преимущества над теми, кто в понятие «любой» не входят. То есть над всеми остальными.


        1. Nikelandjelo
          09.06.2018 04:15

          Я не очень понимаю, вы ожидаете что в очень высокоуровневом документа про принципы разработки ИИ будет указано кто должен управлять ИИ? По-моему «человечество должно всегда иметь контроль над ИИ» — наиболее подходящая формулировка. Или у вас другие предложения?


        1. geher
          09.06.2018 08:57

          Скорее всего имеется ввиду, что ИИ не будет позволено жить самостоятельно без контроля над ним человека. Постулат вполне осмысленный и не затрагивает вопроса, кто именно этот человек. Разве что из другого принципа следует, что этот человек должен разделять изложенные принципы.
          Впрочем, тоже не более, чем благое пожелание, ибо скорее всего забьют до серьезного инцидента, напоягутся, потом расслабятся и опять забьют. И так по кругу.


  1. tumikosha
    08.06.2018 23:51

    Зачётно их Маск затролил. Подозреваю, что Пентагон ему заказы перестал подгонять, вот он и начал дискуссии про злой ИИ подогревать.


    1. Nikelandjelo
      09.06.2018 04:12

      При чем тут Маск? Тема безопасности ИИ существовала и до Маска и книг достаточно про это написано.


  1. Kolegg
    09.06.2018 08:49

    Cистемы ИИ обеспечат соответствующие возможности для обратной связи, соответствующих объяснений своих действий и возможных апелляций. Человек сохранит над ними контроль.

    Они уже выснили на каком основании альфаго делала «нелогичные» ходы?


  1. baldrs
    09.06.2018 13:40

    1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
    2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
    3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

    Вот это принципы, а то что Google предлагает это замыливание глаз.


    1. Neikist
      09.06.2018 15:50

      Еще нулевой же.