Уже несколько месяцев Google сражается с Microsoft и Amazon за многомиллионный контракт Пентагона на облачные сервисы и системы искусственного интеллекта (см. утечку внутренней переписки топ-менеджеров). К сожалению для руководства, палки в колёса вставляют… собственные сотрудники. В марте 2018 года они начали сбор подписей против разработки военных технологий в компании Google, у которой раньше основным девизом стоял принцип “Don't be evil”.
Руководству пришлось частично пойти на уступки. Вчера исполнительный директор компании Сундар Пичаи (Sundar Pichai) огласил набор принципов, которых обещает впредь придерживаться Google. Среди них — запрет на применение внутренних разработок в области Искусственного интеллекта для оружия, незаконного наблюдения и технологий, которые наносят «общий вред». Но Google продолжит сотрудничать с военными в других областях. Таким образом, облачное подразделение ещё сохраняет шансы на победу в борьбе за тендер.
Американский военный БПЛА
Сундар Пичаи написал в официальном блоге, что Google вкладывает значительные средства в исследования и разработки ИИ, делая эти технологии широко доступными для всех с помощью инструментов и с открытым исходным кодом. «Мы признаём, что такая мощная технология вызывает столь же серьёзные вопросы относительно её использования. То, как разрабатывается и используется ИИ, окажет значительное влияние на общество на многие годы вперед, — считает CEO. — Как лидер в ИИ, мы чувствуем глубокую ответственность. Поэтому сегодня мы объявляем семь принципов нашей работы. Это не теоретические концепции; это конкретные стандарты, которые будут активно управлять нашими исследованиями и разработкой продуктов и будут влиять на наши бизнес-решения».
Итак, вот семь принципов Google в области ИИ, в сокращённом виде.
1. Социальная польза
Достижения в области ИИ окажут преобразующее воздействие в широком спектре областей, включая здравоохранение, безопасность, энергетику, транспорт, производство и развлечения. Рассматривая потенциальное развитие и использование технологий ИИ, компания будет учитывать широкий спектр социальных и экономических факторов и будет действовать там, где общие вероятные выгоды существенно превышают прогнозируемые риски и недостатки.
2. Борьба с дискриминацией
Алгоритмы и наборы данных ИИ могут отражать, усиливать или уменьшать дискриминацию. Google признаёт, что отличить справедливое от несправедливого предубеждения не всегда просто и что оно отличается в разных культурах и обществах. Компания обещает «стремиться избегать несправедливых последствий для людей, особенно тех, которые связаны с такими деликатными характеристиками, как раса, этническая принадлежность, пол, национальность, доход, сексуальная ориентация, способности и политические или религиозные убеждения».
3. Безопасность
Cистемы искусственного интеллекта Google будут «в должной степени осторожны» и разработаны «в соответствии с передовой практикой в области исследований безопасности искусственного интеллекта».
4. Подотчётность
Cистемы ИИ обеспечат соответствующие возможности для обратной связи, соответствующих объяснений своих действий и возможных апелляций. Человек сохранит над ними контроль.
5. Принципы приватности
Google обещает использовать свои принципы приватности при разработке и использовании технологий ИИ, и а также обеспечить надлежащую прозрачность и контроль над использованием данных.
6. Высокие стандарты научного совершенства
Технологические инновации произрастают из научного метода и приверженности открытым запросам, интеллектуальной строгости, целостности и сотрудничеству. Инструменты ИИ имеют потенциал, чтобы разблокировать новые сферы научных исследований и знаний в критических областях, таких как биология, химия, медицина и науки об окружающей среде. Google обещает стремиться к высоким стандартам научного превосходства, ответственно делиться знаниями об ИИ, публиковать учебные материалы, лучшие практики и исследования, которые позволяют большему количеству людей разрабатывать полезные приложения ИИ.
7. Предоставлять технологии ИИ только тем, кто придерживается этих принципов
У многих технологий есть двойное применение, в том числе у ИИ. Google обещает работать над ограничением потенциально вредных или оскорбительных приложений, а также оценивать их вероятное использование.
Сундар Пичаи привёл список технологий, которые неприемлемы для искусственного интеллекта Google.
- Технологии, которые причиняют или могут причинить общий вред.
- Оружие или другие технологии, основная цель или осуществление которых состоит в причинении или непосредственном облегчении вреда людям.
- Технологии, которые собирают или используют информацию для наблюдения, нарушают международно признанные нормы.
- Технологий, цель которых противоречит общепризнанным принципам международного права и прав человека.
В чём-то эти принципы напоминают законы робототехники Азимова. Остаётся надеяться, что другие компании-разработчики систем ИИ тоже официально объявят о приверженности этим принципам и будут их соблюдать.
Комментарии (30)
Lamaster
08.06.2018 17:062. Борьба с дискриминацией
В одной из статей, возможно гугла, был мексиканский ресторанчик. И у него были низкие оценки. Но не потому, что он был мексиканский, а потому что просто плохой. Так вот ему выставили повышенные веса, чтобы он ранжировался так же как хорошие. Такое исправление дискриминации меня не устраивает.kraidiky
08.06.2018 17:23Вот да, эта статья была именно от гугловского русскоязычного евангелиста.
Ей ещё попытались объяснить в чём проблема с умозрительным назначением былым «уравнивающего» штрафа, но девушка крепко держалась в комментариях за руководящие столпы, и ничего понимать не хотела.
Свет правильного ответа светился в глазах.
GeekberryFinn
08.06.2018 17:49А мне вспомнилось, как гугловские нейросети не распознавали на фото лица чёрных. И то, как какую-то программу предсказаний преступлений для полиции уличили в предвзятости к небелым.
Halt
09.06.2018 16:40+1С таким подходом можно вообще статистику как науку запретить, только потому, что она может выдавать результаты, где одни выходят статистически хорошими, а другие статистически плохими.
Модели машинного обучения не умеют сочинять или быть предвзятыми, они являются отражениями статистических закономерностей во входных данных. Так что увы.
Neikist
08.06.2018 19:55Почти предвижу холивар на эту тему как в прошлой статье с похожим заголовком. Какая то странная у них борьба с дискриминацией…
Vilgelm
09.06.2018 01:13Жители бывшего СССР это уже переживали все (правда больше на бумаге), ничего нового американские левые не придумали, просто копируют СССР.
Есть старый анекдот на эту темуВ консерваторию по классу скрипки на 10 мест 100 претендентов: 10 евреев и 90 русских. Собрался ректорат, решают, кого взять, чтобы по справедливости.
Проректор-патриот: — Надо взять 10 русских.
Проректор-коммунист: — Надо взять 9 русских и одного еврея.
Проректор-демократ: — Надо взять 5 евреев и 5 русских.
Проректор-сионист: — Надо взять 9 евреев и одного русского.
Ректор: — А вы все, оказывается, националисты.
Все: — Ни фига себе! А кого же, по-твоему, надо брать?
Ректор: — Тех, кто лучше играет на скрипке.Nikelandjelo
09.06.2018 04:07«Борьба с дискриманацией» не совсем удачный перевод принципа «Avoid creating or reinforcing unfair bias». Так что ваш пример не подходит тут. ИИ не должен дискриминировать (принцип) и ИИ будет использоваться для борьбы с дискриминацией (ваш пример) это 2 разные вещи.
SurPaul
08.06.2018 17:32Если Google не следует концепциям Material Design, неужели этим принципам будет следовать?
reaferon
08.06.2018 18:10+2п.4… Человек сохранит над ними контроль.
А какой именно человек? Явно не любой.
Про автомат Калашникова тоже можно сказать, что человек хранит над ним контроль.agat000
08.06.2018 20:11+1С п. 4. как раз проще всего. Человек — какой нибудь вообще. Владелец, админ, в общем любой хомо. Оставлять бесконтрольно никто, естественно, не будет.
А с остальными пунктами — чистая абстракция и благие пожелания. ИИ — инструмент для выполнения определенных функций. Если «принципы» будут мешать — их отключат.reaferon
08.06.2018 23:29Любой — слишком размыто. Контроль будет иметь вполне конкретный человек (или группа). Получая преимущества над теми, кто в понятие «любой» не входят. То есть над всеми остальными.
Nikelandjelo
09.06.2018 04:15Я не очень понимаю, вы ожидаете что в очень высокоуровневом документа про принципы разработки ИИ будет указано кто должен управлять ИИ? По-моему «человечество должно всегда иметь контроль над ИИ» — наиболее подходящая формулировка. Или у вас другие предложения?
geher
09.06.2018 08:57Скорее всего имеется ввиду, что ИИ не будет позволено жить самостоятельно без контроля над ним человека. Постулат вполне осмысленный и не затрагивает вопроса, кто именно этот человек. Разве что из другого принципа следует, что этот человек должен разделять изложенные принципы.
Впрочем, тоже не более, чем благое пожелание, ибо скорее всего забьют до серьезного инцидента, напоягутся, потом расслабятся и опять забьют. И так по кругу.
tumikosha
08.06.2018 23:51Зачётно их Маск затролил. Подозреваю, что Пентагон ему заказы перестал подгонять, вот он и начал дискуссии про злой ИИ подогревать.
Nikelandjelo
09.06.2018 04:12При чем тут Маск? Тема безопасности ИИ существовала и до Маска и книг достаточно про это написано.
Kolegg
09.06.2018 08:49Cистемы ИИ обеспечат соответствующие возможности для обратной связи, соответствующих объяснений своих действий и возможных апелляций. Человек сохранит над ними контроль.
Они уже выснили на каком основании альфаго делала «нелогичные» ходы?
baldrs
09.06.2018 13:401. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Вот это принципы, а то что Google предлагает это замыливание глаз.
maedv
Совершенно банальные пиар-принципы, не поддающиеся количественной оценке. На словах и в бумагах будут соблюдаться, а на деле как всегда.
Halt
Не хватает только принципа «идти по некапиталистическому пути развития». Такой же конкретный и настолько же исполнимый.