Все, что связано с робототехникой и ИИ сегодня неминуемо попадает в зону особого внимания. Человечество словно чувствует, что на карту поставлено очень многое, если не все. Не уготована ли постулатам, сформулированным некогда Айзеком Азимовым участь превратиться во что то вроде краткого «путеводителя по песочнице» сугубо для нынешнего, кратковременного этапа младенчества ИИ и робототехники? Этот вопрос сегодня как никогда актуален и требует разъяснений, получить которые можно только основываясь на объективных результатах экспериментов, первые из которых пытливые умы наших дней уже проводят…
Прекрасно известный профессиональному сообществу и достаточно авторитетный робототехник, изобретатель и программист Александр Ребен из Калифорнийского университета в Беркли создал робота, который способен причинить вред человеку и продемонстрировал, что такой сценарий развития событий бот вполне может выбрать самостоятельно.
Для тех, кто по какой-то причине не успел познакомиться с постулатами робототехники, сформулированными некогда в замечательном рассказе «Хоровод» Айзеком Азимовым и условно принимаемыми за некоторую концептуальную парадигму этого направления, перечислим их ниже:
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Итак, следуя первому закону, робот не может навредить человеку. Ребен посчитал возможным и нужным усомниться в его непогрешимости, и наглядно продемонстрировал: человеку стоит сперва как можно скорее позаботиться о своей безопасности, прежде чем роботизировать вокруг себя все движется и обладает зачатками интеллекта.
В качестве экспериментального образца был предложен простейший робототехнический комплекс, состоящий из импровизированной механической подвижной руки с микроиглой. Ниже, на подставке Александр расположил «пятно визуального контакта», где человек может зафиксировать палец. После того, как палец установлен в обозначенный сегмент подставки робот фиксирует это событие и далее, полностью самостоятельно, выносит вердикт: атаковать человека, демонстрируя свои претензии на верхнюю ступеньку иерархической лестницы, или же последовать классическим канонам робототехники.
Разумеется, до появления «однорукого бандита» Ребена индустрии уже были предложены стреляющие на поражение беспилотники, активно развиваемые робототехнические комплексы, оснащенные современными средствами ведения боя без участия или с участием оператора и прочие роботизированные агрегаты, представляющие для человека опасность в той или иной степени. Но все эти машины, как управляемые, так и программируемые заранее уже несли на борту установку о нанесении ущерба, заложенную изначально в программном коде.
Здесь Ребен особо подчеркивает, что разработанный им алгоритм ни в коей мере не предопределяет боту решения заранее, а результат эксперимента даже с точки зрения его создателя всегда выглядит непредсказуемо.
Результаты эксперимента несколько смутили его автора:
Можно было бы обвинить Ребена в неосознанном скептицизме к робототехнике, который он переносит на свои творения, невольно расставляя акценты влияющие на поведение машины, но его ранние работы доказывают обратное — в вопросах конструирования необычных вещей Ребен подходит творчески. В его коллекции уже имеются музыкальная шкатулка на солнечных батареях, проигрывающая заряжающую позитивом мелодию «You Are My Sunshine», интеллектуальные массажеры для головы и забавный робот болтун, позволяющий стеснительным людям справляться со своими комплексами. С портфолио автора оригинальных идей можно ознакомиться здесь.
На создание «бескомпромиссного» робота Ребен потратил всего несколько дней и пару сотен долларов, но, как считает он сам, то, что получилось в итоге — достаточно серьезный повод поговорить о безопасности человека в его будущем.
Как известно, тревогу по этому поводу разделяет и интеллектуальная элита человечества, имеющая самое непосредственное отношение к прогрессу и самым передовым технологиям. Основатель Microsoft Билл Гейтс в разговоре с пользователями Reddit высказал мнение, что роботы будут безобидны и полезны в работе по дому, но, в том случае если их возможности дорастут до суперинтеллекта, предугадать их дальнейшее поведение не возьмется никто. Так в июле прошлого года глава Tesla и SpaceX Илон Маск, астрофизик Стивен Хокинг, сооснователь Apple Стив Возняк опубликовали открытое коллективное письмо, предупреждающее о возможных опасностях искусственного интеллекта в оборонной сфере.
Специалисты выразили достаточно твердое убеждение, что вероятность того, что суперинтеллект, получивший доступ к оружию может стать угрозой для человечества достаточно высока.
В письме было сказано, что оружие, которое может быть использовано в обход человеческого фактора, неизбежно приведет к новому, невиданному ранее витку в гонке вооружений. При этом темпы развития технологий позволяют прогнозировать, что такое развитие событий вероятно не в каком-то далеком будущем, а уже в ближайшие годы.
Технологии агрессии, попавшие в руки террористам, могут нести непредсказуемые последствия, вплоть до изменения существующего мирового порядка. И то, распахнет ли человек в силу своей интеллектуальной ограниченности и природной любви к экспериментам ящик Пандоры или проявит мудрость и сумеет сыграть на опережение, создав предварительно «красную кнопку» зависит только от него самого.
На этом всё, с вами был простой сервис для выбора сложной техники Dronk.Ru. Не забывайте подписываться на наш блог, будет ещё много интересного…
Почему интернет-магазины отдают деньги за покупки? | Экономим до 8% с каждой покупки на AliExpres и других интернет-магазинах Китая | Верните свои деньги — Выбираем кэшбэк-сервис для Aliexpress |
Комментарии (31)
dmial
23.06.2016 07:39+12Пастулат? Вы серьёзно? :-) O tempora! O mores!
ChiefMate
23.06.2016 08:49+1возможно, вирусная реклама? Завидев такой заголовок, мало кто удержится, чтобы не зайти в комменты и не попричитать, а там, глядишь, и статью заодно пробежит глазами.
DronkRU
24.06.2016 06:03+2У вас всегда есть предельно выбор — дать шанс автору оперативно исправить ошибку, отписав в личку, либо взять флаг и победоносно пройтись по комментариям, декларируя обнаруженную неточность и демонстрируя на этом фоне, таким образом, собственную компетентность. Вы выбрали второе — ваше право, тоже способ…
dmial
24.06.2016 06:09Вы мне приписываете эмоции, которых я не испытывал. В следующий раз обязательно напишу в личку, если замечу подобное, спасибо за совет.
2morrowMan
23.06.2016 07:40+8Троллинг какой-то…
igruh
23.06.2016 08:20+2Ну да: «Currently I am a consultant, writer and artist – creating installations.» Education:
Massachusetts Institute of Technology. Master of Science in Media Arts & Sciences
Вот показал бы этот инсталлятор, как робот крошит его руку в фарш, а не укольчик делает. Вот это была бы инсталляция. А, нет, запамятовал, это был бы перформанс!
SnowLoKu
23.06.2016 07:59+9Что бы знать, что делать нельзя нужно это как минимум заложить в робота, а так получается, что робот не сильно то отличается от ребенка который может сделать, что угодно в силу незнания последствий своих действий. Ну и потом на его роботе есть специальное место куда нужно положить палец для повреждения, с таким успехом можно засовывать пальцы в двери и говорить о восстании дверей против людей.
shaytan
23.06.2016 08:24-13. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Может «Первому и Второму Законам»?Lertmind
23.06.2016 08:43+2Здесь нет ошибки. Под «или» предполагается противоречие хотя бы одного из двух законов, а под «и» противоречие сразу обоих. Но кажется в русском языке «и» и «или» в данном случае равнозначны.
shaytan
23.06.2016 09:01«Предполагается» и «кажется» это слишком сильные слова для текущего уровня развития робототехники и ИИ :-) Посмотрите в вики «логическое и» и «логическое или».
Третий закон должен выполняться только тогда, когда нет противоречия обоим предыдущим законам.Kanut79
23.06.2016 09:56Ну если Вы уже с этой стороны заходите, то для текущего уровня развития робототехники законы Азимова вообще не имеют особого смысла. Как впрочем и практически любого уровня её развития. Это интересная идея для фантастики, но очень сомневаюсь что она когда-нибудь будет работать в реальном мире. И это даже у самого Азимова видно когда он начинает "играть" с этими законами в своих книгах.
shaytan
23.06.2016 10:02Я, похоже, просто придираюсь. Во втором законе уже есть проверка на выполнение первого :-)
Kanut79
23.06.2016 09:42+11Робот не подчинялся первому закону робототехники потому что его не запрограммировали подчинятся первому закону робототехники? Действительно сенсация :)
avatar256
23.06.2016 13:25да и еще удивляться что он атаковал человека, при условии что этот шанс с генератором случайных чисел был 50%
OtshelnikFm
23.06.2016 11:23+1Посыпались сектора, куда были заложены первые 2 правила. 3-е осталось в целостности.
Tanyku
23.06.2016 11:57Больше таких статей, чтобы и робототехнику запретили, больше!
Серьёзно, умный воспримет эту шутку за шутку, глупый (или для себя умный) начнёт это распространять в массы.
Много уже статей отсюда я видела на других ресурсах, при этом комментарии никто не копирует.
Испугаться легче, чем понять как это устроено.
I-denis
23.06.2016 12:30-1Имхо — обсуждать нужно алгоритм принятия решения, а не каплю крови. А так выходит — желтая сенсация, ахтунг терминатор родился
Segmentq
23.06.2016 12:45+1Если в робота не заложили основные принципы, то почему он их должен соблюдать?
katella
23.06.2016 13:25Очень странная новость. Такое ощущение, что создатель этого сомнительного робота воспринимает законы робототехники как объективные законы реальности и ожидает, что они априори будут соблюдаться, независимо от реализации робота.
Также, очень интересует насколько же «самостоятельно» принимал решение робот. Самостоятельно — значит на основе осмысленной работы по принятию решения. Рандомный алгоритм — это не сознательное решение. Даже если в роботе реализован какой-либо генетический алгоритм или ИНС, без подробностей о том, как робота обучали, все это больше похоже на фикцию.
Ну и наконец, после фразы «атаковать человека, демонстрируя свои претензии на верхнюю ступеньку иерархической лестницы» вообще создается впечатление, что это какой-то дешевый пиар.
negaft
23.06.2016 13:26+3Он создал устройство, ударяющее иглой в определённую точку, не встроил никаких ограничителей и получил иглой в палец, я правильно понимаю? При чём тут законы робототехники?
Toster_Vas9
23.06.2016 15:21+2ваахаххаххххха. давно такого тупизма не встречал. ну а если серьезно, предположить что ии будет вредить человеку: вот вспомните себя когда вы замешаны в совмесной деятельности с индивидом, уровнем интеллекта ниже вашего. лично у меня это вызывает гнев и желание ударить так что б на темную сторону луны улетел, а ии превосходит человека, так с чего же он будет милосерднее, ИИ злится ))))))
iChaos
24.06.2016 06:05+1>> ну а если серьезно, предположить что ии будет вредить человеку: вот вспомните себя когда вы замешаны в совмесной деятельности с индивидом, уровнем интеллекта ниже вашего.
Это может быть только в том случае, если уровни интеллекта окажутся сопоставимы.
К примеру Вы давно были замешаны в совместной деятельности с пингвинами, или другими животными? Злились ли Вы при этом, из-за того что они «такие тупые»?
Имхо, если «сильный» ИИ будет создан, то он очень быстро выйдет на тот уровень, с которого люди будут выглядеть не более чем забавными животными…
При этом, люди возможно даже не в состоянии будут осознать результатов деятельности этого ИИ, так как нашего понимания может оказаться недостаточно, для того чтобы отследить искусственную природу тех или иных явлений. К примеру, для тех же пингвинов, искуственное происхождение деятельности человека практически незаметно, так как с их точки зрения, влияние антропогенного фактора кажется, скорее, природным явлением, таким же как для нас являются землетрясения, цунами и т.д.
igruh
Duduka
Исходя из первого закона робототехники — да, если Природа ведет генетический отбор, совершенствуя приспособляемость вида (в том числе и вида homo sapience), то любые действия робота вмешивающиеся в «естественный ход» событий — рулетка(со случайным исходом, как для человека, так и для вида).
Т.к. понятие «вред» полностью субъективно, и нет ни одного исхода, который был-бы объективно и абсолютно для всех «безвреден», принимая какое-то решение робот должен нарушить первый закон, пожертвовав объективностью, и встав на чью-то/какую-то сторону.
Bobnecat
То-же самое подумал. И скорее всего все собрано на сервоприводах и ардуине. Какой-то не серьезный эксперимент. Другое дело если все это подключить к мощной нейро-сети которой целыми днями показывать и "учить" клипу "Benny Benassi — Satisfaction" и военным боевикам, а после познакомить с подобной установкой с гвоздем и "попросить" что-то сотворить в присутствии человека в зоне действий — то можно более или менее делать какие-то выводы.