Действительно, некоторые люди, в том числе и Илон Маск, считают, что развитие ИИ в конце концов может привести к тому, что «разум машины» приобретёт некоторые опасные для человечества черты, в результате чего люди окажутся порабощены или уничтожены. Эту тему усердно эксплуатирует Голливуд в таких известных фильмах как «Матрица» или «Терминатор», и благодаря этому «страх перед ИИ» укрепился в представлении общества. Илон Маск в прошлом году высказал опасение, что искусственный интеллект может быть опаснее ядерного оружия:
Worth reading Superintelligence by Bostrom. We need to be super careful with AI. Potentially more dangerous than nukes.
— Elon Musk (@elonmusk) 3 августа 2014
Авторы премии на считают, что такое мнение относительно будущего человечества — это просто превратное понимание искусственного интеллекта на данном этапе его развития. Вопрос о том, возможна ли такая ситуация, при которой ИИ сможет стать по-настоящему автономным и обрести «разум» — это вопрос спорный и, как минимум, вопрос не ближайшего будущего. Так что усилия учёных, работающих над Siri или термостатами Nest, едва ли приведут к тому, что однажды они захотят уничтожить своих создателей.
Полный список «луддизмов» года выглядит следующим образом. К нему прилагается документ (pdf), в котором авторы рассуждают о необоснованности таких представлений.
- Боязнь искусственного интеллекта.
- Запрет на автономное оборонительное оружие, так называемых «роботов-убийц».
- Ограничения на использование автоматических сканеров автомобильных номеров.
- Ограничения на использование Uber-подобных сервисов.
- Отказ от использования электронной маркировки товаров вместо бумажной.
- Запрет использования RFID-меток в водительских правах в Калифорнии.
- Коллизии между частной собственностью и интересами общества. Имеется ввиду случай в Вайоминге (США), когда владельцы частных угодий через суд запретили членам некоммерческой организации проводить биологические исследования на их территории.
- Отмена принципа сетевого нейтралитета
- Борьба против генетически модифицированных продуктов
- Ограничение на использование средств автоматической фиксации нарушений правил дорожного движения
Как известно, луддизм — это общественное движение, возникшее в ходе промышленной революции в Великобритании, участники которого видели основную опасность для себя в том, что новые машины на производстве могут заменить их на рабочих местах и поэтому оборудование необходимо уничтожать.
Комментарии (13)
SpaceEngineer
25.12.2015 19:25+8Илон Маск в прошлом году высказал опасение, что искусственный интеллект сможет нанести ядерный удар:
Он написал о том, что ИИ потенциально может быть опаснее, чем ядерное оружие («Potentially more dangerous than nukes»).heathen
25.12.2015 20:44Зашёл, чтобы оставить именно этот комментарий. Совершенно не понимаю, зачем настолько перевирать оригинал, превращая его в ярчайшую желтизну.
Mad__Max
26.12.2015 02:19Хмм. ИИ в лидерах среди фобий уже? Впрочем пожалуй что оправданно — т.к. наименее предсказуемо, а неопределенность очень многих пугает…
Ну значим вайпаем «плохих ИИ» (Терминатор, Матрица и т.д. избитые фантастические клише) — «хорошими».
Замечательный пример (книга): Дружба это оптимум
Варнинг (дисклеймер): Там в книге много о вселенной мультяшных пони, я вас предупредил если что :).
Впрочем не стоить сразу плеваться(если у кого они уже в печенках сидят), пони там больше как внешний антураж (сеттинг), а основная часть книги оСюжетный спойлерО искусственном интеллекте, виртуальной реальности, технологической и информационной сингулярности, а к концу книги уже ближе к философии о смысле и сути человеческой жизниBelikov
28.12.2015 17:06Авторы премии — это роботы засланные из будущего. :)
А если серьезно, то вот очень хорошая статья на эту тему:
waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
zim32
29.12.2015 00:51+1Илон Макс это тот который объявил что ищет хардкорных программистов для программирования автопилота?
Мне кажется они боятся одного — что они будут не первыми.
volanddd
29.12.2015 01:31Не понимаю, какой смысл бояться ИИ, если он все равно будет, ну запретят — появится на 5 лет позже, не так важно.
Sergiar
29.12.2015 12:03+1Страх — естественная реакция на неизвестность, воспитанная тысячами поколений эволюции.
С одной стороны, не все что неизвестное — плохо. С другой стороны, у любого явления есть как положительные, так и отрицательные стороны, при чем разные люди один и тот же аспект какого-то предмета могут видеть совершенно по-разному, поскольку точки зрения (на этот предмет) у них различаются.
В случае всякого рода инноваций, главное — быть аккуратным и не делать поспешных выводов. Атомное оружие ведь тоже изобрели, и оно «может уничтожить человечество» (точно так же, как до этого — огнестрельное), но на данный момент оно служит сдерживающим фактором.
ГМО не отличаются от продуктов селекции — изменение генотипа, которое влечет изменение фенотипа. Главное — проводить качественное тестирование.
К чему я тут растекся мыслею по древу? К тому, что прогресс неизбежен, а наша задача — сделать его максимально комфортным и безопасным для людей.
zelyony
> усилия учёных, работающих над Siri или термостатами Nest, едва ли приведут к тому, что однажды они захотят уничтожить своих создателей.
ИИ в Сири оперирует «что он имел в виду?» и уже исходя из этого выдает что-то из «той» области.
Термостаты Nest… IoT… Если его холодильник попросит для оптимизации понизить температуру в помещении? Холодильник думает о комфортной температуре для людей? Вы все кейсы проверили при написании логики? А индусы?
А вот ИИ у военых оперирует уже понятиями наибольший урон, обездвижить, форсировать, «поднасрать» тем воякам (людишкам)… он играет в шахматы… и если ему приделать не только мозги, но и «руки»… Где грань наших людишек и не наших?.. А вы все кейсы проверили? А у военных такие же программисты, как и вы! И военным мало симуляций на экране, они захотят вживую увидеть, и у них есть деньги, и они наверняка что-нибудь запустят, и будут запускать, хотим мы этого или нет.
Zenitchik
У военных обычно дисциплина в отношении техники безопасности выше, чем у учёных. А к крупным звёздочкам — она уже на подкорке записывается. Просто так они ничего не запустят.
netto
> У военных обычно дисциплина в отношении техники безопасности выше, чем у учёных.
Чувствую я по этим словам, в армии вы не служили ;)
Zenitchik
Как раз наоборот. Служил. И тех, кто принимает решения своими глазами видел. И сам за соблюдение техники безопасности боролся.