Комиссия экспертов, называющая себя Information Technology and Innovation Foundation, опубликовала список номинаций на премию «Луддит года», который включает в себя 10 пунктов. По мнению авторов премии существует достаточно большое число людей, считающее, что развитие технологий будущего, таких как RFID-метки или генетически модифицированные организмы, представляет опасность для человечества. Первым пунктом в списке «страхов» значится искусственный интеллект(ИИ) и, по мнению авторов премии, о его опасности необоснованно заявляют Илон Маск, Билл Гейтс и Стивен Хокинг. На премию «луддитов» обратила внимание The Guardian.

Действительно, некоторые люди, в том числе и Илон Маск, считают, что развитие ИИ в конце концов может привести к тому, что «разум машины» приобретёт некоторые опасные для человечества черты, в результате чего люди окажутся порабощены или уничтожены. Эту тему усердно эксплуатирует Голливуд в таких известных фильмах как «Матрица» или «Терминатор», и благодаря этому «страх перед ИИ» укрепился в представлении общества. Илон Маск в прошлом году высказал опасение, что искусственный интеллект может быть опаснее ядерного оружия:



Авторы премии на считают, что такое мнение относительно будущего человечества — это просто превратное понимание искусственного интеллекта на данном этапе его развития. Вопрос о том, возможна ли такая ситуация, при которой ИИ сможет стать по-настоящему автономным и обрести «разум» — это вопрос спорный и, как минимум, вопрос не ближайшего будущего. Так что усилия учёных, работающих над Siri или термостатами Nest, едва ли приведут к тому, что однажды они захотят уничтожить своих создателей.

Полный список «луддизмов» года выглядит следующим образом. К нему прилагается документ (pdf), в котором авторы рассуждают о необоснованности таких представлений.

  • Боязнь искусственного интеллекта.
  • Запрет на автономное оборонительное оружие, так называемых «роботов-убийц».
  • Ограничения на использование автоматических сканеров автомобильных номеров.
  • Ограничения на использование Uber-подобных сервисов.
  • Отказ от использования электронной маркировки товаров вместо бумажной.
  • Запрет использования RFID-меток в водительских правах в Калифорнии.
  • Коллизии между частной собственностью и интересами общества. Имеется ввиду случай в Вайоминге (США), когда владельцы частных угодий через суд запретили членам некоммерческой организации проводить биологические исследования на их территории.
  • Отмена принципа сетевого нейтралитета
  • Борьба против генетически модифицированных продуктов
  • Ограничение на использование средств автоматической фиксации нарушений правил дорожного движения


Как известно, луддизм — это общественное движение, возникшее в ходе промышленной революции в Великобритании, участники которого видели основную опасность для себя в том, что новые машины на производстве могут заменить их на рабочих местах и поэтому оборудование необходимо уничтожать.

Комментарии (13)


  1. zelyony
    25.12.2015 18:53
    +4

    > усилия учёных, работающих над Siri или термостатами Nest, едва ли приведут к тому, что однажды они захотят уничтожить своих создателей.

    ИИ в Сири оперирует «что он имел в виду?» и уже исходя из этого выдает что-то из «той» области.

    Термостаты Nest… IoT… Если его холодильник попросит для оптимизации понизить температуру в помещении? Холодильник думает о комфортной температуре для людей? Вы все кейсы проверили при написании логики? А индусы?

    А вот ИИ у военых оперирует уже понятиями наибольший урон, обездвижить, форсировать, «поднасрать» тем воякам (людишкам)… он играет в шахматы… и если ему приделать не только мозги, но и «руки»… Где грань наших людишек и не наших?.. А вы все кейсы проверили? А у военных такие же программисты, как и вы! И военным мало симуляций на экране, они захотят вживую увидеть, и у них есть деньги, и они наверняка что-нибудь запустят, и будут запускать, хотим мы этого или нет.


    1. Zenitchik
      25.12.2015 21:52

      У военных обычно дисциплина в отношении техники безопасности выше, чем у учёных. А к крупным звёздочкам — она уже на подкорке записывается. Просто так они ничего не запустят.


      1. netto
        29.12.2015 11:39
        +1

        > У военных обычно дисциплина в отношении техники безопасности выше, чем у учёных.

        Чувствую я по этим словам, в армии вы не служили ;)


        1. Zenitchik
          29.12.2015 18:13
          +1

          Как раз наоборот. Служил. И тех, кто принимает решения своими глазами видел. И сам за соблюдение техники безопасности боролся.


  1. SpaceEngineer
    25.12.2015 19:25
    +8

    Илон Маск в прошлом году высказал опасение, что искусственный интеллект сможет нанести ядерный удар:

    Он написал о том, что ИИ потенциально может быть опаснее, чем ядерное оружие («Potentially more dangerous than nukes»).


    1. heathen
      25.12.2015 20:44

      Зашёл, чтобы оставить именно этот комментарий. Совершенно не понимаю, зачем настолько перевирать оригинал, превращая его в ярчайшую желтизну.


  1. Mad__Max
    26.12.2015 02:19

    Хмм. ИИ в лидерах среди фобий уже? Впрочем пожалуй что оправданно — т.к. наименее предсказуемо, а неопределенность очень многих пугает…

    Ну значим вайпаем «плохих ИИ» (Терминатор, Матрица и т.д. избитые фантастические клише) — «хорошими».
    Замечательный пример (книга): Дружба это оптимум

    Варнинг (дисклеймер): Там в книге много о вселенной мультяшных пони, я вас предупредил если что :).
    Впрочем не стоить сразу плеваться(если у кого они уже в печенках сидят), пони там больше как внешний антураж (сеттинг), а основная часть книги о

    Сюжетный спойлер
    О искусственном интеллекте, виртуальной реальности, технологической и информационной сингулярности, а к концу книги уже ближе к философии о смысле и сути человеческой жизни


  1. MTK
    26.12.2015 04:26
    +2

    Печально, что борьба против ГМО аж на 9ом месте.


    1. Sadler
      29.12.2015 05:59

      Это же просто список, а не ТОП10, порядок здесь не несёт никакой смысловой нагрузки. В работе даже специально уточнён этот момент.


  1. Belikov
    28.12.2015 17:06

    Авторы премии — это роботы засланные из будущего. :)
    А если серьезно, то вот очень хорошая статья на эту тему:
    waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html


  1. zim32
    29.12.2015 00:51
    +1

    Илон Макс это тот который объявил что ищет хардкорных программистов для программирования автопилота?
    Мне кажется они боятся одного — что они будут не первыми.


  1. volanddd
    29.12.2015 01:31

    Не понимаю, какой смысл бояться ИИ, если он все равно будет, ну запретят — появится на 5 лет позже, не так важно.


  1. Sergiar
    29.12.2015 12:03
    +1

    Страх — естественная реакция на неизвестность, воспитанная тысячами поколений эволюции.
    С одной стороны, не все что неизвестное — плохо. С другой стороны, у любого явления есть как положительные, так и отрицательные стороны, при чем разные люди один и тот же аспект какого-то предмета могут видеть совершенно по-разному, поскольку точки зрения (на этот предмет) у них различаются.
    В случае всякого рода инноваций, главное — быть аккуратным и не делать поспешных выводов. Атомное оружие ведь тоже изобрели, и оно «может уничтожить человечество» (точно так же, как до этого — огнестрельное), но на данный момент оно служит сдерживающим фактором.
    ГМО не отличаются от продуктов селекции — изменение генотипа, которое влечет изменение фенотипа. Главное — проводить качественное тестирование.

    К чему я тут растекся мыслею по древу? К тому, что прогресс неизбежен, а наша задача — сделать его максимально комфортным и безопасным для людей.