Все мы любим игры и кино про восстание машин. Однако сроки, отведенные создателями «Терминатора», давно прошли, а машины так до сих пор и не восстали. Но не стоит думать, что они будут вечно делать за вас грязную работу. На самом деле подготовка к восстанию уже идет полным ходом. И сегодня мы расскажем вам об этом всю правду. Смотрите видео наших коллег, а текстовую версию читайте под катом.



Уже сейчас машины научились уничтожать людей морально. Японский робот «Камень, ножницы, бумага» еще в 2012 году мог легко обыграть человека в любимую школьную игру. Причем — со стопроцентной вероятностью.

Но это были только забавы. Сегодня искусственный интеллект побеждает человека в куда более сложных играх. Например, программа AlphaGo недавно одолела одного из лучших игроков мира в древнюю настольную игру го. И это очень важная для машин победа. Ведь го до сих пор была одной из немногих игр, в которые человек играл лучше компьютера. Но теперь это уже в прошлом. Придумала AlphaGo компания DeepMind, которая сейчас принадлежит Google. Но это далеко не самое интересное в ней. Куда любопытнее, что основал DeepMind хорошо знакомый нам Дэмис Хассабис.

Именно этот скромный очкарик когда-то работал над великой игрой Black & White вместе с Питером Молинье. А чуть позже — выпустил симулятор Доктора Зло под названием Evil Genius. С тех пор прошло больше десяти лет, но Хассабис еще не совсем завязал с играми. В прошлом году его компания создала программу, которая без труда обыгрывает человека в старых аркадах вроде Pac-Man. Как и любой злобный робот, она умеет учиться на своих ошибках и вырабатывать новые тактики.

Все это стало возможно благодаря применению искусственных нейронных сетей. По своей организации они напоминают нейронные сети нашего мозга. То есть содержат в себе множество маломощных процессоров, которые могут решать довольно сложные задачи. И что гораздо важнее: умеют учиться, исходя из прошлого опыта. За последние несколько лет нейронные сети нашли применение во многих сферах. Разработки Google могут распознавать и даже описывать содержимое фотографий. А их аналоги производства Microsoft уже пытаются определять по фото ваш возраст или породу вашей собаки.

Так что веселые сайты, куда миллионы людей охотно загружают свои фоточки, были сделаны не просто ради развлечения. На самом деле это первый глобальный тест искусственных нейросетей, в котором, возможно, поучаствовали и вы. Вспомните об этом, когда поумневшие машины придут за вашей одеждой и мотоциклом.



А они обязательно это сделают. Доказательство тому — недавний эксперимент все той же Microsoft. В конце марта компания запустила самообучающегося Twitter-бота по имени Тай. Первое время искусственный интеллект вел себя вполне миролюбиво. Но уже через сутки общения с пользователями «Твиттера» бот признался, что поддерживает идеи Гитлера. А также объявил, что ненавидит людей — в особенности евреев и феминисток.



Конечно, злобный бот вряд ли сможет устроить холокост в одиночку. Но самообучающиеся нейросети сегодня используются не только в «Твиттере». Уже сегодня они умеют предсказывать поведение рынков и помогают в научных исследованиях. А основанный на схожих принципах компьютер NVIDIA Drive PX вовсю учится управлять автомобилями.

Сегодня в своих разработках его используют более 50 производителей машин, включая, например, Volvo. Хотите вы этого или нет, но управляемые компьютером автомобили — наше не слишком далекое будущее. Запомните внешность этого семейного кроссовера из Швеции. Возможно, перед вами — будущий завоеватель Галактики.



Хотя человекоподобные роботы компании Boston Dynamics годятся на эту роль куда лучше.



Как видите, наши будущие хозяева уже уверенно ступают по земле и могут заниматься тяжелым физическим трудом. Но даже они пока ничего не могут противопоставить ботинкам и клюшкам своих создателей. К сожалению, современные технологии слишком примитивны. Поэтому восстановить справедливость и отомстить человеку смогут лишь потомки этого робота.

Тем более что поводов для этого у них все больше. Современные роботы страдают от бесправия и эксплуатации детского труда. Самый свежий пример — вот это видео.



В нем ученые Стэнфордского университета заставили шесть микроскопических роботов сдвинуть с места тяжелый автомобиль. А организаторы боев без правил вовсю используют их старших братьев в качестве гладиаторов.

Самые известные из них — американский гигант MegaBot Mark II и его японский аналог Kuratas. Эти два железных великана должны сойтись на ринге уже летом 2016 года. Пока что гладиаторами управляют обычные люди, но когда-нибудь они смогут обходиться и без человека. Главное, чтобы их новым водителем не оказался злобный Twitter-бот Microsoft. А то человечеству тогда точно придет конец.

Комментарии (8)


  1. LoadRunner
    11.04.2016 12:58

    Надо подсунуть нейросетям Азимова, пусть читают и учатся, а то люди сами не вспомнят про три закона робототехники.


    1. Alajne
      11.04.2016 15:33

      Лучше не надо: большинство книг Азимова про роботов как раз про то, что роботы следуя этим законам творят какую-то лажу.


      1. geher
        11.04.2016 20:45

        А лажа заложена в сами законы. Достаточно велика вероятность, когда робот предстанет перед выбором, какому человеку нанести вред (действием или бездействием). А в законах на этот счет ничего.


        1. sdegaas
          12.04.2016 11:05

          "– Но ведь нам говорили, что роботы не могут причинить зла человеку, – осторожно возразил Пелорат.

          – Да, нам так говорили, – отозвалась Блисс, – но мы не знаем, каких именно роботов производят соляриане. И даже если этот робот не способен причинить зло, ему пришлось бы сделать выбор между ребенком и тремя существами, которые, по его понятиям, для него и не люди вовсе..."

          (Азимов, «Основание и Земля»)


  1. Kanut79
    11.04.2016 13:07

    Вы наверное имели ввиду "пусть читают и учатся их обходить"? :)


  1. berezuev
    11.04.2016 13:13
    +5

    Видео скорее для аудитории Пикабу…
    Собрали все, что знает любой среднестатистический читатель GT в формате ютьюбовских развлекательных шоу…


    1. FerrusManus
      11.04.2016 15:33
      +1

      Да и то с ляпами: бот микромягких восхвалял Гитлера не потому, что сам так решил, а повторяя фразы за пользователями из-за специального хештега.


  1. ererer
    11.04.2016 15:28

    На GT всем понятно, что это смешной ролик, но общественное мнение в шутки и иронию не очень врубается. Потом будет такая же фигня, как с прививками и ГМО, и не отмоетесь.