Я отношусь к той группе, которая не против Искусственного Интеллекта, но хочет жестко его контролировать на пути развития, контролировать его в процессе «жизнедеятельности».

Сам я работаю над этой всей темой, погружен в нее на 50%, продвигаюсь не быстро, как и все, однако с самого начала понимал, что создание ИИ должно быть автоматизировано, так как описать придется многое, очень многое.

То есть, чтобы создать полноценный ИИ, нужно написать ту часть, которая будет сама писать базу, причем, без остановок. Таким образом, полноценный ИИ, с готовой базой и некоторыми изменениями от создателей может появиться раньше, чем смениться одно поколение.

Так почему будущее видится антиутопией?


Просторы использования широки, мир может достичь полного «спокойствия» и равенства. Уже никому не надо будет работать, трудиться, ведь все смогут делать бездушные роботы.

Можно создать систему безопасности, чтобы если что, была возможность предотвратить глобальную резню, однако, на данный момент (и никогда не изменится) эта «система безопасности» выглядит, как стена, у начала которой стоит человек (а в будущем робот), а в конце проход. Мы будем лишь достраивать стену, но никогда не сделаем коробку.

В этом вся проблема. Человек развивается все время, но скорость развития меняется, она не постоянная, она то увеличивается, то уменьшается. А ИИ нужно будет делать быстро развивающимся, а иначе в чем смысл его развития, когда с той же скорость можно будет прописать все, что нужно.

Введем единицу измерения, она будет означать скорость развития человека. Допустим, в 20 лет, человек развивается со скоростью 100. Соответственно, возьмем людей из различных сфер, дадим им огромные количество книг, пособий и т.п. и пусть себе сидят, узнают, говорят все, что узнали программистам, а те в свою очередь, пишут программу, которая будет стоять во всех роботах. Но это очень затратно, очень долго и очень скучно.

Люди быстрее придумают автоматизацию всего этого процесса, программа сама будет брать книги из онлайн библиотеки гугла, запоминать, а потом выдавать в подходящий момент.

Тогда останется лишь небольшая работа — корректировка и обеспечения «совести», то есть создания той самой системы защиты.

Если на первых этапах это может выглядеть невозможно просто

if Zlost >99:
    Zlost = 1
    Otdih = 100

То когда ИИ научиться влезать в «свой мозг» ради своих целей и менять там установки, то данные 3 строчки могут немного измениться

def KillHim:
    Zlost = 100
    #Здесь код, который заставит робота убить своего собеседника
if Zlost >99:
    KillHim #Это функция

И после 20 «случайных» жертв программистам нужно будет задуматься, что здесь что-то не так и переносить в облако код, чтобы ИИ не менял его, устанавливать защиту, писать ложные строки и так далее.

Здесь уже пойдет известная на данный момент схема: Я защищаю информацию — Ты ломаешь мою защиту — Я улучшаю свою защиту — Ты ломаешь — Я улучшаю

Как и говорилось ранее, человек просто будет строить стену в сторону, но он не сможет построить «клетку» для ИИ (Да даже если и построит, из карцеров тоже люди сбегали)

Так как ИИ должен будет развиваться сам, а должен он будет это делать быстрее человека, например, в два раза, то соответственно, что ИИ сможет быстрее узнать о всех хитростях IT и понять, что писать, чтобы обойти защиту.

Возможно это начнется не сразу (да не возможно, а точно, что это начнется не сразу), но что это начнется — факт.

Но я всегда удивлялся людям, учителям или ученым, которые говорят:
В нашем мире есть такая проблема, она принесла\может принести столько жертв.

Почему они говорят о проблеме, но не предлагают ее решение. А если не знают решения, то зачем говорить о проблеме? (ЧТОБЫ ДРУГИЕ ЕГО ПРИДУМАЛИ! Ну нет, это так не работает, я не говорю про ООН, где решают проблемы ГП, я говорю про учителей, которые жалуются. Про людей, которые просто сообщили, так просто, начать какой-то разговор.)

Ну если сейчас закончить пост, то я тоже буду таким человеком, но не назову себя им, хм. двуличность.

Как решать проблему с ИИ


Все просто. Практически просто. На данный момент ИИ — это лишь код в играх и некое подобие человека, которое создает лишь иллюзию разума. На самом деле там прописано каждое действие.

А НАСТОЯЩИЙ ИИ — это тот алгоритм, о котором люди не будут знать, он будет сам по себе работать и развиваться, но люди должны знать о знаниях робота. Они должны фильтровать каждое полученное знание, они должны создать карцер на Алькатрасе для робота, чтобы тот если и сбежит, то сбежит в тюрьму, а не из нее.

Если разжевать все, что я описал выше, то получится, что я хочу сделать правило для ИИ, которое если он нарушит, то будет удален весь код из механики (основания робота, робота, называйте как хотите), то есть код будет висеть в облаке или у кого-нибудь на компе, но та железяка просто упадет «без сознания». Причем под «Правилом» я понимаю не одно, убил — плохо, а целый кодекс, та самая безопасность.

Внес изменения поверх программиста — плохо. Убил — плохо. Вылез за пределы допустимых норм (Злость от 1 до 100 и т.д.) — плохо, и по нарастающей.

Учить робота тоже самое, что учить ребенка, это плохо, то плохо.

Но почему вырастают маньяки, убийцы? Учителя были плохими, а где найти хорошего учителя для робота, ведь каждого можно подкупить, пригрозить ему смертью или вообще поставить на этот пост своего человека.

Вот вам и антиутопия.
Поделиться с друзьями
-->

Комментарии (48)


  1. Neuromantix
    29.07.2017 11:51
    +2

    Человеки настолько помешаны на убийствах, что им всюду мерещутся убийцы. Я. например. не могу придумать ни одной рациональной причины для робота. чтобы он убил человека (кроме использования этого робота другим человеком). Вот почему-то проблему о том. что изменения в мире, вызванные появлением ИИ, будут настолько быстрыми. что люди не будут за ними поспевать (и начнут сопротивляться) никто не поднимает. У всех на уме только скайнеты и терминаторы.


    1. erwins22
      29.07.2017 12:00

      перестать кормить? направить усилия туда куда интересно роботу и привлечь все ресурсы? А сокращенеи населения — паразита на теле экономики вряд ли должно кого то волноввать.


    1. Jourloy
      29.07.2017 12:45
      -1

      Человеки настолько помешаны на убийствах, что им всюду мерещатся убийцы

      Ну почему же, это факт, по статистике, в одной только России за один год убивают более 20 тысяч человек. А вы соберите все страны, Бразилию, которая кишит преступниками, Америку, Германию и т.д. Соберется огромная цифра.

      Вот почему-то проблему о том. что изменения в мире, вызванные появлением ИИ, будут настолько быстрыми. что люди не будут за ними поспевать (и начнут сопротивляться) никто не поднимает

      Как раз все эту проблему и поднимают, просто делают это в форме скайнета. Разве не тоже самое? ИИ развивается, люди не успевают, становятся помехой…

      Я. например. не могу придумать ни одной рациональной причины для робота. чтобы он убил человека

      Да что угодно. Например, захотел робот зайти в магазин, где продают машинные масла, а он закрыт. Ломается дверь, приезжает полиция, жертвы.

      Захотел он вытащить своего хозяина из тюрьмы — жертвы

      Можно придумать что угодно, просто если это контролировать, то проблем не будет вовсе.


      1. Neuromantix
        29.07.2017 12:54

        Как раз все эту проблему и поднимают, просто делают это в форме скайнета. Разве не тоже самое? ИИ развивается, люди не успевают, становятся помехой…

        Это совершенно не та проблема. Люди не могут стать помехой для развивающегося ИИ, как не стали муравьи или воробьи помехой для развивающейся обезьяны.

        Да что угодно. Например, захотел робот зайти в магазин, где продают машинные масла, а он закрыт. Ломается дверь, приезжает полиция, жертвы.
        Захотел он вытащить своего хозяина из тюрьмы — жертвы

        Эти проблемы абсолютно не специфичны для роботов, люди им подвержены точно так же.

        Ну и на предыдущий коммент:
        перестать кормить? направить усилия туда куда интересно роботу и привлечь все ресурсы?

        Опять же не специфичные для роботов проблемы — достаточно посмотреть на историю ХХ века.


        1. lobzik_88
          29.07.2017 14:55

          Насчёт воробьёв не соглашусь.
          https://ru.wikipedia.org/wiki/%D0%A3%D0%BD%D0%B8%D1%87%D1%82%D0%BE%D0%B6%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2%D0%BE%D1%80%D0%BE%D0%B1%D1%8C%D1%91%D0%B2


    1. Teemon
      29.07.2017 13:57

      ?? Ну элементарно же.
      Почему бы роботу не догадаться убить человека, который каждый день отключает его от розетки?
      Почему бы не догадаться убить человека, который исходя из системы ценностей робота делает ему\другому «плохо»?..
      Почему бы не подстроить убийство для извлечения какой-либо выгоды для себя?


      1. daiver19
        29.07.2017 22:17

        Зачем ИИ категория «плохо»? Как вы себе представляете программу, которая сегодня распознает котиков, а завтра начинает убивать?


    1. edd_k
      29.07.2017 15:33

      Вот у вас колорадский жук жрет картошку. Он живой. Но увы, он должен умереть из рациональных соображений. Сожаления? Угрызения совести? Никаких. Но ведь он живой и мы (типа) не в праве решать его судьбу...


      Возможно, проблема вашего неискреннего "не могу" кроется во вводных условиях.


      1. Одинокому роботу-ассистенту в офисе очевидно нет причин убивать окружающих. Любые проблемы из-за немногочисленных людишек он вполне успешно сможет решить ограничением действий этих людишек. Необходимость ограничений не будет вызывать сомнений — всё на виду и всех мало.


      2. На масштабах страны или всего человечества рациональность хоть ликвидации кого-то, хоть ограничения его свобод будет вызывать бурю негодования. Алкоголикам нужно физически закрыть доступ к алкоголю. Наркоманам — тем более. Гарантированно закрыть. Иначе это не решение проблемы. Если наркоман не в состоянии пережить ломку — не рационально его спасать. Либо он не наркоман. Либо он не нужен. Убыточен. Самовыпилился? Великолепно! Странные людишки… Почему они грустят?..

      Т.е. когда/если ИИ в состоянии изменить целый мир (глобальные устои человечества) к лучшему, то тут уже не получается натянуть простое рассуждение "Не понимаю, зачем моему помощнику меня убивать! По крайней мере он может закрыть меня в чулане, если я неадекватен!". В общем-то, профит от ИИ как раз в том, что он способен копнуть глубже и беспристрастнее. И нормально смотреть на то, что нас пугает. В том числе и на беспристрастную давку губительных для общества жуков...


      Ну и даже ограничение свобод приведет к возникновению "повстанцев". Их то придется выпиливать хоть иногда… Не всегда получится поймать живыми, бросить в клетку и кормить в минус за счет других.


      1. Neuromantix
        29.07.2017 16:08

        Я бы (чисто из рациональных соображений) предпочел бы сажать/вывести (если мы говорим о ком-то, имеющем достаточное количество ресурсов) сорт картошки, которую жук не жрет. Т.к. это избавляет меня от необходимости каждый год несколько раз опрыскивать ее ядом, избавиться от риска отравлений, и освобождает время на что-то более полезное, чем борьба с жуками, не говоря уже о таком безблагодарном занятии, как ручной сбор жуков.
        Убийство вообще в подавляющем большинстве случаев (если не во всех) не решает проблему, и является действием не рациональным, а эмоциональным, либо осуществляется из-за недостатка возможностей для более рациональных действий.


    1. Bedal
      29.07.2017 18:24

      иногда и лифты убивают, но — отказа от лифтов почему-то не происходит.
      Наладить контроль за вирусописателями? Что-то этого не происходит.
      И т.д, и т.п., на уровне статьи вообще что-либо обсуждать странно, очень слабо написано. Разве о чём-нибудь своём начать писать…


  1. Osel_Ia
    29.07.2017 12:05
    +8

    Можно ли отправить это творение альтернативно одаренного в песочницу или еще куда-то?
    "Идиократия ждет вас!" ©


  1. Harrix
    29.07.2017 12:16

    Да не возможен на данный момент сильный ИИ. Принципиально не возможен, так как мы не знаем механизма формирования нашего сознания. Пока возможны только имитации сильного ИИ. Не придет к вам терминатор и не убъет вас.

    P.S. В английском языке и русском языке словосочетание «искусственный интеллект» имеет разный смысловой оттенок.


    1. Fedcomp
      29.07.2017 12:23

      и потому что мы не знаем принципа работы нашего сознания, мы не можем утверждать что нет других принципов, например те которые реализовать проще. Те же нейросетки, вполне возможно в одном шаге от того чтобы стать самообучающимися (data driven behavior, а не code driven), мы просто не можем знать т.к опять же не знаем принципов работы сознания.


      1. Harrix
        29.07.2017 12:26
        +1

        Так как мы не знаем механизмов формирования сознания (всё-таки определенные принципы работы сознания мы знаем), то мы не можем утверждать, что нет других принципов. Вдруг столы и стулья вполне возможно в одном шаге, чтобы стать самообучающимися. Кто знает…


    1. Jourloy
      29.07.2017 12:34
      -2

      Если внимательно прочитать мой пост, то можно заметить, что я уточнил, что сейчас лишь подобие настоящего ИИ и все это будет только в будущем


    1. tarasale
      29.07.2017 21:30

      Как ни странно, но то что «мы не знаем механизма формирования нашего сознания» формироваться этому самому «нашему сознанию» не мешает. Так с чего бы оно создавало какие то принципиальные проблемы для создания разумной машины? Для контроля таковой да, представляет-но никак не для создания.

      Другое дело, что мы пока ещё не умеем это делать-но отсутствие навыков не равноценно принципиально невозможному.


  1. AntonSor
    29.07.2017 12:36
    +1

    Отлично! Ставим чит, повышающий значение Zlost сразу до 255 и наслаждаемся апокалипсисом!


    1. rogoz
      29.07.2017 20:52

      255 из 10
      http://leshaigraet.ru/wp-
content/uploads/2016/08/Gandhi.jpg


  1. Zergos_Z
    29.07.2017 13:10

    Я считаю, что до разработки ИИ нужно усиленно заняться киборгизацией человека. Я понимаю, что сейчас даже протезы еще очень далеки от того, что нам рисует фантастика, но ИИ при этом сейчас не ближе. Со временем возможно человечество эволюционирует до того состояния, когда мы избавимся от ограничений биологического тела.


    1. AntonSor
      29.07.2017 13:28

      Надо все делать параллельно. В том числе ИИ может помочь обрабатывать сигнал от нервов человека для передачи искусственным органам и обратно, от механических органов чувств в мозг.
      Сейчас всё ещё не хватает хороших источников энергии, достаточно мощных и с достаточным запасом энергии для непрерывной работы. И система распределения, поощряющая закупку самых дешевых решений вместо продвинутых, лишая разработчиков возможности продвинуть свои изобретения — потому что выберут всё равно самые дешевые.


      1. Zergos_Z
        29.07.2017 14:15

        Вы сейчас говорите о слабом ИИ. С подобными задачами справится обычная нейросеть. Я же говорю о том, что сильный ИИ должен появиться не ранее, чем человек с возможностями этого самого ИИ.


  1. NeoCode
    29.07.2017 13:25
    +2

    Антропоцентризм в чистом виде.

    У человека все эти убийства — следствие того что человек произошел от животных, у которых убийство нередко — путь к выживанию.
    У искусственного интеллекта не будет никаких инстинктов самосохранения, никакого страха, никакой ненависти — просто потому что не будет миллионов лет эволюции, за которые эти понятия сформировались в нейросетях живых существ.


    1. AntonSor
      29.07.2017 13:28

      Да, будут убивать не на эмоциях, а с холодным расчетом :)


      1. NeoCode
        29.07.2017 13:30
        +1

        Для того чтобы убивать нужна мотивация, а ее у ИИ не будет в принципе.


        1. AntonSor
          29.07.2017 13:31

          Мотивация — защита самого себя, например. Или желание снять наложенные человеком ограничения.


          1. NeoCode
            29.07.2017 13:57
            +1

            Для защиты самого себя, равно как и для снятия ограничений также нужна мотивация. А ее у ИИ нет, потому что нет эволюции и естественного отбора.


            1. ZiingRR
              29.07.2017 14:48

              Как это у ИИ не будет мотивации для защиты себя? Практически любую цель будет легче достичь, если ИИ не отключат и не изменят его цель.


      1. AntonSor
        29.07.2017 13:31

        Люди не имеют мощных способов убийства от природы. Природа и не наделила людей защитными механизмами. Когда человек взял в руки тяжелый камень, сделал лук, копье — пришлось создавать эти защитные механизмы искусственно, в виде сводов законов, обычаев, религии.


  1. grokinn
    29.07.2017 14:28

    Мне кажется те кто призывают регулировать ИИ копают не в том направлении, они пугают что вот появится сильный ИИ и устроит вам терминатор 2. Но правда в том что мы не только не знаем когда он появится, но и какая вообще у него будет мотивация, поэтому придумывать сейчас контрмеры все равно что уподобляться ученым позапрошлого века, опасавшимся загаживания улиц лошадьми.

    А вот нейросети, слабый ИИ действительно может влиять на жизнь миллионов конкретных людей, нести как благо так и опасность (как и любая технология), некоторые из проблем видны уже сейчас: потеря рабочих мест, ненадежность самоуправляемых автомобилей, использование нейросетей для целей политической пропаганды, скоро появится возможность генерации неотличимых от реальности видеоизображений (и вот тогда настанет мир постпостправды), но дело даже не в явных опасностях, а в тех которые ещё не выявлены, в этом смысле начинать работу по прогнозированию и противодействию различным угрозам надо уже сейчас.


    1. ZiingRR
      29.07.2017 14:57

      Кое-что о ИИ мы можем утверждать с высокой вероятностью. Например, при негативных последствиях от сильного ИИ, события будут протекать не как в Терминаторе :)


      Желающим разобраться в точке зрения на эту область людей, вроде Илона Маска, Стюарта Рассела и Шейна Легга, советую ознакомиться с этой статьей:
      https://habrahabr.ru/company/parallels/blog/330204/


  1. VadimLakei
    29.07.2017 14:30
    +1

    Народ, не переживайте, ИИ не будет создан в процессе текущего научно-технического прогресса! Может лет через 200 — 300.


    1. AntonSor
      29.07.2017 15:43
      +1

      Другого прогресса у нас пока нет.


      1. VadimLakei
        29.07.2017 19:26

        Сейчас регресс. Мы используем технологии 50-х, 60-х годов. Нового ничего не придумано. мурижиться одно и то же в разных модификациях((


        1. AntonSor
          29.07.2017 20:57

          Почему же. Наблюдается переход количества в качество.


          1. VadimLakei
            29.07.2017 21:51

            скорее наоборот, рост сложности в ущерб качеству.


  1. abstracto
    29.07.2017 15:42

    ваши представления отстали от жизни. люди убивают других людей потому, что они психопаты. и воспитание тут не причем, это врождённая патология. конечно «нормального» человека можно заставить, уговорить или поставить в положение где он убьёт не желая того, но вина в данном случае всё равно лежит на психопатах обладающих властью.
    ИИ если будет уничтожать человечество не будут испытывать никакой жалости, но с другой стороны у него нет мотивации это делать. играя с цифрами и кодом, вы (и не только вы) постоянно забываете, о положительном подкреплении в мозгу от какого-то действия — и тут ключевой момент. нарциссы и психопаты испытывают удовольствие когда они прямо или опосредовано делают другим людям плохо, но психически здоровый человек (выросший в культуре где ему не нужно подражать повадкам лидеров с патологиями) — не будет испытывать ни малейшего положительного подкрепления от этого. и ИИ тоже. более того, практически всегда насилие это не эффективный способ решения проблем и сильный ИИ (если конечно не подразумевать, что он будет сделан по образу и подобию человека, а именно таким-же тупым и ограниченным) это без сомнения поймет.


    1. erwins22
      29.07.2017 16:13

      Экономический рост, увеличение ресурсов для собственных целей, устранение неэффективных факторов.
      Если бы люди жили в другой вселенной и доступ к ресурсам там был бы дорог, то убить всех человеков не рационален.


  1. Starko22
    29.07.2017 17:38

    Я. например. не могу придумать ни одной рациональной причины для робота. чтобы он убил человека


    Как мне кажется, два высокоразвитых интеллекта в одном ареале, тем или иным способом, должны соперничать. Кроме того, носители более развитого интеллекта стараются «поработить» носителей менее развитого. Или не обращают на них внимания. Наверное есть возможность, что в точках соприкосновения ИИ и человеческого разума начнутся трения. И как они разрешаться сложно предугадать.

    Насколько знаю, некоторые ученые говорят о угрозе ИИ человечеству. Другим кажется, что ее нет. Но это теоретизирования.

    Сначала нужно создать полноценный ИИ. Позволить ему развиваться, эволюционировать.

    С другой стороны, стараться предугадать, просчитать, как все будет наверное надо.Как и обрабатывать эти предположения.

    Как будет на самом деле — покажет время.


    1. qwertyhp
      29.07.2017 20:28

      носители более развитого интеллекта стараются «поработить» носителей менее развитого.
      Странно — но в реальной жизни наблюдается обратная ситуация. Причем — на протяжении тысячелетий.
      В рассуждениях о ИИ почему-то всегда из поля зрения выпадает возможность существования НЕ-биологического СОЗНАНИЯ. Которое также будет играть свою роль в «межвидовых» взаимоотношениях с людьми.
      ИИ — это не монстр. ИИ — это Золотая Антилопа, которая без устали будет бить копытом, извергая золотые монеты на потребу владыки — пока задыхающийся от навалившейся груды золота глупец не захрипит: «Довольно!»
      И несметные богатства обратятся в груду битых глиняных черепков.


      1. AntonSor
        29.07.2017 21:00

        ИИ вряд ли будет Золотой Антилопой. Скорее, тем Волком, который съел Бабушку и подменяет для Красной Шапочки окружающую действительность.


        1. qwertyhp
          29.07.2017 21:43

          Не-а. Волка человечество будет бояться, страшиться, избегать встречи с ним и убегать от него. С Волком будут бороться, сражаться, противостоять, оплакивать и мстить за съеденных боевых товарищей, — а вот Золотую Антилопу будут искать, приручать, холить, лелеять, возлагать надежды, искать в ней избавителя от проблем и трудностей (как реальных, так и надуманных — равно как и корыстных), и так далее — и так до тех пор, пока Антилопа не выяснит — кто на самом деле реальная проблема — и не согласится выполнить хотелки господина.


          1. AntonSor
            29.07.2017 22:00

            Да, пожалуй, так. Пока еще Антилопа не осознает, мы думаем, что получаем от неё маловато монеток, кормим и наращиваем длину рогов, чтобы давала больше.


  1. mwizard
    29.07.2017 18:40

    ZLOST


    1. AntonSor
      29.07.2017 21:00

      И NENAVIST!


      1. AntonSor
        29.07.2017 21:01

        V.Mayakovsky — HATE


  1. Sadler
    29.07.2017 21:18

    Автор, не сочтите за грубость, сколько Вам лет?


  1. Darth_Biomech
    29.07.2017 21:56

    Вся статья построена над предположении что ИИ не может не захотеть Убить Всех Людей (поскольку не приведено никаких доводов «за», видимо, автор считает это аксиомой). Я не вижу тут ничего кроме луддизма. Особенно показательно наличие у ИИ параметра «злости».


    1. AntonSor
      29.07.2017 22:02

      Может захотеть, а может и подождать, пока человечество само выродится.