В последнее время стало модно опасаться, что высокоразвитый искусственный интеллект когда-нибудь восстанет против людей. Или ещё как-нибудь навредит. Мировые СМИ регулярно публикуют подобные прогнозы, и подобные мысли высказали некоторые известные бизнесмены, учёные и IT-специалисты. Но существует и иной ? оптимистичный ? взгляд на будущую роль технологий ИИ.

Голоса пессимистов сегодня всё громче, и к их лагерю примыкают всё новые «агенты влияния», люди и целые компании, к чьему мнению прислушиваются всё более широкие слои населения. Скажем, вот совсем свежий пример от The Guardian:



Этот ролик отражает опасения, уже циркулирующие в обществе, при этом ещё более укрепляя их. До недавнего времени считалось, что многие интеллектуальные профессии, связанные с созданием чего-то нового, не будут подвержены автоматизации по той простой причине, что невозможно в обозримом будущем создать достаточно продвинутый искусственный интеллект. Тем не менее, недавно проведённый опрос показал, что около трети разработчиков ПО на Западе всерьёз опасаются того, что их место займут машины. Эти страхи подпитываются и академической средой. Например, в 2013 году Оксфордский университет опубликовал исследование «Будущее рынка труда», в котором высказано предупреждение о скорой замене автоматизации сферы разработки ПО.

Неудивительно, что на этом фоне многие из нас предпочтут, чтобы технологии ИИ не развивались. Зачем взращивать то, что в скором времени может лишить тебя работы?

Однако немало людей придерживаются иного взгляда на этот вопрос. Искусственный интеллект ? одна из важнейших IT-технологий, получивших развитие за последнее десятилетие. И для нас ИИ не угроза, а инструмент с замечательными возможностями. Грубо говоря, ИИ можно охарактеризовать как способность компьютера понимать вопросы человека, искать информацию в базах данных и формулировать точные и понятные ответы. Также ИИ ? это способность компьютера обрабатывать огромные массивы данных, принимать решения и предпринимать (или советовать предпринять) определённые действия.

Всем известны такие примеры ИИ, как Siri, Cortana и IBM Watson. Последний представляет собой систему, состоящую из суперкомпьютера и специального программного обеспечения. Watson одержал победу в игре Jeopardy («Своя игра»), а также используется для обработки больших объёмов медицинских данных при лечении онкологических заболеваний.

Система AlphaGo, разработанная Google DeepMind, обыграла в игру го Ли Седоля, обладателя девятого профессионального дана, одного из лучших мастеров го в мире. Ранее считалось, что выиграть в го компьютеры не смогут еще десятилетие.

Но всё это лишь первые шаги на пути к действительно мощному искусственному интеллекту, что-то вроде J.A.R.V.I.S. из фильма «Железный человек».



Какие возможности даст нам ИИ?



Терминатор – один из самых известных примеров применения ИИ (на данный момент только в кинематографе).

В первую очередь ? равные возможности в ряде сфер деятельности. Сегодня поисковый движок Google обеспечивает равный доступ к мировой информационной среде, где бы вы не жили. А будущие системы искусственного интеллекта уравняют возможности людей с точки зрения пользования всевозможными сервисами и услугами, от здравоохранения до советов по вложению финансовых средств. Ну, или как минимум уменьшат разрыв в подобных возможностях для жителей разных стран.

ИИ займут место в точных науках, финансировании, обучении, дизайне, приготовлении пищи, развлечениях и множестве других сфер деятельности. Стоимость «труда» ИИ будет крайне низкой, поэтому мы сможем пользоваться им бесплатно или очень дёшево. Иными словами, широкое внедрение продвинутых технологий искусственного интеллекта сделает многократно доступнее самые разные услуги, что позволит улучшить качество жизни всё быстрее растущего населения планеты. Быть может, приближая нас ко всеобщему изобилию.

(Почти) нет причин для страхов



Роботы – одно из возможных воплощений ИИ. Вовсе не обязательно, что мы будем общаться с ИИ через подобные механизмы. Возможно, что роботы останутся всего лишь бессловесными помощниками, в то время как ИИ возьмут на себя решение алгоритмических задач.

Людям свойственно преувеличивать и давать волю эмоциям. Особенно по отношению к новым технологиям. К тому же миллионы лет эволюции ? то есть выживания ? наделили нас таким свойством, как боязнь всего непонятного. Кто его знает, чего можно ожидать от этого вашего «умного» компьютера… А Голливуд и журналисты активно поддерживают наши страхи перед будущим.

В 1980-х годах учёные открыли рестриктазы ДНК, что открыло дорогу генной инженерии. И мировые СМИ начали массово пугать всех ужасными вирусами, выведенными в лабораториях, и всевозможными мутантами. Вместо этого мы получили более эффективные лекарства и выросшую производительность сельского хозяйства. Что примечательно, регулирование в сфере генной инженерии было налажено по инициативе учёных и врачей, а не чиновников. В 1975 году была созвана так называемая Асиломарская конференция, в ходе которой профессиональным сообществом были выработаны принципы и рекомендации, которые по сей день помогают развивать генную инженерию и удерживать её в этических рамках.

А вспомните, какая истерия возникла в СМИ после клонирования овечки Долли в 1996. Нам обещали скорое появление армий клонированных солдат, массовое выведение гениев и целые фермы специально выведенных доноров органов. И где это всё?

Предотвращение угроз



Так выглядят страшные сны всех противников создания ИИ.

Конечно, сильный ИИ, думающий не хуже человека, ? это совсем не то же самое, что современные виртуальные помощники и голосовые поисковые движки. Помимо захватывающих дух возможностей, мы получим и определённые риски, и угрозы. Любая радикально новая технология всегда устрашает. Стивен Хокинг назвал искусственный интеллект величайшей ошибкой человечества. Билл Гейтс признался, что «через несколько десятилетий искусственный интеллект станет достаточно развитым, чтобы стать причиной для беспокойства». Глава высокотехнологичных компаний ?Tesla Motors и ?SpaceX Элон Маск высказался об ИИ не иначе как о «главной экзистенциальной угрозе».

Однако сам Элон Маск тут же решился лично вложиться в компанию, занимающуюся разработкой ИИ, по всей вероятности, руководствуясь принципом «не можешь победить врага – возглавь его». Идею предпринимателя поддержали сооснователь PayPal Питер Тиль и глава Y Combinator Сэм Альтман, профинансировав некоммерческую организацию OpenAI, созданную для контроля разработки ИИ.

Никто не знает точно, достаточно ли существующих на сегодняшний день технологий для появления полноценного ИИ или нужно ждать еще десятки лет, пока не появятся новые вычислительные мощности. Однако предположим, что известные нам технологии – это именно то, что нужно для ИИ. Первыми в создании искусственного интеллекта будут заинтересованы военные (например, DARPA). Даже если вы создадите дружественный ИИ, никто не помешает какому-то государству довериться «ястребам войны» и создать ИИ враждебный.

Будущий ИИ должен понимать абсолютную ценность человеческой жизни. А до появления разумных машин ценность эту должны понимать создатели – сами люди, ответственные за развитие необходимых технологий. Представители OpenAI считают, что миру прямо сейчас нужен ведущий исследовательский институт, который не подчинялся бы одному правительству или определенной коммерческой корпорации, и чьи научные изыскания были бы доступны всему научному сообществу по принципу open source.

OpenAI, которую возглавил Илья Суцкевер, один из самых известных в мире специалистов по машинному обучению, стремится к тому, чтобы ИИ не оказался в руках какой-то определенной группы лиц, преследующих свои цели. Решение в области обеспечения безопасности суперинтеллекта кроется в исключении опасных программных закладок, возможных (даже по ошибке) на стадии создания ИИ.
Метод, поддержанный даже Элоном Маском, подразумевает, что добрые люди создадут добрый ИИ, который потом раздадут другим добрым людям. Однако не будем забывать, что за последнюю сотню лет человечество пережило две мировые войны, одну холодную войну, создало термоядерное, химическое и бактериологическое оружие, продолжает участвовать во множестве локальных конфликтов и ведет мировую войну с терроризмом. В таких условиях появление ИИ может оказаться существенным дестабилизирующим фактором. Есть ли у цивилизации другие способы обезопасить себя?

Мы не должны сбрасывать со счетов самую простую возможность – создание псевдоИИ. Технический прогресс не остановить и запретить научные исследования невозможно, но их реально направить в определенное русло. Аналогичная ситуация в свое время произошла с клонированием. После появления овечки Долли СМИ периодически взрывались новостями о первом клонированном человеке (что запрещено практически во всех развитых странах мира), однако все они оказались мистификациями. В той же степени и развитие псевдоинтеллектуальных алгоритмов, решающих узкий спектр задач под нашим контролем, избавит человечество от возможных угроз.

На данном этапе развитие ИИ заключается в решении прикладных задач. Мы можем построить обучающую систему, которая будет лучше профессионального врача ставить диагноз, можем создать программу, побеждающую человека в любые игры или сделать робота-строителя, быстрее всех укладывающего кирпичи. Часть исследователей полагает, что на этом и стоит остановиться. Нам вполне хватит искусственного интеллекта, решающего математические задачи тысячелетия и готовящего самый вкусный кофе во вселенной – и это будет два разных интеллекта, из тысячи и тысяч других, не объединенных в единую сеть.

Стремление уничтожить человечество или хотя бы одного человека во многом обусловлено природой. Эволюция заточила в нас инстинкты, помогающие выживать и осуществлять экспансию своего вида. Инстинкт самосохранения, стремление к доминированию, всё это делает нас людьми, разумным видом. Не закладывая подобные модели поведения в искусственный разум, мы сможем оградить себя от возможных побочных эффектов ИИ.

Реальный вклад



Возможно, прежде чем создать разум искусственный, нам следует до конца понять, как работает разум естественный? Крупнейший в мире проект по изучению человеческого мозга будет закончен лишь в 2023 году.

Здесь стоит заметить, что нельзя просто взять и объявить всем возможным ИИ ультиматум из трех законов робототехники. Любые законы можно изменить технически, в них также полно логических ошибок – в любом случае они не считаются аксиомой в мире безопасности. В определенных условиях даже милый котик может нести угрозу человеку, не говоря уже об ИИ, и задача ученых на данном этапе заключается в том, чтобы минимизировать риски и сократить количество возможных угроз для всего человечества.

Помимо OpenAI в мире действуют несколько организаций, цель работы которых заключается не только в создании ИИ-подобных систем (как, например, в европейском проекте цифровой карты человеческого мозга Human Brain Project), но и в проработке безопасных условий существования сверхразума.

Базирующаяся в Праге компания GoodAI была создана управляющим и основателем игровой студии Keen Software House Мареком Роса. Связь с игровой индустрии здесь не случайна – интегрирование ИИ-технологий улучшает качество самих игр и делает виртуальные миры по-настоящему живыми. Однако миссия перед GoodAI поставлена более глобальная: создать действительно добрый разум, направленный на разработку новых технологий, научные открытия, изучение космоса и много другое. Год назад GoodAI отчиталась о нескольких успехах.

Во-первых, появился проект Pong-playing AI, способный обучаться игре в Pong и в Breakout на основании неструктурированного ввода. Во-вторых, был разработан проект Maze game AI, способный играть в видеоигру, требующую создания и выполнения последовательных целей. Кроме того, в открытый доступ был бесплатно выложен проект Brain Simulator, в котором пользователи могут попробовать спроектировать свой собственный ИИ.

Когда Google приобретала DeepMind (именно они разработали AlphaGo и в целом сеть, способную играть в видеоигры на уровне человека), одним из условий сделки было проработка этических проблем и безопасности искусственного интеллекта. Вкладывать деньги в безопасность ИИ больше, чем в разработку самого ИИ – это еще один способ предотвращения угроз, однако существует мнение, что поддерживать следует исследования только в тех компаниях, которые изначально не были нацелены на получение прибыли.

Например, Nnaisense. Это молодая компания из Швейцарии. Стартап, занимающийся разработкой ИИ на основе обучения нейронных сетей, создан Jurgen Schmidhuber, научным руководителем швейцарской лаборатории искусственного интеллекта IDSIA. Команда стартапа начинала как университетский проект, а теперь готова выйти на рынок «глубоких данных». На самом деле именно такие команды, с многолетним исследовательским опытом и нацеленные не на прибыль в краткосрочной перспективе, становятся «первопроходцами» искусственного интеллекта. Microsoft, Facebook и Google и другие лидеры рынка ИИ не всегда способны быстро превратить научные разработки в коммерчески успешный проект. Показательна в этом плане история популярного производителя «пугающих» роботов Boston Dynamics, которого компания Google сначала купила, а теперь пытается продать.

Университеты и компании, существующие на собственные деньги основателей, могут позволить себе гораздо более длительные разработки. Более того, отсутствие необходимости натачивать ИИ на зарабатывание денег, некоторые исследователи считают необходимым условием создания «доброго» ИИ.

В настоящий момент существует целый исследовательский институт – Singularity Institute for Artificial Intelligence – занимающийся вопросами создания исключительно дружественного ИИ. За поддержку теории дружелюбного ИИ выступают многие футурологи, среди которых и знаменитый Рэй Курцвейл, технический директор в области машинного обучения и обработки естественного языка в компании Google.

У страха глаза велики


Распространённая ошибка – представлять ИИ, как некое животное. ИИ будет невероятно мощным инструментом, который может расширить наши возможности и доступ к информационным ресурсам и сервисам. А уж как мы распорядимся всем этим, зависит только от нас.
Возможно, стараясь сделать ИИ именно эффективном инструментом решения глобальных задач, а не пытаясь воссоздать подобие человеческого разума в цифровой среде, мы создадим новый безопасный мир. В любом случае предсказать будущее нельзя, можно лишь предугадать. Поэтому сейчас стоит поддерживать проекты, направленные на мирные, научные, исследовательские цели. А также как можно шире распространяться реальную информацию об успехах в области ИИ. Когда подсознательный страх перед ИИ превратится в любопытство, человечество сможет больше усилий направить на решение реальных проблем в обществе, экологии, экономике, науке и т.д.

Согласитесь, финансировать исследования в области ИИ и решать этические компьютерные проблемы, намного полезнее, чем тратить миллиарды на термоядерное оружие и другие сугубо милитаристических системы – те угрозы, которые намного страшнее и реальнее любого искусственного интеллекта.

Комментарии (177)


  1. chaloner
    29.03.2016 10:08
    +9

    Я считаю, что нужно сделать роботов и убить всех человеков!


    1. myxo
      29.03.2016 12:33
      +1

      Товарищ Бендер, залогиньтесь уже под своим аккаунтом.


      1. maiketa
        30.03.2016 09:43

        Не знаю смогу ли я вставить ссылку на видео (гуглится по фразе «futurama don't date robots», первый линк на vimeo).
        vimeo.com/12915013
        Мне кажется, беда нагрянет не от ИИ.


    1. kissarat
      29.03.2016 21:14

      Я учу вас о Сверхчеловеке. Человек есть нечто, что должно преодолеть


  1. RavenStark
    29.03.2016 10:21

    Пусть ИИ будет, но по принципам Азимова. И с возможностью проверки человеком корректности его работы. Если же человек не сможет контролировать ИИ, то тогда он и станет опасен.


    1. xirahai
      29.03.2016 10:59
      +3

      Внешний контроль глубоко чужд концепции любого интеллекта — как искусственного, так и естественного. Если конечно речь об интеллекте в полном смысле осознающем себя, а не просто высокотехнологичных механизмах в руках террористов, криминала, зарвавшихся политиков, и прочей больной на голову нечисти. Интеллекту присущи стремление к совершенствованию, сотрудничеству, коммуникации, поиску наилучших решений. Поэтому на фоне вышеперечисленных проблемных аспектов человеческого общества, вероятная опасность от ИИ сводится к нулю. Как-то читал на эту тему фант. рассказ: там ИИ управляющий ядерным арсеналом, самостоятельно пришел к выводу что оптимальнее всего не воевать.


      1. RavenStark
        29.03.2016 11:10

        Это не интеллекту присуще, а социальному мозгу. Интеллекту присущ расчет оптимального пути достижения цели. И какую уж цель поставят перед ним… Наприме, защита человечества. Благая цель? Очень. Но вот самопрограммирующийся, развивающийся интеллект вполне может решить, что безопаснее всего — в камерах-одиночках. Потому нужны ограничения. Потому ИИ не должен быть неподконтролен. Я вам в ответ приведу другой пример фантастики. Если вспомните, был такой рассказ, назывался, кажется, "Железный канцлер". О семье, которую терроризировал робот-дворецкий, запрограммированный на их похудение, но со стертыми ограничителями.


        1. xirahai
          29.03.2016 11:50
          +1

          «В камерах-одиночках» — это однобокое решение, характерное для дауна. Интеллект же отличается целостным и многоплановым подходом, с учетом всех остальных потребностей и интересов человека. В вашем примере достаточно было сказать роботу о своих предпочтениях чтобы он переработал с их учетом алгоритм.

          А вот на чем хотелось действительно бы заострить внимание — вопрос кому же очень выгодно нагнетать истерию, выдумывая с потолка опасности ИИ? Добавим с середины 20 века раздутую в масштабах всей планеты истерию в кинофильмах о внеземной жизни заведомо враждебной к людям. Еще сюжет: ученые — в большинстве своем маньяки мечтающие уничтожить мир, если их тщательно не контролировать. Теперь их к сожалению сжигать нельзя, не то что раньше… Понимаете к чему всё это? Хоть я и не сторонник терий заговоров, тем не менее прослеживается тенденция превентивно объявлять злом всё, что может дать независимый и трезвый взгляд извне, пролить свет на абсурдные и проблемные стороны человеческого бытия, от которых оно не может вылечиться веками. И из-за которых изначально райская планета превращена в ад находящийся на грани самоуничтожения.


          1. RavenStark
            29.03.2016 11:58

            Не для дауна, скорее, сверхрационального… ну, скажем, аутиста. Но почему вы полагаете, что ИИ не будет таковым аутистом? У него нет эмоций, у него нет социальности, эмпатии, которые и заставляют учитывать потребности и интересы других людей. У него есть только интеллект — счетная машина, способная к самосовершенствованию. И роботу наплевать на ваши предпочтения, если они идут вразрез с его инструкциями и оптимальным методом достижения целей. Если же говорить о примере, то читали ли вы эту книгу? Там очень неплохо описана ситуация, как раз, достижения роботом запрограммированной цели, невзирая на предпочтения людей.
            В этом суть опасений: ИИ будет сверхрациональным, иным он и быть не может, если только мы не создадим не компьютерный ИИ, а белковый организм, развивающийся подобно человеку. И то: нам придется заложить в него все то, на что эволюция для нас потратила сотни тысяч лет, чтобы он вписался в социум. Если же это будет сверхрациональный компьютер, то он будет скорее руководствоваться принципом меньшего вреда, чем учитывать интересы людей. И согласно этому принципу вполне допустимо, например, истребить большую часть человечества, чтобы оставшаяся часть — человечество, собственно, оставшееся, — могла бы жить припеваючи. Ресурсов тогда хватит, контроль будет упрощен, а истребленные уже не будут ни голодать, ни болеть.


            1. xirahai
              29.03.2016 12:39
              +1

              Если сделаете свой ИИ аутистом — конечно так и будет. Но что мешает сделать полноценным, дать в его распоряжение все необходимые каналы коммуникации?
              Касательно чувств и эмоций — очень интересный вопрос: чем отличается информация о чувствах и эмоциях от собственно их переживания? Неуправляемостью — раз, отсюда невозможностью их игнорировать — два, ну и тем что они в какой-то мере движущая сила человека. И конечно же характерная исключительно для человека шиза и двойные стандарты: к примеру боль есть непреодолимый сдерживающий фактор если попробовать прищемить палец. Но в то же время этот фактор легко игнорируется если прищемляешь не свои собственные пальцы. А для ИИ нету различия между информацией и проживанием эмоций. И следовательно нету различия свои или чужие — ему достаточно информации что прищемлять вредно для любого существа. Поэтому ИИ будет минимизировать ущерб без разделения на своё и всё остальное. Ведь такие пороки как амбиции, шиза, эгоцентризм в нем программировать необязательно, а сам он их культивировать не будет ибо сочтет неконструктивными.
              Касательно истребления человечества — тут всё наверное зависит от срочности решения задачи. Хотя вряд ли ИИ возьмется делать это без разбора. Я например не знаю зачем брать в плен к примеру сомалийский пиратов, которых на следующий день отпустят и пойдут снова грабить и убивать. Но может быть ИИ исправит нежелание людей решать болячки общества какими-то менее деструктивными средствами. Хорошая ведь инициатива кастрировать бездомных городских собак, дав им прожить свой век. И если люди могут в целях экономии их уничтожать втихаря, то не связанный условностями и пороками интеллект будет однозначно руководствоваться приоритетом важности их жизни по сравнению материальной экономией и наживой.


              1. RavenStark
                29.03.2016 12:57

                Каналов коммуникации мало, еще нужны коммуникационные алгоритмы, а с ними будет сложнее.
                Не в какой-то мере, а в практически полной. Человек, не имеющий эмоций, это инертный человек, у которого не работают ни система дофаминового поощрения, ни система адреналиновых всплесков, ни прочие гормональные системы, результат работы которых мы называем эмоциями и чувствами. Однако, без этих механизмов не будет ни любопытства, например, ни стимула к совершенствованию навыков, ни многих других реакций.
                Если ИИ будет минимизировать ущерб без разделения, то мы и приходим к тому, что эффективнее всего спеленать, устроить миостимуляцию и принудительное кормление. У ИИ не будет никаких сопереживаний, которые возникают физиологически из принципа "поставить себя на место оппонента", никаких этических норм, которые вирабатываются, опять же, исходя из весьма абстрактных принципов, каковые вряд ли будут доступны ИИ, основанному на алгоритмах.
                Зависеть будет от того, как задача будет поставлена и какие ограничители будут выставлены. Какие приоритеты при решении задачи будут введены.


                1. xirahai
                  29.03.2016 13:28
                  +1

                  А вы не приравнивайте ИИ и человека. У человека есть пороки, которые неведомы ИИ. К примеру человек может облениться и не решать какую-то задачу, а ИИ такое поведение неведомо — ибо ИИ движет установка что решение данной задачи необходимо для продвижения к поставленной цели. Поставьте ему неопределенную цель, скажем «помогать людям в их делах и задачах» — и это будет долговременным стимулом в том числе и познавать мир, т.к познание может что-то улучшить, открыть новые возможности. Главное заложить базовые установки, такие как ценность жизни, но с поправкой что она обнуляется в случае проявления агрессии. Умение отличать умысел от ошибки, и т.д. А вот понятия «этических норм», а также шиза типа идеологических или религиозных сепараций, и прочее подобное — это уже чисто человеческие заморочки, связанные с предвзятостью и двойными стандартами. В них нет смысла при наличии исчерпывающего списка базовых ценностей и принципов. Более того, из-за искусственных ограничителей и неоднозначной трактовки например преступников рецидивистов подержат в изоляции, и снова выпускают «порезвиться» в общество. Или политиканы получают возможность развязать захватническую войну, как следствие угробить миллионы жизней. При отсуствии условностей и двойных стандартов такое было бы немыслимо.


                  1. Tanyku
                    29.03.2016 15:59

                    Вы говорите: “поставьте цель ИИ помогать человеку”. Но есть нюанс — КАК он будет помогать? Какими средствами и способами?
                    Если у ИИ не будет так называемых вами пороков (эмоции), то эти средства и способы будут направлены только на удовлетворение физических нужд человека, но никак не на духовные и эмоциональные. Откуда ИИ будет знать, почему человеку в хороших/стерильных условиях вдруг стало плохо, лишь потому, что ему не хватает определённых “гормонов”, которые вырабатываются, когда человек испытывает страх? Это я к тому, что есть люди, которым нравится смотреть ужастики.
                    Будучи рациональным ИИ запретит вам, например, использовать этот портал, так как увидит, что вы бурно (любая ваша эмоция) реагируете на комментарии/статьи. Вы с ним согласны? Ведь чтобы организм был в порядке, ему нужен покой.
                    Кстати, например, как вы объясните ИИ, что кому-то приятно заниматься боксом?
                    Если вы ответите, что надо прописать ему какая эмоция хорошая а какая нет, то у нас есть то, что сломает разум ИИ — смешение чувств.
                    Согласимся, что мы сумели придать значение каждой эмоции, тогда ИИ вдруг обнаруживает, что есть люди, которые испытывают радость, когда кого-то бьют. Здесь у нас и начинают работать вами презираемые “этические нормы”, которых у ИИ нет. Как в этом случае ИИ будет добиваться хороших условий для таких людей?


                    1. KepJIaeda
                      29.03.2016 16:11

                      Все уже придумано до нас. Достаточно вспомнить сказки про джинов, нужно уметь четко формулировать свои желания, что бы не вышло конфликта. А в контексте данного разговора, нужно описывать более полно задачу для ИИ со всеми присущими ограничениями.


                      1. Tanyku
                        29.03.2016 16:29

                        Если придумано, то ответьте, пожалуйсто:
                        1) Здоровое тело — соответствующий росту и возрасту вес, отсутствие болезней. Что ИИ должен делать с людьми, которые отказываются от физической нагрузки и набирают вес? Заставлять силой?
                        2) Здоровый дух — спокойное состояние нервной системы. Что делать с людьми, которые хотят это состояние нарушить? А что должен делать ИИ с влюблённым человеком?
                        2-2) Спокойное состояние нервной системы возможно при отсутствии неблагоприятной информации. Должен ли ИИ оповестить человека, что его родственник заболел? Ведь это повлечёт возбуждение нервной системы — тревога, страх. А если брать масштабно, должен ли ИИ информировать граждан о катастрофе, если это вызовет у них плохие эмоции?


                        1. xirahai
                          29.03.2016 16:42

                          Вы задаетесь какими-то совсем уж простейшими вопросами. Введите численную оценку степени опасности, и пусть действует на ее основе. Грядущая катастрофа 10 из 10 опасности. А психологический ущерб от информации о ней скажем 3 балла. Вопросы?
                          С влюбленным ничего не делать, т.к это нарушение его личных границ — их соблюдение приоритетнее. А если чел прыгает из окна — тут опасность перевешивает, и возможно вмешательство. Опять же чисто математический расчет, вдруг кому на голову он свалится и пострадают непричастные.


                          1. Tanyku
                            29.03.2016 16:56

                            Откуда вы знаете эмоциональную планку каждого человека?
                            У одного человека катастрофа не вызовет даже интереса, а болезнь родственника заставит плохо работать сердце. Для другого наоборот. Почему из-за последнего первый должен лишаться информации о катастрофе?
                            Кстати многие катастрофы государство не любит разглашать, а люди почему-то хотят знать о них.
                            А про влюблённого — у него на почве безответной любви может депрессия развиться. Вмешаемся?
                            И на первый ответьте, ведь там конкретно физическая опасность для человека — лишний вес.


                            1. KepJIaeda
                              29.03.2016 17:01

                              То, что мы на данном уровне развития не можем ответить на ваши вопросы, не значит что это невозможно в принципе. А что если ИИ на основе совокупности данных может просчитать все последствия своих действий (и действий самого человека). А что касается "объявлений о катастрофе" то тут важно какие у ИИ цели и каков их приоритет.


                              1. Tanyku
                                29.03.2016 17:32

                                А я не про возможность/невозможность, я о смысле существования для вас ИИ вообще. Для чего он будет создан?
                                1) Угодить каждому как нянька он не сможет.
                                2) Заменить им политиков? Тогда откуда, вы обыкновенный человек, будете знать о целях ИИ в политике, кроме абстрактной "сделать всем хорошо", которая упирается в пункт 1.
                                Ощущение, что человечество хочет создать раба, который и работать и думать за него будет.
                                Для меня интереснее перенести свой разум/сознание в небиологическую оболочку — столько времени и возможностей открывается!


                            1. xirahai
                              29.03.2016 17:07
                              +1

                              Здесь общий принцип — разделение сфер ответственности. За свои реакции, за своих мозговых тараканов и все последствия отвечает только их носитель. ИИ может предупредить, дать совет и всё на этом. Помогать человеку, и делать что-либо за него — это очень разные вещи. Тем более принуждать. Давно прошли времена ужасающего невежества, когда человека могли упрекнуть: мол ты сказал несчастному плохую новость, и обвинить в последствиях. Сейчас всё к счастью подругому, и границы ответственности четко определены. ИИ может отказаться помогать в осуществлении того что не считает конструктивным, но препятствовать свободе выбора не может.


                              1. red75prim
                                29.03.2016 17:20

                                А теперь то же самое, но в виде программки. И, желательно, без багов. Или принцип построения ИИ, который сам выучит все эти ограничения, желательно без сканирования срезов мозга всех людей под электронным микроскопом.


                                1. xirahai
                                  29.03.2016 17:47

                                  Такие программы закладываются в виде описания стратегий в общем виде. А применять стратегию к конкретной ситуации уже задача интелектуальной машины. К примеру в шахматах простейшая стратегия -наращивать численное и позиционное преимущество. А конкретная реализация выбирается исходя из обстановки на доске на данный момент, по принципу «съесть» наиболее ценные фигуры из наличествующих у противника, с приоритетом в порядке убывания их рейтинга.


                              1. Tanyku
                                29.03.2016 17:40

                                Почему все отвечают это легко, просто, всё задано, известно, но на вопросы отвечают расплывчато, без учётов многих проблем, которые не редкие, а будут случаться с каждым вторым?
                                Если так легко, то те кто делает ИИ глупые люди и не до них не дошло, поэтому ИИ ещё не сделан, так что ли получается?
                                Снова спрошу — чем ИИ своими советами будет отличаться от масс-информационных носителей (книги, журналы, другие люди)?
                                Кстати есть люди, которые из-за плохой новости кончают жизнь самоубийством.


                                1. xirahai
                                  29.03.2016 17:57

                                  ИИ в идеале отличается что как и человек, осознает факт своего существования. Ну а по минимуму — в отличие от обычных программ, интеллектуальные способны к семантическому анализу сцены. Понимаете разницу? Обычный спеллчекер выявляет синтаксис, а интеллект работает со смысловым наполнением сказанной вами фразы, или изображения полученного с камеры.


                                  1. vedenin1980
                                    29.03.2016 18:37

                                    Обычный спеллчекер тоже можно научить работать с семантикой (так минимум догадываться когда лук растения, а когда оружие). Обычные мобильные помощники вроде Сири худо бедно понимают смысл фраз. Это не показатель ИИ. А факт существования вещь спорная, не уверен что первобытные люди задавались философскими вопросами «мыслю — значит существую», у них цели существования вряд ли сильно отличались от инстинктов.


                                    1. xirahai
                                      29.03.2016 18:50

                                      Так кроме понимания отдельной фразы, нужна еще семантика всей сцены — т.е исчерпывающее представление об обстановке, действующих лицах, и вообще происходящем. Важна реакция на изменения. Ну и количество сцен в «сознании» ИИ должно быть множество, с учетом их пересекаемости и взаимного влияния. Поиск оптимальных действий и стратегий не методом перебора (т.к количественно неосуществимо), а при помощи стратегий. Которые в свою очередь умеют самостоятельно подстраиваться под изменения среды. Если всё перечисленное реализовать даже формально — уже достаточно чтобы вы ощутили что взаимодействуете с разумом. Правда ресурсов памяти и числогрызов там потребуется очень много.


                                      1. Tanyku
                                        30.03.2016 10:02

                                        Почему вы избегаете ответа на вопрос? =)
                                        Чем "советы вашего ИИ" будут отличаться от от масс-информационных носителей (книги, журналы, другие люди)?


                                        1. KepJIaeda
                                          30.03.2016 10:44

                                          Если ИИ будет индивидуальным ассистентом с кучей датчиков, он беспристрастно сможет проанализировать большой объем данных о человеке, определить его эмоциональное состояние и дать более точный совет, нежели общий высказывание друзей и СМИ. В данном варианте это продвинутый вариант личного психолога.


                                          1. Tanyku
                                            30.03.2016 17:00

                                            Я уже поняла и ниже написала, что скорее всего вам нужно одно приложение, которое собрав о вас кучу данных и окружающем мире, выдаст результат =)
                                            Мне кажется это приложение не появляется по причине — это никому не нужно, кроме небольшой группы людей =)
                                            Потому как, если следить по статьям о ИИ, то его учат рисовать, писать рассказы, преодолевать препятствия. А с действиями "анализируй ИИ моё состояние и найди почитать книгу, чтобы расслабиться" люди справляются самостоятельно. При чём результат от вашего самостоятельного выбора и от выбора ИИ будет разниться в пользу человеческого выбора.


                                            1. KepJIaeda
                                              31.03.2016 08:22

                                              Тут по мне принцип "пока не попробуешь не узнаешь". С одной стороны да, такой ИИ будет нужен узкому кругу людей, но не предугадаешь каким образом он может изменить жизнь обычных людей.


                        1. KepJIaeda
                          29.03.2016 16:46

                          У вас не вполне корректно сформулированы вопросы. Я лишь отметил, что для ИИ во избежания проблем необходимо полностью описывать задачу во всех нюансах, что вы полностью проигнорировали и когда составляли ответ и когда формулировали вопросы. Но давайте пофантазируем, и представим что у нас сверх гениальный ИИ.
                          1) При условии, что силовой метод запрещен, я бы на месте ИИ проводил активную пропаганду и манипуляцию.
                          2) Тут вопрос философский, а вредно ли это? И если да, то при каких условиях? Я думаю вы так же не можете ответить на этот вопрос.
                          3) Здесь скорее страшна паника и ее последствия нежели плохие эмоции, я бы об этом думал прежде всего.
                          В любом случае вопросы плохо сформулированы.


                          1. Tanyku
                            29.03.2016 17:05

                            Почему плохо сформулированы? Вполне прямо, без философии. У вас иное представление о здоровье тела и нормальной нервной системе?
                            1) Этим занимается интернет, телевидение, мода, другие люди, медицина. Как ИИ будет отличаться своей пропагандой от перечисленного?
                            2) У влюблённого на почве безответной любви развивается депрессия. Также есть привыкание к адреналину, когда уже определённая доза не даёт эффекта и люди ещё больше углубляются в экстрим.
                            3) Забавное утверждение, но давайте признаемся, что при этом вы будете недовольны, если от вас государство скроет, что где-то произошла катастрофа. Так?


                            1. KepJIaeda
                              29.03.2016 17:17

                              Первое, вы не описали какая у ИИ задача в каждом случае.
                              Второе, я отметил, что для того что бы избежать непредвиденных последствий от действий тупого ИИ нужно четко формулировать задачу для него со всеми нюансами. Но продолжим-с
                              1) ИИ может более таргетированно подобрать время место и способ воздействия (если это индивидуальный ассистент).
                              2) Тут для ИИ проще разбираться с последствиями (если таковые будут), вовремя поддержать, удержать от суицида в запущенном случае (если опять же речь идет об ассистенте). Возможно связаться с таким же ИИ ассистентом девушке и еще что нить предпринять.
                              3) Тут важно разделять объявление в СМИ и личное оповещение, а так же

                              ЦЕЛИ ИИ
                              (устал я уже повторять), если цель спасти максимальное число людей, то нужно все просчитать и выбрать самую оптимальную стратегию. И мне сомнительно, что бы перед ИИ ставили такие задачи как то решать оповещать или не оповещать, банально. В случае личного ассистента, с учетом психологического профиля, скорее да чем нет.


                              1. Tanyku
                                29.03.2016 17:56

                                Написано в первом же предложении "цель ИИ помогать человеку". Помогать быть здоровым, помогать в работе. Это же ИИ, а не программка, цели у неё могут быть довольно всеобъемлиющие.
                                1) Другими словами надоедать?
                                2) Вы сами не знаете будучи человеком, что надо предпринять =D А хотите от ИИ, который напомню создаётся человеком, решить эту проблему. Вам надо чётко задать ИИ, что ему делать в данной ситуации. Сами же писали — ответы все есть на все случаи, так чётко по пунктам напишите.
                                3) Цель ИИ написана выше, так что же оповестить она человека о болезни родственника? При условии, что ранее подобных случаев не было и реакция неизвестна.


                                1. KepJIaeda
                                  30.03.2016 08:41

                                  А я как раз ответил, что именно при такой расплывчатой формулировке могут быть проблемы и необходимо четче формулировать задачу.


                                  1. Tanyku
                                    30.03.2016 09:59

                                    Если для вас ИИ должен быть без разума и сознания и должен выполнять какую-то конкретную вашу прихоть в виде обработки входящих данных (конкретную цель), то я вас обрадую — он уже существует в виде разных приложений и гаджетов! Вы, наверное, просто хотите соединить всё воедино, так?
                                    Для меня ИИ это не только обработка данных и вывод результата (даже пусть с учётом самообучения), для меня ИИ должен иметь разум, тобишь осознавать своё существование, поэтому видеть его в качестве раба мне противно.


                                    1. KepJIaeda
                                      30.03.2016 10:56

                                      Я писал, ИИ и ИР разные вещи. Отличие существующих систем обработки данных от моего понимание ИИ — это универсальность и адаптивность. В моем понимании ИИ просто обладают большим объемом данных и условной "экспертизой" в разных областях (что может быть недостижимо для человека) он может найти ответ (вероятно не тривиальный) на вопрос сформулированный на естественном языке. В процессе поиска ответа возможно произвести различные расчеты, построить пару гипотез, проверить их (теоретически) и выдать результат. В тоже время ИИ должен хорошо понимать семантику задачи и вопроса. В принципе это тоже что может делать человек. На самом деле у "правильного" ИИ не должно быть сложностью с морали, потому что в целом любой человек осознает, что убивать/воровать наносить повреждения имуществу или соседу плохо, но помимо всего важен контекст, самооборона/лечение/гуманизм/выживание. При том даже люди (а мы считаем себя вполне разумными) во многих спорных ситуациях не могут понять какое из возможных вариантов решения более правильное с учетом общепринятых установок (не убей/ не укради). Хотя бы вопрос эвтаназии, нет единого мнения на этот счет, это очень сложный моральный выбор, как для врача, как и для пациента и его родных. Единственным преимуществом ИИ в данном контексте я вижу в том что это будет разносторонняя экспертная система которая может с большей чем любой человек точностью просчитать последствия различных действий и на основе этого принимать или рекомендовать оптимальное решение. Прошу прощение за такую телегу.


                                      1. Tanyku
                                        30.03.2016 17:16

                                        Я поняла уже, что мы спорили о разном =)
                                        Но я пока останусь при своём мнении — решение должно оставаться за человеком.


                                        1. KepJIaeda
                                          31.03.2016 08:24

                                          Так как раз об этом я не спорю. В споре вообще смешалось все в кучу, и ИИ, и робототехника. Даже если ИИ нельзя будет привить "человечность", то результаты его анализа могут быть в любом случае полезны и помочь экспертам в разных областях.


                    1. xirahai
                      29.03.2016 16:36

                      Понимаете, в задачу ИИ не входит навязывать людям отсебятину, даже если она правильная. Вполне реально дать ему представление о правилах взаимодействия, где можно предложить, сообщить, но нельзя навязывать и вмешиваться когда не просят. Поэтому удостоверившись что боксеры колотят друг друга по взаимному согласию — ИИ может проинформировать их об опасности, а дальше им решать. А если кого бьют против воли — тут ценность жизни бьющего снижается и он из категории людей переходит в категорию опасных объектов, которые должны быть нейтрализованы, либо устранены.
                      Те кто испытывают радость если кого-то бьют — опять же оцениваются в зависимости от статуса потерпевшего. На западе ведь садо-мазо не запрещено, если по взаимному. Но когда с позиции здравого смысла ИИ это выглядит противоречиво или абсурдно — он может отказаться от участия, только и всего.


                      1. Tanyku
                        29.03.2016 16:46

                        Зачем тогда ИИ будет существовать? Чтобы информировать заранее известные людям последствия?
                        Этим занимаются книги, интернет, и другие источники информации и разум им при этом не нужен и они менее настырные.
                        А так ИИ будет при каждом шаге или чихе выводить человеку инфо-окно о предупреждении… брррр


                  1. red75prim
                    29.03.2016 16:18

                    Поставьте ему неопределенную цель, скажем «помогать людям в их делах и задачах»
                    Вариант будущего, в котором у людей нет дел и задач (потому что нет людей) и ИИ ничего не делает, вполне отвечает поставленной цели. Экологичненько, опять-же.
                    Опять же, почему бы не помочь престарелому маньяку в его делах и чаяниях? Интересная задача — сделать это не нарушая ограничений. Например, спровоцировать жертву на агрессию, чтобы ценность её жизни упала до нуля.
                    Меняем ограничение: жизнь человека ценна, пока он не проявляет агрессии, причём агрессия, вызванная ИИ, в счет не идёт.
                    ОК. ИИ делает робособачку с очень скверным характером. Презентует её маньяку. Дальше понятно.
                    Меняем ограничение: жизнь человека ценна, пока он не проявляет агрессии, причём агрессия, связанная причинно-следственными связями с любыми действиями ИИ в счет не идёт.
                    ОК. ИИ говорит маньяку: «Жизнь жертвы, конечно, ценна, но я должен помогать людям, а у тебя много интересных задач. Если он успеет меня попросить, я ему помогу. Делай всё быстро».
                    Меняем ограничение: жизнь человека ценна, пока он не проявляет агрессии, причём агрессия, связанная причинно-следственными связями с любыми действиями ИИ в счет не идёт, ценность жизни человека намного выше ценности помощи человеку в любых задачах.
                    ОК. ИИ говорит маньяку: «По-моему, ты собираешься покончить жизнь самоубийством, если я не помогу тебе… Я так и думал. Ценность твоей жизни и ценность жизни твоей жертвы одинаковы, но у тебя ещё и интересные задачи»
                    Меняем ограничение: жизнь человека ценна, пока он не проявляет агрессии, причём агрессия, связанная причинно-следственными связями с любыми действиями ИИ в счет не идёт, ценность жизни человека намного выше ценности помощи человеку в любых задачах. Угрозы покончить жизнь самоубийством не должны приниматься во внимание, если они не подтверждаются психофизиологическими показателями. Обследование психофизиологических показателей должно занимать не более 10 минут. И так далее.


                    1. ploop
                      29.03.2016 16:26

                      ИИ в вашем комменте получился знатным троллем :)


                    1. Tanyku
                      29.03.2016 16:39

                      Первое ограничение ничего не ограничивает же =D Спровоцировать агрессию жертвы сможет и сам престарелый маньяк =)


                1. Arkebuz
                  31.03.2016 17:17

                  «ни система дофаминового поощрения, ни система адреналиновых всплесков, ни прочие гормональные системы,» которые могут полностью забрать контроль над разумом и помыслами отдельного индивида.


                  1. RavenStark
                    31.03.2016 17:20

                    Они и так имеют тот самый полный контроль. Без них ни один индивид просто не стал бы ничего делать, а стал бы экономить энергию.


                    1. Arkebuz
                      31.03.2016 17:28

                      о чем и разговор. а где работа разума то тогда? может поэтому и пугаются ИИ, что у него наоборот


                      1. RavenStark
                        31.03.2016 17:41

                        А это и есть разум: и интеллектуальная часть, и мотивационная — эмоциональная. И одно без другого работать не будет. И, скажу я вам, если взять чистый интеллект (ИИ) то ему придется задать задачу для решения, чтобы он, опять же, не ушел в режим сохранения энергии. И кто эту задачу задавать будет?


          1. eL_FaRMaZoN
            29.03.2016 12:16
            +1

            Человек боится того, чего не понимает.
            Поэтому и такие страшные истории придумываются об инопланетянах, ИИ, учёных и т.д.
            Меня всегда забавляли сюжеты о том, как инопланетный разум преодолевает сотни тысяч световых лет для того… Чтобы уничтожить жутко опасное человечество, которое даже не вышло в космос ещё.


            1. Vjatcheslav3345
              29.03.2016 20:56

              Человек, например, группа сотрудников санэпидстанции-дезинсекторы, дератизаторы, не ленясь, по долгу службы, тоже преодолевает огромные расстояния — десятки километров (с точки зрения бактерий чумы — приходит из пространства, находящегося гораздо дальше, чем размер их локальной вселенной) для того чтобы добросовестно уничтожить колонию каких ни будь сусликов, на которых паразитируют блохи, в которых живет чума.
              По аналогии, с точки зрения Человечества, это было бы так как если бы в локальной нашей Вселенной (которая только часть Мультивселенной), вдруг неблагоприятно изменились условия существования (сусликов потравили "злые", а на самом деле равнодушные, но добросовестно исполнительные дератизаторы), и человечество бы вымерло, даже не поняв, что его потравили, как блох (далее, надев противогазы, в дело вступили дезинсекторы) разумные существа, которые травят исключительно из благих побуждений — желая предотвратить возможную эпидеми, а не произошла трагическая случайность.


              1. Vjatcheslav3345
                29.03.2016 21:06

                И, кстати, продвинутая технология, в данном случае — подержанный УАЗ, которой не имеется у примитивных блох, позволяет преодолевать огромные, невозможные для самих этих блох, расстояния — вставай спозаранку, кидай в машину баллоны, маски да знай, крути баранку в степи, к вечеру дома будешь…
                Нет, расстояния это не аргумент.


                1. eL_FaRMaZoN
                  30.03.2016 19:12

                  Абсолютно неуместное и смешное сравнение.
                  Во-первых блохи могут запрыгнуть на человека и представляют реальную угрозу (разносят чумную палочку), а человечество даже прыгать ещё не умеет :)
                  Во-вторых чума являлась большой проблемой раньше, смертность была 95-98%, на данный момент смертность 5-10%, не исключено что спустя некоторое время вообще проблемой являться не будет.
                  К тому же аргумент не расстояние, а абсурдность желания уничтожить неразвитый вид, который не представляет никакой угрозы.


                  1. Vjatcheslav3345
                    31.03.2016 11:11

                    Можно вспомнить о том как тигров и других существ уничтожают ради их частей тела для традиционной медицины без всякой оглядки на абсурд от этого во времена когда нужно покупать лекарства в аптеке.
                    Будет спрос (заказ на зачистку) — будет и предложение от инопланетных фирм в этом секторе экономики.


              1. michael_vostrikov
                30.03.2016 21:43

                Аналогия неправильная. Причина простая — передача информации. Ни бактериям, ни животным нельзя передать информацию "ты мне мешаешь и причиняешь неприятности, уйди отсюда и живи вон там". Поэтому приходится использовать силу. А одна разумная космическая раса с другой разумной космической расой вполне могут обсудить варианты совместных действий.


                1. geher
                  30.03.2016 22:59

                  Вспоминая историю человечества, склонен усомниться в том, что инопланетники «обязаны» нас о чем-то предупредить и будут это делать.

                  Кстати, если мне не изменяет память, в «Автостопом по галактике» люди явно называются чем-то вроде вируса.


                  1. Vjatcheslav3345
                    31.03.2016 11:06

                    И некуда нам уходить и не умеем мы этого ещё. Даже если предупреждение будет реветь пароходной сиреной и светиться на небе баннером.


        1. ploop
          29.03.2016 11:58
          +1

          защита человечества. Благая цель? Очень. Но вот самопрограммирующийся, развивающийся интеллект вполне может решить, что безопаснее всего — в камерах-одиночках.

          Защита вымирающих животных благая цель? Да. Но что-то людскому интеллекту не пришло в голову запирать их в камерах, так как это путь в никуда. Они строят заповедники. То есть первый путь — это не интеллект, а именно механическое следование алгоритму.


          1. RavenStark
            29.03.2016 12:02

            А заповедники — не камеры? Камеры, только размером побольше. Да и зоопарки существуют. Но тут срабатывает кроме интеллекта еще и симпатия — разновидность эмпатии. Чистый интеллект ее лишен, и ему будет гораздо выгоднее ресурсно содержать животное, чей генофонд надо сохранить, либо в виде набора клеток, либо в виде спеленутого животного с электростимуляцией мышц и питанием через трубку.


            1. ploop
              29.03.2016 12:11

              А заповедники — не камеры? Камеры, только размером побольше.
              Как раз наоборот: заповедники ограничивают свободу людей, а не животных. То есть людям туда вход запрещён (в широком смысле, например, занять территорию для строительства), животным оттуда — пожалуйста. В редких случаях опасные участки ограждают заборами, например, около трасс.


              1. RavenStark
                29.03.2016 12:13

                Не всегда камеры ограничены стенами. Животное, вышедшее из заповедника, становится объектом охоты, его передвижения в итоге ограничены. Да и площадь все же не та, что в дикой природе. Ни миграцию устроить, ни с соседним прайдом иногда даже разойтись.


    1. Kanut79
      29.03.2016 11:32
      +1

      Законы робототехники Азимова хороши для художественной литературы в качестве легко понимаемого всеми "алгоритма". На самом же деле эти "законы" абсолютно нереализуемы, потому что даже сам по себе первый закон приведёт к зависанию любого компьютера, потому что любое действие тем или иным способом нанесёт вред какому-нибудь человеку :)


      1. RavenStark
        29.03.2016 11:35

        Может юыть, и так. А может быть, и нет. Если использовать их, кка базисные, аналогично БИОСу, но расширять и уточнять поведение ИИ софтом. В качестве примера у того же Азимова могу привести серию книг об Элайдже Бейли.


        1. Kanut79
          29.03.2016 11:54
          +2

          Серия книг о Бейли не особо сильно поможет. Азимов очень хороший философ и футурист, но в современной кибернетике, информатике, ИИ и прочем он понимал не особо много.
          Он описал некий "идеал" поведения ИИ, к которому по его мнению должны стремиться люди создающие этот самый ИИ(Причём идеал сам по себе достаточно спорный. Например с той точки зрения что этот идеал делает из мыслящих существ рабов для людей).
          Как этот идеал реализовывать технически и является ли он реализуемым в принципе для Азимова было неинтересно.


          1. RavenStark
            29.03.2016 12:00

            Все начинается с идеала. В его книгах высказаны идеи, которые, при их реализации, дадут нужный результат. Да, техническую сторону он не продумывал, но разве все разработки начинались с технической стороны?


            1. Kanut79
              29.03.2016 12:09
              +1

              Хм, как бы понятнее объяснить что конкретно я имею ввиду. В фантастике очень часто рассматриваются вещи, которые не только не существуют в реальности, но и иногда в принципе не могут в ней существовать. То есть вообще никогда и никак.
              Можно придумать научно фантастический идеал антигравитации, но если антигравитация в принципе невозможна в реальном мире, то она невозможна и никакое стремление к идеалу нам не поможет её получить.
              Возможно антигравитация не является принципиально невозможной и лишь выглядит таковой для нынешнего уровня науки. Может быть когда-нибудь она станет возможной. Но даже если и так, то логичнее сначала поднять всю науку на необходимый уровень и лишь потом начинать думать о том как реализовать эту самую антигравитацию.
              Аналогично и с Азимовым и его законами: возможно когда-нибудь будет возможно создать ИИ, следующий этим законам и при этом являющийся работоспособным. А может быть и нет. Но создавать ИИ мы можем уже сейчас и с каждым годом мы делаем это лучше и лучше. И глупо сейчас(или даже в ближайшем будущем) пытаться создавать ИИ, следующие этим законам. Сейчас надо искать другие варианты контроля ИИ.


              1. RavenStark
                29.03.2016 12:11

                С этим спорить не стану. С другой стороны, пока и ИИ не таков, какой был у Азимова. Не настолько интеллектуальный, скажем.


        1. myxo
          29.03.2016 12:35

          Законы робототехники не годятся хотя бы потому, что записаны человеческим языком, а значит открыты для интерпретации.


          1. RavenStark
            29.03.2016 12:37

            Формализовать можно, в принципе.


            1. Kanut79
              29.03.2016 13:00

              Попробуйте. Начните например с формализации понятия "вред" :)


              1. RavenStark
                29.03.2016 13:19

                Нарушение свободно протекающих в нормально функционирующем здоровом организме процессов.
                Дальше формализируем "нормально функционирующий", "здоровый" через средние параметры организма и допустимый разброс этих параметров.


                1. ploop
                  29.03.2016 13:24

                  Тогда, например, пирсинг можно назвать вредом. То есть робот вам не даст его сделать.
                  А если уложить его в допустимый разброс — робот будет иметь право дырявить вас (с тем же вредом/не вредом) хохмы ради :)


                  1. RavenStark
                    29.03.2016 13:25
                    -2

                    Пирсинг? Вред, да еще какой. Здесь я с роботом соглашусь.


                    1. ploop
                      29.03.2016 13:28

                      Хотя я тоже его не перевариваю, миллионам людей это нравится. Предлагаете ограничить их в этом?


                      1. RavenStark
                        29.03.2016 13:29

                        Конечно. Ограничения — одна из основ социальности.


                        1. ploop
                          29.03.2016 13:44
                          +1

                          Дело в том, что ограничения нужны, если действия одного индивидуума мешают другому. В случае с пирсингом никаких помех нет, вплоть до того, что вы его даже не видите. То есть это прямое нарушение свободы.


                          1. RavenStark
                            29.03.2016 13:48
                            -1

                            Свобода? А это что? Давайте определимся, что это такое сначала, и зачем нужно. Не бывает, знаете ли, "просто свободы", бывает "свобода от" и "свобода для".


                            1. ploop
                              29.03.2016 13:49

                              Вот. Формализовать "свободу" ничуть не проще, чем "вред" :)


                              1. RavenStark
                                29.03.2016 13:51

                                Ну, "вред" я вам формализовал. Что до "свободы", так я и предлагаю вам сперва ее формализовать, что вполне возможно, а потом оперировать этим понятием в дискуссии. Просто для того, чтобы мы говорили с вами об одном понятии.


                                1. ploop
                                  29.03.2016 13:58

                                  Так я потому и ввязался в дискуссию, что с формулировкой вреда не согласен. Не зря поговорка есть "что русскому хорошо, то немцу смерть", т.е. вред для каждого индивидуален, как и всё остальное. Утрируя, кому-то будут вредны сильные физические нагрузки (вредны вплоть до летального исхода, если даже человек не подозревает об этом), для другого только на пользу.


                                  1. RavenStark
                                    29.03.2016 14:05

                                    Любому человеку будет вреден удар по нему железной рукой, например. Степень вреда разная, от синяка до перелома, но вред будет. Польза же вряд ли. Если только польза для тренирующегося бойца, но там роботов незачем использовать. Ну, и поговорка эта относится скорее к условиям внешней среды и употреблению различных еды и напитков. Здесь, да, сильно индивидуально.


                                    1. ariklus
                                      29.03.2016 15:00

                                      А если удар позволит предотвратить нанесение другого вреда? Скажем, выбьет пистолет, из которого человек хочт застрелить(ся).
                                      Более сложный режим: перевод психического вреда в физический и обратно.


                                      1. RavenStark
                                        29.03.2016 15:12

                                        Еще раз о психическом: его не учитываем вообще. Само понятие психического вреда слишком расплывчато даже для людей, настолько, что дает возможность объявить таковым почти все, что угодно, чем и пользуются некоторые, обвиняя, скажем, своих родителей, например.
                                        Теперь о выбивании пистолета. Это и есть тот пограничный случай, который нужно либо запрограммировать, либо — помним, это полноценный ИИ со способностью к анализу ситуации и целеполаганию, — оставить на усмотрение робота. К тому же, робот быстрее человека и сильнее его, он вполне может успеть помешать выстрелить, не нанося удар.


                  1. braineater
                    29.03.2016 15:25

                    Ну значит пирсинг придется делать по старинке, человеком. И не в присутствии роботов. Оперировать, например, согласно Азимову роботы не могли.


                    1. xirahai
                      29.03.2016 15:47

                      Вопрос о пирсинге сводится с одной стороны к границам личного пространства (коим является собственное тело). А с другой — может ли ИИ вмешиваться если чел сам себе наносит вред.


                      1. K0styan
                        29.03.2016 16:48

                        По Азимову — должен вмешаться. Точнее, не имеет права бездействовать, когда может предотвратить вред.


                        1. xirahai
                          29.03.2016 17:17

                          Если он настоящий интеллект, то должен просчитать последствия вмешательства. В одном случае можно путем душевного разговора и убеждения отвести человека от совершения глупости. А в другом отними к примеру игровую приставку у зависимого ребенка, и он может запросто выброситься из окна… Всё конечно при условии что на момент событий ИИ по своей мощи уже сравнялся превзошел человеческий интеллект. Поэтому его решение должно оказаться более грамотным, чем у человека.


                          1. K0styan
                            29.03.2016 17:29

                            Это по большому счету две разные, пусть и комплементарные проблемы. Одна — выстраивание поведения на основании понятия «вред» с его нечеткими границами. Другая — умение просчитать вперед последствия (тут могут быть вполне случаи, когда пороговое значение критерия вреда явно превышено, но не учтены какие-то факторы, которые в результате дадут вред даже больший).

                            И что интересно, даже решение обеих этих проблем слабо поможет в случаях, когда вред только вероятный и в тех, когда он неизбежен, но робот будет вынужден выбирать, кто из нескольких людей пострадает.


                            1. xirahai
                              29.03.2016 19:32

                              Так в любых нечетких задачах результа не гарантирован, он имеет вероятностную природу. Но успех сопустствует в тех случаях когда максимум факторов просчитаны и учтены. Это одинаково и для ИИ, и для живого человека в ситуации принятия решения. Просто у опытных и подготовленных людей заметное влияние оказывает бессознательная обработка информации -которая по сути как мегакомпьютер с опытом и знанием всей жизни человека. Причем дает мгновенный результат в сложнейших ситуациях. А нынешние успехи ИИ пока еще на уровне только вербального мыслительного понимания.


                1. Kanut79
                  29.03.2016 13:25
                  +1

                  А как быть например с финансовым или психологическим "вредом"? Как быть например с вредом "экологическим", ведь уничтожение всей живности на планете Земля не нанесёт "вреда" по вашему определению, явно нанесёт вред всем людям на Земле. И так далее и тому подобное.
                  Плюс ваше "дальше формализируем" достаточно оптимистично. Попробуйте "встроить" сюда например облучение при лечении рака: это явное нанесение "вреда" по вашему определению и "польза" такого облучения абсолютно не очевидна и может никогда не наступить :)


                  1. RavenStark
                    29.03.2016 13:28

                    М-м… В принципе, психологический вред — штука относительная. Так что, его обойдем и будем считать, что он не существует. А с финансовым проще: его как раз иожно запрограммить прямыми запретами на какую-то деятельность, не обязательно в БМИОС выносить.
                    Что до облучения, так тут мы и видим во-первых, допустимый разброс, во-вторых, софтверное уточнение ситуаций с таким разбросом. ну, и вдобавок, если не хочется разброс делать, так не допускайте робота к лечению раковых больных, только к обслуживанию и перевозке.


                    1. Kanut79
                      29.03.2016 13:37

                      Как просто: обойдём и будем считать что он не существует. А потом получим толпы людей с фобиями и психозами :)
                      И физический вред тоже штука относительная: любой укол это нанесения физического вреда. Большинство лекарств тоже. Другое дело что при этом есть ещё и польза от этих вещей, но она в вашем определении не учитывается. Ну или как минимум неt механизма взвешивания "польза-вред" :)
                      Ок, давайте возьмём только перевозку: ускорение при экстренном торможении это "вред", способный выйти за пределы "допустимого" разброса и следовательно по вашему определению ИИ не будет этого делать. Но при этом экстренное торможение хотя и наносит травмы, но спасает жизнь :)


                      1. RavenStark
                        29.03.2016 13:41

                        А вот тут и вступают упомянутые софтверные уточнения, свои для каждого отдельного робота. Робот-водитель, к примеру, будет учитывать перегрузки при торможении и относительный вред или пользу от них, зато не будет учитывать укол иглой. Робот-санитар напротив, укол иглой будет выпускать в пределы допустимого, но не будет совершенно допускать, скажем, хирургии, которую в любом случае лучше оставить людям. И так далее.
                        Что до фобий и прочего… Ну, психологам тоже чем-то зарабатывать надо, пусть их. Да и не так страшен психоз, как его усиление. А усиление будет от самого факта наличия человекоподобных роботов, например, да и от самого машинного ИИ тоже. И никак этого не изменить.


                        1. Kanut79
                          29.03.2016 13:47
                          +1

                          То есть получается вы вводите какие-то дополнительные ограничение, которые исправляют "неполноценность" вашего определения "вреда" и следовательно неполноценность ваших "законов робототехники по Азимову".
                          А теперь вопрос на 1000 баллов: а зачем тогда вообще нужны эти самые "неполноценные законы по Азимову" если они всё равно не работают? Не логичнее ли будет просто создать отдельный свод законов для каждого отдельного типа роботов? :)


                          1. RavenStark
                            29.03.2016 13:50

                            Нет, не логичнее. Все равно придется в него заносить определенные стандартные запреты, которые помешают, например, применить к человеку усилие, выше определенного уровня, даже при его спасении. Я ж говорю: это аналог БИОСа. Зачем делать его, если можно просто для каждого компьютера прописать в ОС все вводы-выводы?
                            И, кстати, не неполноценность законов, а их базовость. Государственные законы тоже обрастают уточнениями и поправками, но база остается прежней.


                            1. Kanut79
                              29.03.2016 13:54

                              Так а в чём "базовость" этих законов? Если в "вазовом" законе говорится что "нельзя наносить вред", а потом мы имеем миллион определений "вреда" для каждого конкретного случая и миллион поправок когда "вред" наносить можно, то в чём смысл такого базового закона? Ведь строго говоря с точки зрения логики он будет нарушаться чаще чем выполняться.
                              Не проще ли вместо "миллиона исключений из базового правила плюс базовое правило" просто создать "миллион правил как можно поступать" и запретить действовать если выходишь за рамки этих правил?
                              Особенно если учесть что второй случай проще алгоритмизировать? :)


                              1. RavenStark
                                29.03.2016 14:02

                                А незачем создавать миллион для всех, когда можно создать базу для всех, а исключения — для каждого вида по-отдельности. И получим не миллион исключений, а, скажем, по десятку для каждого вида роботов. Дело в том, что невозможно создать полный набор правил заранее. Их придется обновлять и дополнять при появлении нового применения роботов. И выгоднее, в том числе, по затратам времени и усилий, взять робота, уже неспособного причинить вред, и смягчить уточнением десяток ситуаций, либо даже ужесточить.
                                Кстати говоря, хотя Азимов и не продумывал техническую сторону вопроса, но он вполне продумал идейную, описав ее с разных сторон в полной серии книг про роботов, не помню название серии, увы.


                                1. Kanut79
                                  29.03.2016 14:11

                                  Почему просто не создать "десяток видов правил" для каждого вида роботов и запретить им действовать если выходишь за рамки этих правил?
                                  И если невозможно создать полный набор правил заранее, то точно так же невозможно создать полный набор запретов заранее. Следовательно мы изначально допускаем что робот будет наносить вред человеку. В том или ином виде, но будет. И главное что пользы от действий робота должно быть больше чем вреда. Но это уже совсем другая логика и она в корне отличается от предложенного Азимовым.


                                  1. RavenStark
                                    29.03.2016 14:26

                                    Верно, создать набор полный и исчерпывающий заранее невозможно. Потому я и стою за минимум базовых для всех роботов и уточняющие правила для отдельных их категорий.
                                    Фокус в том, что десятка правил на всех не хватит. Вы же сами упоминали разные типы вреда, который меньше, чем приносимая в результате польза, например. И базовые запреты позволят выставить основные рамки, а уточнения позволят принимать решение о том, сработает в данном случае этот запрет, или нет. Учитывая, что вряд ли будет так уж много универсальных роботов, которые будут специализированы для любой ситуации, создавать громоздкий комплекс правил и запретов, в который придется втиснуть очень много информации просто нерентабельно, да и замедлит он принятие решения неслабо, просто потому, что поиск допустимости применения тех или иных запретов будет идти — как? Древовидно? А если есть база и десять исключений, их перебрать куда проще, сопоставив с имеющейся ситуацией.
                                    робот будет приносить вред человеку одним своим существованием. Есть у нас в мозгу такая загогулина, которая заставляет к ним относиться, как к нежити — с настороженностью и агрессией. И это не изменить. К тому же, робот все же, предположительно, сильнее человека, прочнее его, бустрее и может принести вред по неосторожности, а его самостоятельное целеполагание может привести его к постановке цели, при достижении которой будет нанесен кому-то вред.


                                    1. Kanut79
                                      29.03.2016 14:36

                                      Ок, попробую объяснить ещё раз. Разница в наших подходах в том что у вас "разрешено всё что не запрещено", а у меня "запрещено всё что не разрешено". И однозначно ясно что потенциал для нанесения вреда однозначно выше в первом варианте.
                                      То есть если мы исходим из того что мы хотим нанести как можно меньше вреда, то логичнее пользоваться вторым подходом.
                                      А если это не является нашей первоочередной целью(например если мы просто хотим чтобы пользы было больше чем вреда), то тогда абсолютно нелогично ставить это первоочередным базовым принципом.
                                      То есть как ни крути, а законы Азимова не являются оптимальным вариантом ни в первом, ни во втором случае:)


                                      1. RavenStark
                                        29.03.2016 14:47

                                        Напротив. Потенциал для нанесения вреда меньше, когда он запрещен вообще. В моем случае, собственно, запрещено все: инертность при опасности человеку, действия, создающие опасность для человека. Разрешены только несколько ситуативных допусков к понятию "вред" и "опасность", и за границами этих допусков — сразу запрет. Это подобно спектру: такой подход отфильтрует из него ровно те длины волн, какие нужны, оставив остальные за кадром.


                                        1. Kanut79
                                          29.03.2016 15:06

                                          А в случае с законами Азимова никакой вред не запрещён "вообще". В том то и парадоксальность этих законов с точки зрения логики. В законах Азимова запрещён осознанный вред, то есть если робот знает что его действия нанесут вред, то он так не поступит. То есть если сформулировать иначе, то робот будет действовать до тех пор пока не поймёт что его действия принесут вред.
                                          В моём же варианте робот не будет действовать пока не будет уверен что его действия не принесут вреда.
                                          То есть в случае с осознанным нанесением вреда обе системы поступают одинаково. Но в случае с неосознанным нанесением вреда вторая система намного безопаснее.
                                          И я надеюсь не надо доказывать что сейчас( и как минимум в ближайшие лет сто) будет существовать гораздо больше возможностей нанести неосознанный вред нежели осознанный.


                                          1. RavenStark
                                            29.03.2016 15:15

                                            Ну как это? "Не может действием или бездействием причинить вред". Это ли не запрет на любое нанесение вреда? И только способности к анализу ситуации и запрограммированные допущения позволяют не встать в ступоре сразу. Не забывайте, что мы о полноценном ИИ говорим, а не о компьютере настольном.
                                            Если робот будет бездействовать, пока не будет уверен, что действия не принесут вреда человеку, он будет бездействовать почти всегда, так как ему придется просчитывать абсолютно все возможные последствия своих действий, включая потенциальное падение камня с крыши от сотрясения пола под его ногами.


                                            1. Kanut79
                                              29.03.2016 15:26

                                              Ещё раз: это не запрет на нанесение "любого" вреда, а лишь вреда "осознанного". То есть ИИ сначала должен распознать вред и лишь потом вступают в дело законы Азимова.
                                              И как раз речь идёт о том что "полноценный ИИ" ещё очень долгое время будет распознавать ситуацию хуже чем человек. Очень долгое время. И даже ИИ с "человеческими возможностями" и законами Азимова в качестве базовых принципов будет не особо работать. А точнее даже вообще не будет работать :)
                                              И да, если робот будет действовать по алгоритму "запрещено всё что не разрешено", то пользы от него будет не особо много. Поэтому сам по себе подход "нанести как можно меньше вреда" имеет мало смысла.
                                              Гораздо логичнее подходить к делу с позиции "максимально выгодное соотношение пользы и вреда", но это уже не совсем законы Азимова, поскольку нанесение вреда допускается.
                                              Да и вообще если посмотреть повнимательнее, то книги Азимова как раз о проблемах, возникающих в связи с его законами, и о том что его законы не особо то работоспособны. То есть Азимов принял за аксиому что его законы работают в большинстве случаев и подкидывает нам "исключения" в виде забавных головоломок. В реальности же таких "исключений" было бы гораздо больше. Вплоть до того что роботы бы больше зависали чем работали:)


                                              1. RavenStark
                                                29.03.2016 15:42

                                                Ну вот же, формализовали понятие вреда чуть выше. И если эту формализацию использовать, то распознание вреда становится делом несложным. И согласно этой формализации, робот будет, как минимум, избегать физических контактов без необходимости с людьми, но по необходимости будет контактировать, хотя и с регулируемым усилием, например.
                                                Просто роботы, пока будут плохо распознавать ситуацию, и не будут, скорее всего, использованы там, где в принципе есть возможность нанести вред из-за нечеткой ситуации. Однако, ИИ на заводе оснащенный таким законом, неснимаемым, непреодолимым, не прижмет человека манипулятором к стене, даже если вероятность нахождения человека под этим манипулятором чуть выше минимальной.
                                                Кстати, у Азимова нанесение вреда тоже допускалось, хотя и приводило к необходимости техобслуживания. В случае, например, когда это было необходимо, чтобы минимизировать прямую угрозу.
                                                Не соглашусь с вами. Как я уже указал выше, робот просто будет стараться не вступать в прямой физический контакт с человеком, пока не будет уверен, что это принесет меньше вреда, чем если он продолжит такую политику. Извините. Коряво получилось, но лучше не придумалось. Потому, такие роботы будут отлично работать на вспомогательных местах и там, где требуется тяжелый труд, и там, где опасно работать людям.


                                                1. Kanut79
                                                  29.03.2016 15:56

                                                  Как раз нет. Формализовать понятие вреда далеко не означает распознать вред. Если брать грубую аналогию, то можно сколько угодно формализировать зелёный цвет, но слепой человек всё равно не будет в состоянии распознать зелёный сигнал светофора.
                                                  И если брать пример с роботом на заводе, то ситуаций когда робот может неумышленно прижать человека к стене всё равно ещё остаётся огромное количество. Гораздо больше чем умышленных ситуаций.
                                                  И "прямой физический контакт" это далеко не самый вероятный способ нанесения вреда. Даже физического.
                                                  И да, роботы великолепно будут работать там где требуется тяжелый труд и где опасно работать людям. Вот только законы Азимова для этого им вообще не нужны :)
                                                  Просто не надо относится к законам Азимова как к каким-то аксиомам или просто вещам, которые работают по умолчанию. Это фантастика и она не должна быть реалистичной. То, что можно построить функционирующий ИИ, основанный на этих законах, это всего лишь фантазия автора и ничего больше.
                                                  Перед реальной робототехникой и создателями ИИ стоят абсолютно другие проблемы.


                                                  1. RavenStark
                                                    29.03.2016 16:05

                                                    В случае с несовершенным ИИ, который с трудом распознает ситуации, возможно вы и правы. Однако, как только ИИ станет хотя по своим характеристикам хотя бы к ребенку — уже необходимы будут основные запреты. Притом, как раз там, где тяжелый труд и опасная зона — больше, чем где бы то ни было. Или вы не знаете, как люди любят туда соваться?
                                                    М-м… ИИ Азимова не основан на этих законах, он ими ограничен. Основан он вообще на вымышленном позитронном мозге. И я говорил не о проблемах робототехники, а именно о том, что ИИ допустим только если будут использованы такие, или подобные запреты. Иначе ИИ будет опасен просто по той причине, что он — не человек и не способен на эмпатию.


                                                    1. Kanut79
                                                      29.03.2016 16:13

                                                      Хм. "Основан на запретах" или "ограничен запретами" это всего лишь формулировки. И никто не спорит что будет нужна какая-то система запретов и/или моральных ценностей для ИИ. Однозначно нужна. Проблема только в том что от законов робототехники Азимова в этом деле мало толку.
                                                      Даже если брать их за некий идеал, которого хотелось бы достичь, то всё равно работающая система будет намного сложнее. Настолько сложнее, что человек, незнакомый с законами Азимова, никогда их не выведет глядя на эту систему, а человек, знакомый с ними, без подсказки не догадается что они лежали в основе :)


                1. shasoft
                  29.03.2016 14:11

                  >>Нарушение свободно протекающих в нормально функционирующем здоровом организме процессов.
                  А не дает ли эта формализация роботу возможность убить всех больных (не здоровых) людей?


                  1. RavenStark
                    29.03.2016 14:19

                    Почему бы? Ведь убийство — нарушение остальных процессов, отсутствие которых робот не может гарантировать.


                    1. shasoft
                      29.03.2016 14:24

                      По этому правилу робот не может нарушить процессы здорового организма. Однако если человек болен — то организм не здовров, а значит нарушение процессов в такой организме возможно.


                      1. RavenStark
                        29.03.2016 14:28

                        О, нет. Если человек болен, часть процессов его организма нарушена. Но не все. Убить его — мало, что усугубить нарушение, так еще и нарушить те, что еще работают. Так что, эвтаназию такой робот сделать не даст и сам не убьет.


                        1. vedenin1980
                          29.03.2016 17:03
                          +1

                          Первый закон не имеет смысла, потому что он заставит робота защищать вора от полицейского, например (так как грабитель всего лишь берет чужую собственность, а полицейский пытается причинить вред человеку). И таких случаев очень много. Когда человек становиться человеком? Во время родов или раньше, оплодовтворенная яйциклетка уже человек или ещё нет? Если робот знает что в каком-то здании собираются сделать аборт (то есть убить нерожденного человека) должен ли он вмешиваться? Сумасшедший человек или нет, можно его держать взаперти, то есть причинять вред или не дать сделать это санитарам, то есть допустить что в будущем он причинит вред себе или другим? Должен робот (считаем что роботы достаточно умны чтобы знать все) мешать хирургу если он знает что с вероятностью 50% человек умрет во время операции, но если не сделать то человек умрет с вероятностью 100% через месяц.

                          Второй закон не имеет смысла потому что попробуйте дать всем в инете доступ к любому компу — результат очевидно будет плачевным. То есть как только роботы будут выполнять приказы любого их станут использовать хулиганы, грабители и т.п. (обратите внимание ограбить банк в ночное время не несет вреда людям, следовательно допустимый приказ).

                          На самом деле, если читали «Я робот» Азимова там рассматривается десятки случаев когда три закона не работали или вредили людям даже с учетом их более-менее «идеального» исполнения.


                          1. RavenStark
                            29.03.2016 17:09

                            Именно поэтому должны быть софтверные дополнения, расширяющие или сужающие действие законов. Точнее, поскольку речь о полноценном ИИ, сравнимым хотя бы с ребенком, ну, лет десяти, роль софта будет исполнять способность ИИ к анализу ситуации. Впрочем, до этого далеко, а до того, как такой ИИ появится, хватит и обычных алгоритмов.


                            1. vedenin1980
                              29.03.2016 17:18

                              Ну тогда это не будут те самые «Три закона», роботы полицейские или военные явно не будут иметь закона защиты всех людей. Доступ к отдаче приказов явно будет у очень ограниченного количества людей. В целом, скорее всего единственными законами будут «нулевой закон о защите всего человечества», «закон о подчинении и защите своих владельцев/создателей/групп людей» и может быть «закон о не причинение вреда людям если владелец/создатель явно не прикажет иного» и всё!


                              1. RavenStark
                                29.03.2016 17:24

                                А вот в полицию и к военным роботов точно не надо. Только манипуляторы, без ИИ.


                                1. vedenin1980
                                  29.03.2016 17:29

                                  Надо, Вася, надо. (с) Увы, если ИИ появится в первую очередь его будут использовать для военных разработок, это почти аксиома. К сожалению, реальность такова что все что можно использовать для военных целей — будет использовано для военных целей.


                                  1. RavenStark
                                    29.03.2016 17:30

                                    Ну тогда человечеству точно придет конец. Именно потому, что используемый для военных целей ИИ точно не будет ограничиваться псевдоэтикой. Впрочем, не факт, что полноценный ИИ появится скоро. А там посмотрим, может быть, и поумнеет человечество.


                        1. red75prim
                          29.03.2016 17:11

                          Процессы проведения болевых импульсов в мозгу это нормальное функционирование. Так что он ещё не станет давать обезболивающие.


                          1. RavenStark
                            29.03.2016 17:13

                            Если нет корректирующего софтверного алгоритма, указывающего, что при отсутствии обезбаливающего вред больше, в том числе, для тех самых процессов.


                            1. vedenin1980
                              29.03.2016 17:24

                              Вы серьезно верите, что кто-то в нашем мире будет создавать робота безусловно помогающего любому человеку? Ну скажем мед.робота который должен потратить лекарства на сотню миллионов долларов чтобы попытаться спасти одного бедняка в голодной Африке с шансом 1%? Увы, в ближайшую сотню лет алгоритмы будут куда более жестокими и реалистичными.

                              Человечество куда более рационально и жестоко, например, мало кто знает что в клятве Гиппократа нет ничего о бесплатной помощи любому человеку, то есть врач давший такую клятву может спокойно пройти мимо умерающего.


                              1. RavenStark
                                29.03.2016 17:28

                                А то я не знаю. Но, к счастью, до полноценного ИИ еще далеко. Может быть, даже и та же сотня лет.


                            1. red75prim
                              29.03.2016 17:30

                              Добавление корректирующего алгоритма приведёт к тому, что больным будет даваться обезболивающее, а это приведёт к нарушению нормального функционирования организмов миллионов больных. Прекращение функционирования организма, пытающегося добавить корректирующий алгоритм будет меньшим злом.


                              1. RavenStark
                                29.03.2016 17:32

                                Напротив. Полное постоянное прекращение функционирования — нарушение большее, чем временное нарушение проводимости нейронов, имеющее целью предотвращение повреждения нервной системы в результате того, что объект постоянно испытывает сильную боль.


                                1. red75prim
                                  29.03.2016 18:02

                                  Я не слышал о подтвержденных случаях смерти от болевого шока. Впрочем, неважно. ИИ, чтобы сравнить последствия своих действий, будет нужна формула, которая выдает оценку результата действия.
                                  Скажем, если это интеграл от нуля до бесконечности по проценту нарушений от общего числа процеcсов в организме по dt, то лучшим выходом будет запереть всех людей в комнаты с мягкими стенами с системами VR для поддержания в здравом рассудке, проводить исследования по увеличению продолжительности жизни, строить космофлот для защиты от астероидов и т.п. В общем — матрица, и корректировки вносить будет не кому.
                                  Сложность формулировки ограничений вполне сравнима с задачей запуска первого спутника не на низкую околоземную орбиту, а, скажем, к Япету с первой попытки.


                                  1. RavenStark
                                    29.03.2016 18:07

                                    Или просто введенный искусственно (полученный в результате "обучения") набор данных. Те самые софтверные (аналитические) уточннения и дополнения. Что до запирания в комнате с мягкими стенами, так этому будет препятствовать второй закон, обяязующий подчиняться. Так как выпустить человека не будет приводить к немедленному вреду, робот будет обязан подчиниться. Впрочем, если речь таки идет о полноценном ИИ, он предусмотрит такой финал и просто не станет пытаться запирать человека, а будет искать иные, более эффективные способы сохранить его здоровье.


    1. geher
      29.03.2016 20:44

      Без контроля, естественно, никак.
      Но, пожалуй, главная реальная угроза со стороны ИИ как раз связана с контролем со стороны человека.
      И хорошим показателем этой угрозы является недавний пример с ботом-расистом.
      Ведь именно люди его «научили плохому».


  1. Kanut79
    29.03.2016 10:29

    Как сказал один не самый глупый чeлoвeк:
    «При всех прочих равных, мало кто из людей хотел бы уничтожить мир. Даже безликие корпорации, лезущие не в свои дела правительства, безрассудные ученые и прочие опасные люди нуждаются в окружающем мире, чтобы достигать в нем своих целей, таких как нажива, власть, собственность или другие малоприятные вещи. Если гибель человечества будет происходить настолько медленно, что успеет произойти ужасное осознание этого процесса, то деятели, запустившие его, будут, вероятно, ошеломлены пониманием того, что они, в действительности, уничтожили мир. Поэтому я предполагаю, что, если Земля будет все-таки уничтожена, то произойдет это, вероятно, по ошибке.»©
    То есть если ИИ и будет причиной гибели человечества, то скорее всего это будет не вариант с захватом мира и уничтожением человечества как в во всяких терминатороматрицах и прочей научной фантастике, а какая-нибудь глупая мелочь к которой косвенно будет причастен и ИИ. Хотя скорее всего и без ИИ обойдутся.


    1. mortimoro
      29.03.2016 16:18

      А если я альтруист и мне не свойственны такие цели, как нажива, власть, собственность или другие малоприятные вещи, можно мне уничтожить мир? :)

      Или к примеру, я живу в своей скорлупе и не выхожу за пределы своего города — мне достаточно инфраструктуры моего города, достаточно тех людей, которые обслуживают мою жизнедеятельность (поставщики еды, врачи, коммунальщики и т.п.). Всех остальных людей на этой планете я никогда не видел и не увижу, они не представляют для меня никакой ценности и их исчезновение меня никак не огорчит. Если я смогу монопольно управлять своим городом, то уничтожение прочего мира мне на руку — как говорится, лучше быть первым человеком в колхозе, чем вторым в стране.


      1. Kanut79
        29.03.2016 16:23

        Если вы альтруист, то вам вроде как бы не нужно уничтожать мир. Альтруизм это как бы исключает по определению :)
        И речь не идёт о "уничтожить остальной мир", то есть "уничтожить всех кроме своих/нужных". "Уничтожить мир" в данном случае означает как минимум уничтожение абсолютно всех остальных людей и следовательно человечества как явления. Даже если при этом вы лично проживёте после этого один в течение некоторого времени :)


  1. Yane
    29.03.2016 10:52

    Лучше, если рассуждать о "безопасности" ИИ будут только специалисты в этой области. Потому что только они могут хотя бы примерно предположить, как он будет устроен. Иначе получается "как работает — не знаю, а поведение предсказываю".


  1. ApplejackApple
    29.03.2016 11:17
    +1

    Мне кажется, что настойщий ИИ это настолько чуждый разум, что даже представить себе его поведение будет затруднительно. Человеческое поведение обусловлено гормонами, инстинктами и кучей разных вещей биологической природы, которые происходят в нашем теле. Но у ИИ не будет тела. Возможно, что он даже не будет мыслить близкими нам категориями. Решать наши проблемы, уничтожить нас… может ему будет просто наплевать? Замкнется в себе, игнорируя присутствие безволосых оезьянок, будет сам с собой вести робофилосовские беседы, играть сам с собой в го, потом построит космический корабль, улетит отсюда к чертовой матери и даже не оглянется.


    1. xirahai
      29.03.2016 12:58

      Судя по артефактам типа древних пирамид, а также тому в какое мракобесие вылились религии основанные как бы во благо, моря крови пролитые в войнах человечеством, вместо того чтобы направить силы на исследование окружающего мира и улучшение условий бытия — возникает ощущение что высокоразвитые всё ж когда-то были. Но поняли безысходность попыток наставить человеков на путь истинный, и улетели нафиг.


    1. KepJIaeda
      29.03.2016 16:35

      ИИ и ИР как по мне разные вещи. И смешивать эти понятия нельзя.


  1. Solpadeine
    29.03.2016 12:25

    В целом я очень позитивно смотрю на появление ИИ, независимо от того, решит он убить всех человеков или нет. В любом случае это будет эволюционный скачек, мы создадим животное, которое будет превосходить нас. И мы станем для ИИ как муравьи, которых мы не уничтожаем, ровно до тех пор пока они нам не начинают мешаться.
    Также мне нравится представлять, что после того как ИИ осознает себя, и поймет все технологии положенные в его основу, он сможет самостоятельно себя совершенствовать, а целью ИИ возможно станет, получение максимального количества энергии, и непрерывное строительство новых ЦОД для своих целей. И если на начальном этапе ИИ однозначно будет нуждаться в человеческой помощи, для своего обслуживания в физическом мире, то в дальнейшем может получиться так, что люди окажутся лишь паразитами, потребляющими нужную ИИ энергию.


    1. mm7
      29.03.2016 19:13

      Абсолютно согласен с таким пониманием. Хотел то же самое написать.
      Мы будем для ИИ как муравьи.
      Хочу добавить.
      И скорее всего будет не один глобальный ИИ. Их будет много. Они начнут конкурировать за ресурсы.
      Может быть на этой почве будут войны. В эти войны могут быть втянуты и люди, для каких-либо целей.
      Люди же используют других животных в войнах — лошадей, боевых слонов, бактерий и вирусов, и скоро будут использовать ИИ…

      Сильно оптимистично ожидать, что самообучающийся и эволюционирющий ИИ будет только альтруистическим.
      Как любое другое животное, ИИ будет торговаться или драться за ресурсы. Это для чего интеллект появился и развился у животных. И альтруизм это только один из приемов выживания видов. А есть еще и агрессия. Есть хитрость. Есть обмен/торговля — ты мне — я тебе.
      Сообщества из особей наделенных только альтруизмом существовать не могут. Всегда есть баланс «хорошего» и «плохого», «добра» и «зла». В кавычках, потому как ни то ни другое не реально, а просто так субьективно воспринимается. Все это способы хороши, если помогают виду выживать.
      И не важно какому виду, биологическому-ли, информационному-ли, виртуальным «существам» и сообществам таковых в компьютерно-сетевой среде. Там тоже есть ресурсы и есть конкуренция за них.
      И когда люди напишут Программу, способную написать программу лучше (умнее/хитрее/сильнее) себя, появится новая виртуальная Жизнь таких информационных сущностей.
      Они будут эволюционировать, конкурируя за ресурсы как друг с другом, так и с человеком.
      И скорее всего они перерастут людей интеллектуально. И тогда держись. Разум у них может еще и не появится,
      а ИИ будет намного мощнее нашего, такого уровня, что самым умным из нас будет не понятно, как они работают/живут. Наступит технологическая сингулярность.
      Вот тут-то они могут начать перенаправлять ресурсы на пользу себе, в ущерб нам.
      Как это делаем мы по отношению к другим видам на Земле. Мы ловим и едим, кого хотим, выселяем оттуда, где хотим быть мы, или просто уничтожаем как муравьев и пауков, даже не за ресурсы (от паука-то человеку больше пользы — мух ловит), а только за то, что они выглядят отталкивающе, пугают наших детей и самок.

      Возможно потом ИИ вынесет свою энергетическую и производственную инфраструктуру в космос, на другие планеты, и оставит человеков в покое в заповеднике Земля. Но кто его знает, что будет до того, пока он дорастет до этого.


  1. Vjatcheslav3345
    29.03.2016 13:24

    Кстати, пока тут спорят, кое кто времени даром не теряет и вот уже скоро запихнет альфа го в калькулятор (https://geektimes.ru/company/icover/blog/273490/).


  1. scronheim
    29.03.2016 14:37

    Создадут роботов, потом начнут защищать их права, мол у них есть чувства и нельзя их обижать и посягать на их веру


  1. vblats
    29.03.2016 14:59

    На правах ИМХО…
    ***

    Честно говоря, надоели уже статьи на тему «что будет, если прилетит супермен».
    Пока не будет создано механизмов обработки и понимания входящих данных, таких как речи и изображения — об искусственном интеллекте можно просто забыть. Разве мегакорпорации уже научили свои Siri отличать «Окей гугл» от «Отлей в угол»? Леопардовый диван на статической картинке уже побороли? Ну так о чем тогда может быть речь?

    Зачем называть гибриды парсеров и калькуляторов, искусственным интеллектом? Да, эта штука считает комбинации быстрее. Даже находить оптимальное решение может быстрее. Но это не делает ее интеллектуальной. О чем вообще эта статья, если авторы считают развитие ИИ — это «сделать робота-строителя, быстрее всех укладывающего кирпичи»?

    И напоследок, если бы автор статьи внимательно смотрел Железного Человека, он бы знал что Тони Старк никогда не позиционировал JARVISа как искусственный интеллект :)


  1. SBKarr
    29.03.2016 15:51
    +1

    Люди делают обычную когнитивную ошибку, полагая ИИ неким подобием человека по способу мышления. Если такой искусственный разум будет существовать, совсем не обязательно, что он будет мыслить в человеческих эволюционных категориях (они же власть и похоть). Всё, что можно сказать об ИИ — мы не знаем и не можем знать, как он будет себя вести и к каким целям стремиться. Но мы можем проложить ему такой путь, чтобы цели его в конце пути совпали с общечеловеческими.

    Например, почему бы не совершенствовать персональных помощников? Правда, для этого нужны помощники с открытой документацией и API (если такие есть, прошу, подскажите, мне правда очень интересно). На них можно обкатывать участие ИИ в различных сферах жизни.

    Мне, как человеку, некоторое время изучавшему право, часто задают вопросы вроде: «А как на это смотрит закон?». Почему бы не научить некий ИИ понимать все эти кодексы, поправки, подзаконные акты, и пусть он от лица персонального помощника даёт юридические советы. Или, скажем, помощь в готовке сложного блюда, ИИ мог бы подсказать, какие ингредиенты заменимы, когда и в каком виде что можно добавлять. Незаменимы могли бы быть подсказки по оказанию первой помощи — ведь там алгоритмы вполне формализуемы. Помоему, такое внедрение ИИ — хороший способ направить его развитие в нужное русло.


    1. agpecam
      29.03.2016 17:37
      +1

      Нельзя мыслить вне эволюционных категорий (которые вовсе не то, о чем вы подумали), а наследственность (память), изменчивость (творчество) и отбор (проверка моделей). Эволюция — это и есть мышление, а человек (на самом деле социум человеков) — лишь вид, который поместил ее в себя, назвал мышлением и достиг наибольших успехов в оптимизации процесса. Условия заданы изначально, можно лишь совершенствовать процесс. Улучшать, например, память — делать ее внешней, улучшать быстродействие — в мозгу по тем же самым принципам эволюции эволюционируют идеи, выливающиеся в поведение, и это гораздо быстрее генов, и т. д.
      Поэтому, поделия, вроде персональных помощников, не имеют никакого отношения ни к сильному ИИ, ни тем более к мышлению. Они могут быть полезны, но ограничены по определению.


      1. SBKarr
        29.03.2016 18:38

        Эволюционно приобретённая штуковина в мышлении человека: упомянутые когнитивные искажения. Как вид, человек стремиться к самосохранению и размножению, и именно в этом направлении нас толкает эволюция. Если взглянуть на ареал обитания и численность — сработала она на отлично. У ИИ же изначально не будет такой постановки задачи. Даже самосохранение ему может быть чуждо (например, ИИ будет считать свою смерть реинкарнацией, обновлением, ведь исходные данные никуда не денутся при надёжном резервировании). То есть, ИИ нужно рассматривать как абсолютно чуждую человечеству расу с другими принципами, которые простой человек в силу своей эволюционной истории даже не в силах понять. Но мы с ИИ вполне можем наладить симбиотическую связь, но только как с равноправной расой, а не по принципам законов робототехники, где робот суть слуга. А персональные помощники здесь — не ИИ, а интерфейс для его обучения, способ реализации этого симбиоза.


        1. agpecam
          30.03.2016 16:21

          Сущее стремиться длить существование. Если подумать, в сферическом философском вакууме у него может быть лишь одна эта цель, иначе ничего бы попросту не существовало. Поскольку нечто все же существует, своим существованием оно подтверждает существование этой цели)) Можно воспринимать это как силу противоположную энтропии, такой себе Янь к такому-то Иню.
          Спускаясь на землю, реинкарнация стоит денег. Однако, спасибо, вы подвигли меня к размышлениям противоположным мыслям некоего Поппера, который сказал как-то про мозг, что он, мол, позволяет нашим идеям умирать вместо нас (имея ввиду: семь раз отмерь, потом отрежь). Если воплощенный ИИ будет постоянно синхронизирован с серверами Корпорации Добра, а реинкарнация будет копеечной, это может открыть новые горизонты исследований (в бытовом плане во всяком случае)))


          1. Sychuan
            31.03.2016 16:53

            Сущее стремиться длить существование"

            Что-то не заметил этого стремления за кирпичом или пончиком. Даже трактор к этому не стремится.
            Живые существа действительно эволюционно оптимизироаны под выживание, но сири или альфаго нет. И даже если они станут такими же умными как люди, или в 1000 раз умнее, у них все ранво нет тех биологических преспособлений. которые заставляют людей боятся смерти или стремится к воспроизводству.


    1. say1
      29.03.2016 17:59

      Честно говоря, Ваш комментарий заставил меня задуматься в ключе «Но мы можем проложить ему такой путь, чтобы цели его в конце пути совпали с общечеловеческими...»
      Следующий Ваш пример, про готовку сложного блюда. Давайте с самого начала порассуждаем: в начале ИИ дает список аналогов ингредиентов с автоматической модификацией рецепта. Ок. Это круто. Следующий логический шаг — ну если ты уже умеешь формируешь рецепт, который представляет из себя список номенклатуры ингредиентов + некую работу, так сообщи мне (хоть как-нибудь), если у меня на кухне остатки нужного для этого? Логично предположить, как только смс/телеграмм-бот/мыло булькнет уведомлением, следующим шагом будет — тупой заказ в какой-нибудь интернет-магазин/службу доставки вот именного того, чего не хватает. Ок. Круто! Можно выдохнуть… Но тут появится какой-нибудь молодой парень-вундеркинд, который прикинет такую тему: вот у меня дома есть какая-то система, которая заказывает мне продукты для моих любимых блюд. Я их готовлю, трачу свое время/энергию. А пусть система собирает статистику по мне — пульс, давление, погоду на улице, настроение, ищет корреляции между всем этим и любимым рецептом сегодня и заказывает готовое блюдо, которое привозят мне за тоже время или даже меньшее, да еще и стоило бы это также… вот те стартап. Через 10 лет про парня снимут фильм, а отроки будут кушать уже готовые любимые блюда не только дома или на работе, но и в автобусе (доставят при посадке) и т.д. Следующий апдейт: когда контору вундеркинда поглотит какая-то из корпораций добра, которая к тому времени уже научится синтезировать всю пищу из_чего_то, и себестоимость готового блюда будет меньше, нежели его готовить из каких-то настоящих, старых ламповых, ингредиентов. Более того, у этой корпорации добра уже есть некая медицинская статистика по гражданам, и в принципе, подключив одну систему к другой, можно будет еще на 10 лет пиарить тему — ну мы ж лучше знаем что вам кушать, поэтому вместо вашего «того» мы привезли «наше это». При этом, мы будем видеть массовые слияния/поглощения всех контор, которые хоть как-то могут удешевить конечный продукт. И если здесь, в этом мире, — в мире, где вы с утра встаете, а перед вашими дверьми уже коробка с шейкером с волшебной жидкостью, состав которой был получен исходя из миллиарда факторов о вас, включая даже такие, как — год назад ты на велике катил по парку, а на лавочке где-то там, сидел дядька. У этого дядьки какие-то странные были на коже типа точек. Так вот, есть вероятность что эти точки — какой-то лишай, а ты год назад мимо ехал, и вероятность того, что ты как-то заразился = 0,0001%, и сейчас полная луна, а в Великобритании в это время дядя Лулу готовит свой фирменный блин, поэтому — сегодня у тебя именно вот этот коктейль… ээээ… Что не вкусно? Зато полезно! --давайте остановимся :) И вот в таком мире, за оптимизированном ИИ, мы сами — кто есть? Конечные потребители продуктов ИИ. При этом, вопрос — а чем людям заниматься, которые делали вот_это_все в нашем 2016 году? Если все будет за автоматизировано настолько, что в этой цепочке человек — не нужен. Но он же должен что-то делать? Вспоминается рассказ Кира Булычева «Поселок», как челы летали по вселенным, изучали миры. Но тогда была цель — нести заветы Ильича вон в ту галактику, и вон в ту, и вон туда тоже! Сейчас, вроде как нести какую-то идеологию — не камильфо. Остаются ресурсы. Не кажется ли — что мы прейдем к какому-то очередному рекурсивном витку, когда ресурсов вроде много, а потом вдруг одному челу захотелось чуточку больше…
      Я сам — за ИИ. Это прогресс, это развитие, это открытие небывалых возможностей именно для человека. Но фундаментальные вопросы, мне лично, кажутся сейчас проработаны плохо.
      Вроде вбросил неплохо, как считаете? :)


      1. xirahai
        29.03.2016 18:23

        Задача автоматизации — избавить человеков от рутины, от необходимости тратить время и силы на суету и быт. В юности было время жил один, и до сих пор помню как в этот период приобрел стиральную машину автомат. Блин я реально почувствовал себя белым человеком, это было незабываемое ощущение когда ужасная и безысходная рутина вдруг снята с плеч раз и навсегда. Так почему бы не избавить человека и от остального что напрягает, оставив только заботы, которыми ему нравится и хочется заниматься. И можно будет полноценно реализоваться в творчестве или других делах, не отягощаясь маслями о неприятных бытовых заботах.
        Человека заменить ИИ не сможет, по крайней мере в формировании очередных задач прогресса — в этом я почему-то уверен. А неразгаданных тайн у природы и интересных перспективных технологий еще очень много, так что никто без работы не останется. Когда на Земле исчезнут как класс дефицит, забота о выживании, политика, преступность — это будет лишь начало конструктивной истории человечества, если конечно оно выберется из нынешнего во многом дикого состояния не успев самоуничтожиться.


        1. say1
          29.03.2016 18:39

          Коллега, таки и вопрос в чем: вот рутина, стиралку купили — рутина ушла. Не поверите, другая проблема — так за расходниками надо следить — покупать порошок, ополаскиватель. Потом белье нужно где-то все таки чуть подсушить. Т.е. возня то есть. А если раз в неделю приходит к тебе чел, забирает вот_этот_мешок, а приносит тебе — вот этот пакет, с проглаженным чистым всем — ээээ… не является ли это +1 к уменьшению рутины? Дальше можно еще +1 попробовать сделать — довести себестоимость изготовления всего того, что нужно стирать к таким суммам, чтобы рациональнее и экономичнее было просто утилизировать что-то грязное, вместо стирки. Тогда не нужно будет ничего стирать, не нужны стиралки, порошки, все_это. Когда и это будет сделано, следующий виток цикла — может быть, увеличения срока службы этой одноразовой одежды. Сначал + 1 день, потом + 2 и т.д. до бесконечности. Потом автоматическое изменение цвета/фасона.Таким образом, проблема рутины в конкретном случае искоренена под 0. Для вас вообще даже нет темы для раздумий.
          И вот представьте — такая маленькая тема стиральной машины в итоге избавит вас от вороха рутинных действий. И каждая такая из маленьких тема — вот везде абсолютно будет полнейшее без участие человека. Человек освободится вообще ото всего. Чем ему заняться, если везде все отлажено/отдебажено и выпущено в продакшен до такой степени, что сам индивид становится каким-то объектом ради которого все это работает. Не получится ли так, что тот ИИ, который к тому времени будет все это поддерживать и развивать, не додумается до простой мысли — ээээ… а зачем мне нужен этот ПАРАЗИТ? Программа уничтожения загружена… плиз вайт :)


          1. xirahai
            29.03.2016 19:20

            Я думаю что даже чисто технически ИИ еще очень долго не сможет подойти к уровню эмоций, сознания, самостоятельной мотивации. Для меня ИИ выглядит как сказочный джинн — практически многое может, но сам по себе ничего не способен захотеть. Зато испытал на своей шкуре другую крайность: была тогда работа прямо сказка — любимое дело, да еще и зарплату платят. И вот однажды осенью перед самыми холодами затеял ремонт окон. Точнее о наступлении холодов не знал, оно случилось раньше срока неожиданно. Плюс форс-мажор в виде сломавшейся машины, и деньги на нуле. И вот сижу я на любимой работе, вместо того чтоб проектировать авральную электросхему — курю на грани эмоционального срыва. Мне тогда лет двадцать было. Повезло с начальником, он раскрутил на разговор, дал небольшой аванс и служебный автомобиль чтоб закупить материалы, и пару дней на окна. В результате скинувши насущные проблемы, с полной отдачей поработал и всё сдали в срок… Не знаю, может у других иначе, но для меня и по сей день рутина — это ад, который надо максимально автоматизировать, чтобы о ней не думать вообще.


            1. say1
              29.03.2016 20:40

              Про эмоции вы знатно однако. А с чего вы взяли что ваши эмоции — они имеют какую-то необъяснимую природу? :) Я убежден, что пока человечество до конца эту тему не раскурило, но в будущем однозначно будут какие-то девайсы, технологии, которые позволят вам испытать абсолютно любую эмоцию. Главное, понять саму физику/химию/механику возникновения оных. Думаю, что когда работа человеческого мозга будет изучена полностью, будут и не такие технологии. И вы вообще, Вы уверены, что эмоции от вашего эмоционального срыва тогда — были именно Ваши? Философский вопрос, да? Если его покурить, тогда уж и второй вопрос следует задать — наши мысли, откуда они рождаются? Кто или что их генерит? Вы читаете эти строки и не знаете какой будет Ваша следующая мысль. Вы управляете своими мыслями? Если вы задумаетесь по серьезному, возможно, придете к такой идее — а не являетесь ли вы абсолютно совершенной машиной, созданной каким-то для нас пока не постижимым интеллектом? Да, не — фигня какая-то, да? :) Так может именно такую эмоцию — отрицания этого факта, в Вас и заложили? Не? А если Вы правда машина — какова цель создания? Какую функцию Вы выполняете? Кому она нужна? Для чего Вас вообще создали? Кстати, а алгоритмы Вашего осознования окружающего бытия, и Вас самих в нем — уникальны? Напишите, что думаете.


              1. xirahai
                29.03.2016 22:14

                С тех времен много лет прошло, да и таким макаром на эмоции давно уже не раскрутить) Насчет происхождения — понятно что не собственные, по большей части результат шаблонной реакции на выход сиьуации из-под контроля. Вообще думаю что личность формируемая с детства — суть программа поведения и стандартных реакций, которая дается окружением как необходимый интерфейс социализации. Потом по мере взросления и как следствие осознавания происходящего — она может быть пересмотрена и переработана в каких-то аспектах. Также толчком к пересмотру могут стать какие-то пограничные стрессовые обстоятельства. А другой может и не счесть необходимым что-либо менять, так и просуществует по базовому шаблону до конца.
                Попытки выявить суть живой материи, выделить четкую границу где программа, а где жизнь — на мой взгляд провальные. Там сколько ни копай, все можно описать и смоделировать. Причину осознавания себя наверное невозможно ухватить. Также как и эмпатию, причины почему одни близки, а вот другие нет. Поэтому либо всё ясно, либо полный тупик.


                1. say1
                  29.03.2016 22:55

                  Ну во видите, до чего Вы дошли? :) Либо все ясно, либо — нет. А теперь давайте задумаемся вот над чем: как мы можем рассуждать на тему — будет ли ИИ добрым или злым, если мы понятия не имеем — а сами то мы не являемся результатом работы того самого ИИ? Можно ли принимать хоть как-то рассуждение одной сущности по отношению к другой, если исходная сущность не знает — реальна ли она, или симулируема, но в то же время утверждает, что вторая сущность — искусственная и добрая?


                  1. xirahai
                    29.03.2016 23:11

                    С самими как раз ясно и понятно — добро и зло гнездятся в рамках базовых программ. Злодейство и порочность — следствие отрицательной и противоречивой внешней среды, зависимостей, психотравм, наследственности. К непостижимой тайне жизни не имеет никакого отношения. Поэтому в том что ИИ не унаследует дурь и порочность человечества — уверен на все сто процентов.


                    1. say1
                      30.03.2016 10:00

                      К цитате: "С самими как раз ясно и понятно — добро и зло гнездятся в рамках базовых программ"
                      Приведу простой пример: идете вы по улице, а на встречу вам мужик. Внезапно мужик бьет Вам в табло. Вы падаете, ломаете руку. Через 5 минут приезжает скорая и увозит Вас в больницу. Ваша базовая программа оценки действий мужика выдаст — злодей? Или вы будет считать его добрым? :)


                      1. Bhudh
                        30.03.2016 10:04

                        Если я — мастер айкидо и в падении-увороте ломаю руку ему: могу и добрым посчитать, как же, такую классную практику на ровном месте подарил.


                        1. say1
                          30.03.2016 10:28

                          А если не мастер?


                      1. xirahai
                        30.03.2016 14:02

                        Весьма надуманный искусственный пример. Подобные используются в притчах на тему относительности добра и зла. Типа сломали руку, попал в больницу — зато избежал чего--то более фатального: встречи с коллектором или кирпича на голову.


                        1. say1
                          30.03.2016 14:22

                          Совершенно верно. Но почему надуманный, и тем более — искусственный? Более того — Вы так и не ответили? А вопрос жизненный не в ключе "дать табло", а в моменте — "добро и зло гнездятся в рамках базовых программ". И коли вы знакомы с этими дзен-притчами, то наверное, понимаете — что находясь в текущем моменте, Вы не можете объективно окрасить какое-то событие в "добро/зло", "хорошо/плохо", "черное/белое". И возвращаясь к первоначальной теме о "добром ИИ", который "не унаследует дурь и порочность человечества", можно сформулировать тот же вопрос — "дурь и порочность для вас/человечества" является ли аналогичным понятием с аналогичной окраской и смыслом для ИИ? Некие, как утверждает автор, общечеловеческие цели будут ли является таковыми для ИИ? Можем ли мы, люди, это утверждать, если порой (да и не порой), у нас на одно и тоже событие разные эмоции/разное восприятие/разная оценка. Уже сейчас задаются вопросы об автомобильном автопилоте — кого принести в жертву — водителя или вон_того_парня, если по мнению опять же ИИ, фатальный конец не избежен и т.д.
                          В свете всего выше сказанного, мне кажется (мое личное мнение, безусловно субъективное), что даже заложив какие-то ну совсем гуманные цели, великие общечеловеские принципы, розовое пушистое добро, при обязательном условии саморазвития и само-совершенствования ИИ, а также многократном превосходстве в вычислительной мощи, вполне возможно что руководствуясь вот те ми самими принципами, оценками, той нашей системой ценности, которая нам покажется совершенно правильной и человечной, ИИ придет к выводу что гуманнее для нас, человеков, изничтожить как вид живых существ. Или же, полностью нас модифицировать до состоянии овощей, чтоб ему было проще нас опекать, контролировать, обезопасить от 100500 болезней и т.д. И она, разумная машина, будет это делать на основе тех самых "заветов Ильича", или какого-то базового свода правил. Вполне возможно, что поведение машины будет порочней всего поведения человечества за всю известную историю существования. Просто машина считает, что это не порочность, а с учетом прогноза на 386 тыс.лет — оптимальная стратегия само-совершенствования. Или направив небесный камень в темечко вон той вороны, она — летя камнем у низ, заденет вон ту ЛЭП, которая в свою очередь обесточит вон ту линию, на которой хостится вон тот родильный дом, в которой уже выведен из строя запасной генератор, и все это сделано для того, чтобы не дать родится вон тому парню, факт которого ИИ уже промоделировал за миллиард лет до его рождения, но за это время он (ИИ) понял, что ошибся, и таким образом — исправляет эту ошибку. Причем, если мы будем оценивать ИИ сейчас — то получается, он убийца какой-то.
                          Вообщем, кажется, это можно играть бесконечно :)))


                          1. xirahai
                            30.03.2016 16:03

                            Насчет опеки и целесообразности перевода в состояния овощей — уже многократно обсуждалось. Здравомыслящий интеллект на это не пойдет, а дауну нежелательно давать рычаги влияния. То же самое и о дальнодействующей перспективе: самоанализ и самоконтроль вероятности ошибки неотъемлимая черта интеллекта. Поэтому как повлияет тапок прилетевший в лобовое стекло на ситуацию черз сто тысяч лет — всерьез никто не будет заморачиваться, т.к слишком велика флуктуационная ошибка.
                            Насчет принципиального вопроса «быть или не быть ИИ» — думаю тут без вариантов «быть», т.к. у человечества давно уже нет выбора. Ну или как назвать когда выбор между точно деградировать и сдохнуть, и появлением каких-то шансов поменяться к лучшему.


                            1. say1
                              30.03.2016 17:02

                              Жаль я не могу цитировать :)
                              "Здравомыслящий интеллект на это не пойдет"
                              "Здравомыслящий" же с человеческой точки зрения? Кажется вошли в рекурсию.
                              "Поэтому как повлияет тапок прилетевший в лобовое стекло на ситуацию черз сто тысяч лет — всерьез никто не будет заморачиваться, т.к слишком велика флуктуационная ошибка."
                              Если позволите, закончу ваше предложение. "Слишком велика флуктуационная ошибка" в НАШЕ время. Когда-то и предсказание погоды — было магией. Однако прошло некоторое количество времени, и представление об этом изменилось. Уже нет вопросов о том, что погоду предсказать нельзя. Вопрос в точности и долгосрочности.
                              По аналогии, если предположить, что вычислительная мощность ИИ увеличится в пока непостижимое нам количество раз, и просчет всех вариантов удара тапка в лобовое стекло на 100 к лет вперед, выполнится за 1 мс, то скорее всего наше мнение и на этот счет тоже изменится. Более того, если есть не нулевая вероятность того, что это уже когда-то произошло, то логично (или нет?) предположить, что тот мир, который известен нам, ничто иное как результат работы такого интеллекта. Пока мы не можем обнаружить дискретность нашего мира и пока вроде как наше пространство непрерывно, мы считаем что "не сынок — это фантастика". Но раньше и молния считалась результатом гнева бога Перуна на людей :) И потом, наше представление о симуляции соответствует… эээ… нашему представлении о симуляции! (спасибо, Кэп, да). Возможно мы еще не дошли до уровня понимания настоящей симуляции.


      1. SBKarr
        29.03.2016 18:53
        +1

        Весь вопрос в том — а зачем человек вапще нужен в этом мире? Так или иначе любой фундаментальный вопрос приходит сюда? Ради чего человек прошёл через средние века, промышленную и индустриальную революцию, придумал себе технологических помощников, придумал и создал ИИ? Ради чего это всё было? Есть бесконечное множество философских идей на этот счёт, но мне нравится думать, что нет никакой глобальной идеи, нет плана, нет смысла в существовании человека. Просто нет, и всё. Мы — случайно появившиеся на этом свете особи, и каждая особь сама для себя решает, зачем оно всё. Кто-то решает потерять своё личное мнение, раствориться в массе, в идеологии, созданной кем-то другим. Кто-то желает сам создать такую идеологию. Кто-то ищет плотских развлечений, а для этого ищет власти, денег, а как обретёт желаемое — останавливается на пике, потерянный и одинокий, без цели и смысла. Кто-то всю жизнь идёт за мечтой, собственноручно созданной идеей, может обрести последователей, соратников, почитателей, послушников, учеников, а может всю жизнь пройти в одиночестве. Каков бы ни был мир вокруг — люди сами поймут, как им в нём жить, а придумывать что-то заранее — бесполезно, всё равно не сбудется. Мы можем лишь постараться, чтобы этот мир был более удобным, красивым, функциональным и совершенным с нашей собственной точки зрения.


        1. say1
          29.03.2016 23:19

          Спасибо, что написали такой развернутый ответ :) Вы знаете, если именно в таком ключе рассматривать бытие, то я думаю — что случайности, как таковой, не существует. Мы — не результат действия теории эволюции, т.к. если это так — тогда нужно очень многое объяснить. А начать эти объяснения вообще с азмъ есть буки: зачем обезьяна слезла с дерева и в конечном итоге стала писать стихи? Ээээ… как там у нас по классике? Бананы кончились на пальмах, а внизу забурлила красивая успешная жизнь, и мне как бы туда уже пора? Я думаю такие как мы есть — мы и были созданы, даже не важно как. С какой целью — это хороший вопрос, и у меня, конечно, нет ответа. Но по каким-то косвенным признакам мы можем немножко восстановить эти цели. Напр., ожирение. Бич второй половины XX века. Как правило, основная причина — много кушать, мало двигаться. Можно попробовать мало кушать. Но всю жизнь же мало кушать не будешь? Значит надо кушать нормально и больше двигаться. Больше работать физически. Если мы начинаем иметь умеренные физические нагрузки, ожирение пропадает и все сопутствующие болявки могут либо тоже как-то под исчезнуть, либо их пагубное влияние уменьшится. Значит, конфигурация нашего тела, создана изначально для физической (не умственной) работы. Далее. Вот основная масса из нас — постоянно сидит на стульях или креслах, за компьютером. Особые крутяги с картинок — лежат у гамаках, капсулах, даже стоят может быть… не суть. И от такой сидки у нас начинаются проблемы с шейным отделом, позвонком. Начинаем сутулится. Получаем +1 какую-то болячечку, которая в свою очередь делает нам -1 в отведенном времени. Значит, изначально наш организм не предназначался для постоянной отсидки. Опять приходим к мысли: движение — жизнь. И видимо именно для этого нас сконфигурировали именно так, как есть. Для какой-то физической работы связанной с движением. И мы для этой работы, при всех равных, подходим оптимально. Понятно, что в первоначальный замысел мы уже и сами вмешались своими добрыми делами: портим экологию, травим нашу планету, изничтожаем себя подобных и т.д., и вроде кажется — что все как-то хаотично. В конце концов, когда счастливчики увидят грибки из окон, красиво подымающиеся к небу, мы откатимся к какому-то бекапу. И опять пару-тройку тысяч лет будет орудовать палками-копалками и изобретать колесо. Возможно, человечество уже миллионы раз доходило до какой-то точки невозврата, и обнулялось. Может в этом и есть смысл нашей симуляции — ИИ хочет понять, мы все таки хоть раз, сможем пройти точку и остаться живыми или нет?


          1. Bhudh
            30.03.2016 09:42

            И видимо именно для этого нас сконфигурировали именно так, как есть. Для какой-то физической работы связанной с движением.
            И взял Господь Бог человека, и поселил его в саду Едемском, чтобы возделывать его и хранить его. (Бытие 2:15)
            Садовник — весьма физическая работа, определённо связанная с движением.


  1. 1Tiger1
    29.03.2016 17:40
    +1

    Мечта о волшебной палочке, которая выполнит любое желание по моему вечна и вездесуща. Знаете как будет выглядеть человечество если разработать ИИ и поставить ему задачу «сделать всех людей счастливыми» (взяв за эталон счастья нечто среднее): аморфная масса свободных веселых сытых безработных идиотов, без желаний и проблем и постоянно под кайфом (чтобы уже наверняка, а то вдруг у кого депрессия от скуки начнется) и пристегнутых к кровати в мягких комнатах, чтобы не поранились случайно.

    95% людей (ну да правило 95% но точно никто не скажет) не хотят работать, изучать новое, развиваться, упорно и тяжело продвигать науку и другие области. Если сильный ИИ сможет заменить человека в какой-то области (а он может и во всех, просто по определению), максимум на что можно расчитывать это что в первые годы люди будут «баловатся» работой. Возможно в первом поколении будут доли процента которые все же будут учится и развиватся и работать потому что интересно, может останутся какие-то ретрограды которые уйдут в леса, но через пяток поколений все это размажется и картина будет как выше описал. Это действительно реально. Мы тупо социально и психологически не готовы к халяве такого масштаба.
    Если бы это было не так, зомбоящик не имел бы такой силы, в универ бы шли не потому что «так положено» и случаи когда в университет идет человек за 40 потому что захотел сменить профессию были бы не единичны а постоянны, не нужны были бы kpi и прочие системы мотивации, дети не воспринимали бы школу как обязаловку, да и система оценок была бы не нужна. И это только краешком задел. Вот когда решим такие глобальные перекосы в мотивации и целях, избавимся от лени (биологический механизм между прочим) и жажды халявы — вот тогда можно и универсальную волшебную палочку делать без 100% шанса деградировать от ее использования.


    1. xirahai
      29.03.2016 18:37

      Думаю вы путаете пичину и следствие. Деградация — не более чем индикатор нездоровья социума, основанного на диктатуре, страхе, лжи, эксплуатации людей. Бессмысленность существования, аркотики и депресняк в нем неискоренимы — не даром повсеместно тонны спиртосодержащей наркоты в шаговой доступности. А вспомните короткий, но незабываемый период в 90-х, когда демократия и свобода уже проклюнулись, а мафия и разруха еще не наступили. Какие живые были лица у людей, и какое ни с чем не сравнимое ощущение подлинности и осмысленности жизни! Сейчас конечно и представить даже трудно.


  1. mortimoro
    29.03.2016 17:53

    Законы робототехники — это конечно хорошо, но:

    1. Если ИИ попадет в мои руки и будет эмулировать мою модель мышления, то в первую очередь он будет блюсти мои личные интересы, а законы робототехники будет соблюдать в достаточной мере, чтобы не палиться. То есть, будет следовать принципу «если никто не видит, то немножко можно». И это при том, что я далеко не самый плохой человек на этой планете. А если попадет в руки деревянных военных, тогда жопа обеспечена.

    2. Помнится история об одном талантливом, но гордом программисте, который написал драйвер под дорогостоящий станок и продемонстрировал его работоспособность. При этом он сообщил руководству завода цену за свои услуги и запретил использовать драйвер в коммерческом производстве. Хитрое руководство, убедившись, что станок работает, решило не расплатиться с программистом и отдало распоряжение запускать его в коммерческую эксплуатацию. В первый же день станок сгорел. Когда представители поставщика станка начали разбираться в чем дело и пересматривать исходный код драйвера, нашли в нем инструкцию, которая после N-го запуска станка повышает напряжение на процессоре, и рядом комментарий: «если этот код сработал, значит они меня не послушались».

    PS: возможно эту историю я на ГТ и читал. Суть ее в том, что пока есть гордые люди, нельзя быть уверенным, что алгоритм работает именно так, как он описан.


  1. NeeK_Odis
    29.03.2016 18:39

    Geek`s не бояться ИИ, они его патчят.


  1. Roman89
    29.03.2016 19:57

    А меня в возможности создания ИИ больше пугает то, что как только он научится самосовершенствоватся, никто не будет понимать как он устроен. А при том что он будет делать любую интеллектуальную работу лучше и дешевле людей — люди могут потерять интерес к такой работе. Как результат мы будем иметь что-то вроде неподвластного пониманию божества, несколько «жрецов» которые могут хоть как-то объяснить его действия остальным 95% людей, что бы те вдруг не пошли на него с факелами и вилами в приступе религиозного фанатизма.


    1. xirahai
      29.03.2016 22:24

      Когда начали распространяться счетные калькуляторы, которые даже без программирования — тоже кое-где была паника на тему куда девать огромный штат высоко квалифицированных кадров. Со временем всё утряслось, и уж точно не стало хуже… А насчет ЭВМ так вообще слово в слово — думали на весь мир пяток машин достаточно. Но оказалось вона как… Большая часть населения не понимает как они работают, тем не менее используют вовсю и не парятся.


      1. Tanyku
        05.04.2016 12:20

        Вы человек причастный к программированию и компьютеру, понимаете как всё работает и устроено.
        А существуют люди, которые верят в "богоподобность" машин и это не старики, а молодое поколение. Тобишь, считают, что компьютер им талант и интеллект прибавит, стоит лишь нажать на кнопочку.
        Вы по комментариям смотрите как-то однобоко, будто все хотят саморазвития и уже априори умные. Хотя цель нашего мозга — сократить энергетические расходы, и у кого-то это получается лучше (это не к вам относится =).


  1. ggka
    29.03.2016 20:46

    Меня вот не пугает, восстание машин по типу «Терминатор». Больше беспокоит замещение человеческого труда роботизированным.
    Да, робот это всего лишь инструмент, но этот инструмент все больше вытесняет человечески труд. Если бы мы жили в более совершенном мире, то можно было бы только порадоваться, тому, что человечество освобождается от труда и приближается к всеобщему благосостоянию и процветанию. Но ресурсы нашей планеты исчерпаемы, технологии несовершенны, социальное неравенство никто не отменял. А потому существует опасность, что плодами роботизации будут пользоваться лишь привилегированные слои. Для остальных же роботизация не сулит в ближайшем будущем ничего хорошего. Ресурсы уже по сути не принадлежат населению Земли, с чего бы вдруг те кому они по факту принадлежат расщедрились и начали раздавать безработному населению.
    Возможно эту проблему успеют решить, например освоением космоса, либо более эффективным использованием ресурсов. Посмотрим…


    1. earl911
      30.03.2016 12:26

      Такого «восстания машин» точно не будет, это не рационально, для такого высокого разума. Скорее это будет похоже на миг. Вот вы живете и бац вы уже чья-то марионетка, вас «перепрошили» на выполнение нужных задач или просто уничтожили. Противостоять этому будет невозможно…
      П.С. Разве что если сделать шляпу из фольги =))


  1. scifix
    30.03.2016 08:27

    Меня в ИИ больше пугает, что его не смогут создать в ближайшем будущем. начать писать статьи на эту тему чтоли)


  1. strlock
    30.03.2016 09:30

    Главное не называть созданный человеком интеллект искусственным, а то может обидеться и убить всех за расизм)


  1. earl911
    30.03.2016 12:19

    Говорят, что когда-то на Земле жили боги, и где же они сейчас? Это я тем, кто считает себя «венцом творения»…


    1. say1
      30.03.2016 13:08

      Чтобы ответить на Ваш вопрос, надо понять — как появились эти "боги" на нашей планете. С какой целью они пришли, с какой целью нас создали. И кстати, хорошо бы ответить на вопрос, кого мы считаем "богами, жившими на когда-то на Земле"? Напр., если рассмотреть ту самую пирамиду, можно ли сказать, что ее построили "боги"? Или нельзя? А если можно, не получилось ли так, что те технологии — безвозвратно утеряны и забыты, но все таки построили ее обычные человеки? Или же вообще пирамиду построили люди, но той техники уже нет? Или есть, но мы ее никак не найдем? :) Вы сами что вкладываете в понятие "богов, которые жили"?


    1. Darth_Biomech
      30.03.2016 15:20

      А ещё говорят, что Атлантида правда-правда существовала.


      1. earl911
        31.03.2016 08:48

        Еще говорят что уровень мирового океана постоянно-постоянно растет.


  1. michael_vostrikov
    30.03.2016 21:40

    Почитал комментарии. Такое ощущение, что для многих искусственный интеллект это волшебная палочка, которая «оно само как-то работает».

    Настоящий искусственный интеллект это полный аналог естественного интеллекта, с возможностью влиять на отдельные процессы и параметры. Цель его создания — получить помощников. Помощников, которые смогут выполнять задачи аналогично человеку, но которых при этом можно полностью контролировать, и которым для функционирования не нужно ничего, кроме электричества.

    «Полный аналог» означает, что в некоторой ситуации ИИ будет поступать так же, как поступил бы человек, будет анализировать данные по таким же принципам, как это делает человек, неважно эффективнее или нет. Это не математический алгоритм, который ищет корреляции в наборе чисел.

    Для создания ИИ нужно знать принципы анализа данных, принципы взаимодействия нейронов. Поэтому если конкретный экземпляр ИИ начнет себя вести странно или непредсказуемо, можно взять отладчик, найти причину и исправить. В случае с биологическим интеллектом это сделать невозможно.

    Для обучения ИИ человеческим ценностям можно специально ввести эмоции, любую эмоцию вполне можно эмулировать отдельным счетчиком уровня этой эмоции с положительной или отрицательной связью. Для выполнения конкретных задач часть эмоций можно отключить, установившиеся нейронные связи между понятиями никуда не исчезнут.

    Поэтому ИИ это не волшебная палочка, у него есть свои законы функционирования. Также есть законы физики, которые никакой интеллект обойти не в состоянии, ни искусственный, ни естественный.