В последнее время тема искусственного интеллекта стала в СМИ одним из мэйнстримов и нас все чаще пугают пророчествами от многих известных людей, как например, от Стивена Хокинга (вселенная ему пухом) или Илона Маска, об опасности его развития. Подобная алармистская риторика подразумевает, что собственно искусственный интеллект, во-первых, станет субъектом, а во-вторых, будет иметь негативные намерения в отношении как отдельных людей, так и всего человечества в целом. Вот об этих предположениях давайте и поговорим подробнее.

На текущий момент все системы, включающие искусственный интеллект в каком-либо виде (будь то нейронные сети, экспертные системы и т.д.), используют его как прикладной инструмент. То есть как некий автомат, у которого есть четко ограниченная область выполняемых действий/задач и, соответственно, потребляемой и выдаваемой информации. В такой форме ИИ не может иметь каких-либо собственных намерений, кроме как заложенных в него конструктивно. А значит это намерения не ИИ-системы, а ее создателей. И, даже если система с таким автоматом-ИИ и сработает так, что причинит вред, то это не будет говорить о злом умысле ИИ, а только лишь о неправильном функционировании системы, причиной которого может быть, например, неисправность, ошибки проектирования системы или неверное обучении ИИ.

Мы попробуем здесь ответить на вопрос как может быть спроектирована ИИ-система и какими свойствами и способностями она должна обладать, чтобы ее уже нельзя было считать просто ИИ-автоматом, а можно было бы рассматривать, как некий субъект.

Итак, чтоб быть субъектом, ИИ-система должна иметь возможность самостоятельно строить оценки поступающей разнородной информации и принимать решения, а также возможность воздействовать в широком диапазоне на окружающую действительность на основании этих оценок и решений. А для того, чтобы иметь негативные, или какие-либо еще, намерения и принимать решения о действиях нужна мотивация («Мотивация, Карл!»). То есть то, что движет субъектом, заставляет его действовать. Соответственно, некая первичная мотивация должна быть заложена в ИИ при его создании. Либо же мы можем ждать ее самозарождение – возможно следующий миллиард лет, как потребовалось для возникновения жизни в аминокислотном супе.

Человек, когда создавал что-то сложное, часто заимствовал технические решения у природы, то есть использовал то, что уже доказало свою работоспособность и эффективность. При создании ИИ-систем мы также можем присмотреться к тому, как устроены мы сами и какие механизмы использованы природой, чтобы сделать нас способными к длительному автономному и (хочется верить) успешному существованию.

Для начала давайте вспомним, какие первичные мотивации есть у всех живых существ, что заставляет их двигаться. Очевидно, что первичных мотиваций всего две: инстинкт самосохранения и инстинкт размножения, то есть либидо. Фактически, эти первые две эволюционные адаптации, которые были проведены естественным отбором, и были созданием жизни из неживой материи. Они же постоянно естественным отбором и поддерживаются– грубо говоря, всё, что не старается сохранить себя и воспроизвести, просто не выживает. Есть теории, говорящие, что подобными свойствами, то есть стремлением к самосохранению и самовоспроизведению, обладает сама информация, как таковая (например, Д. Глик «Информация. История. Теория. Поток», Р. Докинз «Эгоистичный ген»).

В сложных живых существах механизм реализации первичных мотиваций заложен в самой структуре организма (и мозга, в частности), созданной эволюцией. Например, когда у животного падает уровень глюкозы или желудок сигнализирует об избытке секреции, включается программа самосохранения и поддержания гомеостазиса, и, как следствие, животное начинает искать еду. В другом случае, если обстоятельства расцениваются существом как угрожающие, то включается программа спасения «бей или беги». Или же обстоятельства могут быть расценены как способствующие воспроизводству, тогда включится программа размножения, и мозг существа получит мощное гормональное подкрепление соответствующего поведения. Вся эта кухня реализована на уровне «рептильного» мозга, то есть той части мозга всех сложных живых существ, которая унаследована ими с незапамятных времен возникновения первых животных. И такой механизм за миллионы лет доказал свою успешность и эффективность.

Было бы, вероятно, достаточно нетрудно сконструировать ИИ-систему, действующую по похожему алгоритму. Но нам более интересен случай, когда ИИ-система могла бы строить сложные оценки и имела бы более сложную структуру мотиваций, чем первичные. Для того, чтобы понять, как можно было бы это реализовать, давайте рассмотрим, как это происходит у людей, то есть почему люди, имея те же самые первичные мотивации, могут и совершают столь разнообразную деятельность.

Основным способом, которым люди трансформируют первичные мотивации в другую деятельность является сублимация – преломление первичных мотиваций через структуру своих ценностей и соответствующих им целей. А ценности и цели — это понятия сугубо лингвистические, то есть несуществующие вне языка. Действительно, такие вещи как «развитие», «здоровье», «знания» и т.д., это языковые категории, причем для каждого отдельного индивида они могут означать совсем разное. И их отличительным признаком, как известно, является то, что их нельзя «положить в тачку». Ценности у индивида образуют граф, где собственно ценности – это его вершины, а ребрами являются убеждения, связывающие ценности. Например, «здоровье — это счастье» или «чтобы достичь успеха необходимы знания» или «только богатство дает удовлетворение от жизни» — все это связи между ценностями. Таким образом, ценностный граф и является ядром личности индивида.

Преобразуясь через этот ценностный граф, первичные мотивации могут трансформироваться в более сложные и нетривиальные мотивы и цели. Например, человек создает организацию или развивает научную область или проявляет другую творческую активность – все это является реализацией его первичной мотивации к самовоспроизводству. Только воспроизводимые объекты уже не человеческие существа, а конструкции из идей, интересов и убеждений своего создателя. В другом случае, если даже человек просто ходит на работу чтоб зарабатывать деньги, толкает его на это не что иное, как сублимированная мотивация к самосохранению. Резюмируя, можно сказать, что структуры мозга (в том числе «рептильного») и организма и встроенный в человека язык дополняют друг друга в процессе преобразования первичных мотиваций в сложные цели.

Тогда, если мы хотим, чтобы ИИ-система была субъектом/личностью и у нее могли возникать мотивации вида «ради развития» или «во имя всеобщего блага» или любой другой не заложенной конструктивно мотивации, она должна обладать, во-первых, первичными мотивациями и, во-вторых, встроенным языком и построенном на базе него графом из ценностей и убеждений. Причем ее первичными мотивациями не обязательно должны, но могут быть самосохранение и размножение.

Кроме того, ИИ-система может обладать такой интересной и полезной эволюционной адаптацией, как самоосознавание, которое состоит из понимания границ между «я» и «не я» и из осознавания результатов собственной мыслительной деятельности (что в современный нейронных сетях реализуется достаточно просто – путем подачи выходного сигнала сети снова на ее входы). Эта эволюционная адаптация очень способствует самосохранению: для существа, не осознающего границ между «я» и «не я», нет и смысла, например, сопротивляться хищнику, пытающемуся откусить у существа конечность, потому что в случае отсутствия таких границ интересы этого хищника также должны быть включены в интересы существа. А осознавание результатов собственной мыслительной деятельности помогает решать задачи итеративно, то есть появляется возможность решать задачи, сложность которых требует вычислительных мощностей больших, чем располагает мозг существа одномоментно. Способность же решать сложные задачи (в том числе и ради выживания) дает эволюционное преимущество и, соответственно, поддерживается естественным отбором.

Также, в ИИ-систему может быть заложена возможность управлять вектором своей мотивации, каковой способностью обладает (но очень часто не использует) любой субъект homo sapiens. Тут можно даже способность управлять вектором своей мотивации использовать, как критерий разумности: то есть тот, кто не способен или не управляет своей мотивацией, – не разумен.

Как уже где только не было написано (разве что не на заборе), человеческий мозг содержит порядка 86 миллиардов нейронов, каждый из которых может иметь до 20-30 тысяч связей (синапсов). Причем львиная доля (порядка 90%) этого вычислительного ресурса расходуется не на собственно высшую нервную деятельность, которая происходит в префронтальной коре головного мозга, а на вспомогательные задачи, такие как поддержание и управление биохимическими процессами в организме, обработка зрительной и слуховой информации и т.д. Природа сначала создавала нервную систему именно для выполнения этих задач, пока не обнаружилось, что нейронная сеть отлично подходит и для реализации собственно интеллекта.

В ИИ-системах все эти вспомогательные задачи (если возникнут) могут решаться специализированными устройствами, не требующими столь больших вычислительных мощностей, в то время как нам пока не удалось придумать ничего более подходящего и эффективного для реализации интеллекта, чем нейронные сети.

Поэтому, по очень приблизительным прикидкам, можно рассчитывать на создание ИИ-субъекта с интеллектом эквивалентным человеческому на базе нейронной сети с мощностью порядка 8 миллиардов нейронов. Если считать, что нейрон в среднем связан с 1000 других нейронов и сеть должна функционировать со скоростью до 40 Гц (бета-ритм мозга человека), то необходимая вычислительная мощность составляет «всего» около 250 терафлопс. Например, 40 видеокарт NVIDIA GeForce GTX 1070 в связке могут обеспечить такую производительность.

При этом такие ИИ-системы могут обладать рядом преимуществ по сравнению с живыми существами. Для начала, в отличие от мозга, ИИ-систему легче обслуживать – ей не требуется ежесекундная подача насыщенной калориями и кислородом, а также разнообразными гормонами в очень точных пропорциях, крови. Ее можно чинить, что с мозгом человека удается проделать крайне редко. Ей не нужен сон или отдых в таких количествах, потому что исключительно электрический механизм, не требует возобновления рабочих веществ, как это требуется химико-электрическому мозгу. Опять-таки, целиком электронная система может функционировать на частотах существенно больше, чем 100 Гц, которая, по-видимому, является ограничением для мозга из-за его химико-электрической структуры (здесь под частотой подразумевается количество срабатываний всех нейронов в сети в секунду). Также, вероятно, ИИ-системы не будут обладать ограничением на количество единиц внимания, которое присутствует у людей – нам доступно 7±2 единиц внимания одномоментно.

И тем не менее, такие ИИ-системы в обозримом будущем будут проигрывать людям в сложности и многофакторности просто в силу того, что нейрон в нервной системе человека сам по себе очень сложный молекулярный механизм, зависящий от огромного числа параметров, в отличие от нейрона современных нейронных сетей, имеющего простую структуру.

Комментарии (68)


  1. DjSens
    01.09.2018 22:36

    До сильного ИИ ещё лет 20 минимум, но статьи про него пишут и будут писать каждый день, иногда через день, и так все 20 лет… get ready for this!


    1. vassabi
      02.09.2018 00:13

      ИМХО, основная мысль — вычислительных мощностей уже должно хватать, чтобы сделать сильный ИИ, нет только теории и софта.
      (как аналогия — мы умеем делать линейки, но еще не знаем про логарифмы. Как только додумаемся до них — то сразу же умственную работу 10ти человек, будет делать один с нужным инструментом)


      1. Sychuan
        02.09.2018 23:37

        сновная мысль — вычислительных мощностей уже должно хватать, чтобы сделать сильный ИИ, нет только теории и софта.

        Учитывая, что современные нейросети, например, имеют в сотни тысяч раз меньше нейронов и синапсов, чем мозг млекопитающих, или что провести симуляцию мозга даже какой-нибудь лягушки целиком (даже не риал-тайм) и близко не возможно, это как-то сомнительно насчет достаточности мощностей.


        1. alexeykuzmin0
          03.09.2018 00:12

          ИНС с биологическими нейронами роднит разве что только название


        1. sim31r
          03.09.2018 01:04

          Только искусственный нейрон формирует сигнал на выходе за 1 нс, а биологический за 5 000 000 000 нс. Искусственные нейроны обмениваются сигналами на скорости до 300 000 000 м/с, биологические 20 м/с. Из этого как минимум следует предположение, что копировать биологические нейроны и мозг нет смысла, можно создавать более рациональные структуры сразу, типа сверточных нейросетей.
          С лягушкой сложность разве что в построении карты мозга. С червями проще и симуляторы уже работают


  1. DjSapsan
    02.09.2018 03:11

    Очередные "диванные" рассуждения. Где хоть какой-то пруф-концепт? Тот же ИИ по методу "Глокой куздры" отлично подкрепляет рассуждения одного гражданина. А тут пустая болтовня.
    А теперь по поводу самой вашей идеи. Интеллект намного больше, чем граф ценностей. Например, шахматная программа не только стремится вижить — победить, но и четко осознает ценность каждой фигуры и позиции. Раньше ценность рассчитывалась программистом. А новые шахматные ИИ уже сами это делают. Также программа знает где свои фигуры, а где чужие. По вашей логике, данная программа является "субъектом" с интеллектом?
    На самом деле всё намного сложнее чем парочка видеокарт. Да и сон нужен не просто ради химического восстановления.


    1. spiral17 Автор
      02.09.2018 07:08

      В вашем примере шахматная программа имеет только одну мотивацию — играть шахматную партию и выигрывать, и она не может никак трансформировать эту мотивацию в, например, желание покататься на лыжах. В этом смысле она является ИИ-автоматом, а не субъектом.
      Интеллект ИИ-системы конечно не определяется графом ценностей, а определяется способностями нейронной сети или экспертной системы или другого механизма — того, на базе чего она реализована.
      Моя мысль в том, что чтобы трансформировать базовую мотивацию во что-то иное необходим граф ценностей («ценность» тут это не числовая оценка, а языковая категория) и соответственно, чтобы получить этот граф, ИИ-система должна быть обучена языку — русскому, английскому, китайскому — какому угодно.


      1. Frankenstine
        02.09.2018 14:12

        Если уж говорить про «мотивацию» (цель), то её задают разработчики (программисты). Если вы захотите построить ИИ, цель которого выбирается им самим — вам придётся сначала выяснить, каким образом ставим себе цель мы. И тут вы поймёте следующую вещь: мы ставим себе цель в ответ на наши нужды, телесные там, или духовные — всё равно. Ну а какие нужды могут быть у ИИ? Правильно, никаких. Наш интеллект проистекает из свойств нашего тела, а ИИ не имеет физического тела, техника на которой он работает не в счёт. Итого — тупик, вся статья ниачём. Цели для ИИ всегда будет определять человек, и делать этот ИИ будем мы под конкретную задачу. Универсальный (т.н. «сильный») ИИ на текущий момент — утопия.


        1. spiral17 Автор
          02.09.2018 19:09

          Вы правильно заметили, что цели формируются в ответ нужды человека, то есть на его мотивации. Если в ИИ-систему заложена какая-либо мотивация, то у нее будут и нужды, а значит и цели. Для примера выше — мотивация у играющей в шахматы системы: выигрывать, а соответствующие нужды и цели — сделать следующий ход оптимально для выигрыша. А если заложить в нее еще и способность трансформировать свою мотивацию, то получим систему, которая сама определяет для себя цели.


          1. Frankenstine
            02.09.2018 19:39

            Если в ИИ-систему заложена какая-либо мотивация, то у нее будут и нужды, а значит и цели

            Подождите, вы же ратуете за то, что ИИ будет сам себе мотивацию/цели придумывать, а не будет оно заложена нами.
            мотивация у играющей в шахматы системы: выигрывать

            Заложенная человеком.
            если заложить в нее еще и способность трансформировать свою мотивацию

            Вы хотя бы алгоритм такой способности сможете сформулировать? Вот есть цель — выиграть в шахматы. Куда вы её будете «трансмутировать», а? В цель проиграть? Глупо. В цель выиграть в доту2? Глупо. В цель уничтожить человечество? Хаха. Кажется, вы говорите о том, смысла чего не понимаете.


            1. spiral17 Автор
              02.09.2018 19:52

              Вы хотя бы алгоритм такой способности сможете сформулировать? Вот есть цель — выиграть в шахматы. Куда вы её будете «трансмутировать», а? В цель проиграть? Глупо. В цель выиграть в доту2? Глупо.
              Могу предположить, что Вы преобразуете свою первичную мотивацию к самосохранению в цель зарабатывать деньги, и делаете это посредством лингвистических умозаключений, хоть может быть и не всегда явно осознанно. Глупо ли это?
              Имея возможность трансформировать мотивацию, шахматная машина может, к примеру, захотеть сделать себе апгрейд или решит как то воздействовать на соперника — и все это с целью выигрыша, то есть на базе первичной мотивации.
              Алгоритм же такой способности и есть язык (английский, русский, ...) — вся статья об этом.


              1. Frankenstine
                02.09.2018 21:15

                Могу предположить...

                И предположить, в общем-то, неверно. Я зарабатываю довольно небольшие деньги по сравнению с коллегами моего уровня, просто потому, что мне нравится работать в нашем коллективе.
                Вы можете себе представить, что ИИ что-то нравится? Построить мотивацию на этом? Ведь фактически, «нравится» — биохимическая реакция…


                1. spiral17 Автор
                  02.09.2018 21:42

                  Ведь фактически, «нравится» — биохимическая реакция...
                  Если речь идет о «нравится самка», то возможно в некоторой степени — да, биохимическая. Если говорить о том, что «нравится картина», то тут скорее «нравится» это совпадение с вашими внутренними критериями «красоты» (которое уже может вызывать биохимическую реакцию выброса гормонов удовольствия), и всё это — понятия лингвистические.


                  1. Frankenstine
                    02.09.2018 23:47

                    Ну да, ну да… Учитывая, что «внутренние критерии красоты» не являются лингвистическими понятиями (о вкусах, как известно, не спорят, да и объяснить их логически нельзя), вы не можете заложить их в ИИ, следовательно, не можете дать ИИ возможность отдавать самостоятельно (без ручного написания имитации чего-то вроде эмоций на основе таблицы «хорошо/плохо») предпочтения, следовательно, опять вы в тупике. Кстати, некоторым людям нравятся разные уродливые штуки, или отвратительные действия. Это вам чтобы окончательно осознать тупиковость идеи мотивации ИИ.


  1. phenik
    02.09.2018 08:20

    А зачем воспроизводить все особенности человеческой личности в ИИ? Это и пугает многих, умножая число сторонников взглядов Хокинга и Маска, а не вовсе некий обезличенный ИИ. Более перспективным видится ИИ, как расширение интеллекта человека, или как их симбиоз, для выполнения задач, кот. ставит человек.


    1. Fracta1L
      02.09.2018 09:56

      Как бы странно это ни звучало — чтобы лучше понять самих себя. В порядке фантазии можно представить психологию/психиатрию будущего с моделированием различных ситуаций и методов лечения как раз на таких вот ИИ.


      1. phenik
        02.09.2018 13:01

        В исследовательских целях конечно, но в плане заболеваний, больше подойдут те, что моделируют реальные нейроны и коннектом. В противном случае это будут патологии ИНС, а не человека) Хотя могут быть и параллели. Сейчас такие проекты моделирования мозга есть в Европе и Штатах.


    1. spiral17 Автор
      02.09.2018 10:27

      Затем, что кто-нибудь обязательно создаст ИИ с самоуправлением своей мотивацией, и произойдет это вероятно очень скоро. И лучше бы чтоб такие ИИ унаследовали некоторые ограничения человеческой личности — моральные, например.


      1. vassabi
        02.09.2018 11:25

        И лучше бы чтоб такие ИИ унаследовали некоторые ограничения человеческой личности — моральные, например.
        или хотя бы, чтобы такие были созданы первыми и следили (потому что они по идее будут шустрее людей) за созданием ИИ не обладающими такими ограничениями — людьми, которые тоже без таких ограничений.


      1. sim31r
        02.09.2018 11:34

        У человека моральные ограничения просто инструмент для гармоничного сожительства внутри общества. Когда люди объединяются в корпорацию или государство, работает надличностный интеллект без морали, это тоже ИИ только корпоративный. Именно такой «ИИ» принимает решение о начале войны, применения оружия массового поражения и подобное, примеры есть в истории, исходя из цели оптимизации по прибыли и снижения затрат.
        ИИ замечательно впишется в такой корпоративный аналитический отдел.


      1. phenik
        02.09.2018 13:33

        ИИ с самоуправлением своей мотивацией
        Похоже на проявление свободы воли. И вообще, ваше писание навивает: и создал Человек ИИ по образу и подобию своему..) со всеми вытекающими последствиями, в вид Авеля и Каина и тд.

        Всегда задаю вопрос в обсуждении подобной темы — милые человеческие страстишки тоже будем воспроизводить в таком морализованном ИИ? Или они сами заведутся?


      1. Frankenstine
        02.09.2018 14:15

        кто-нибудь обязательно создаст ИИ с самоуправлением своей мотивацией, и произойдет это вероятно очень скоро

        Нет оснований так полагать. Возможно, такого ИИ вообще никогда не будет создано. На данный момент нет даже теоретических предпосылок к его созданию. Мы даже не знаем, каким образом человек имеет (о)сознание и способен мыслить.
        Невозможно создать то, работу чего не понимаешь.


        1. arielf
          02.09.2018 20:28

          В целом — возможно, например, всего лишь скопировать мозг человека на функциональном уровне. В общем, так щаз ИИ и развивается.


          1. Frankenstine
            02.09.2018 23:57
            +1

            Хаха три раза. Мозг обезьян является гораздо более функциональной моделью человеческого чем мы можем создать, однако интеллекта в нём достаточного уровня не наблюдается. Всё, что нам удалось повторить «как у природы» — небольшие участки зрительной коры, обрабатывающие сигналы. О том, как функционирует неокортекс (в котором, по всей видимости, и осуществляется высшая нервная деятельность — мышление), мы до сих пор знаем очень мало.


      1. jrthwk
        03.09.2018 11:58

        >чтоб такие ИИ унаследовали некоторые ограничения человеческой личности — моральные, например.

        /рукалицо
        Людей которые ратуют за внедрение неких «человеческих моральных ограничений» в ИИ надо принудительно отправлять на курсы изучения этнографии, истории, ну и криминологии заодно.


  1. sim31r
    02.09.2018 11:27
    +3

    Ошибка в логике

    И тем не менее, такие ИИ-системы в обозримом будущем будут проигрывать людям в сложности и многофакторности просто в силу того, что нейрон в нервной системе человека сам по себе очень сложный молекулярный механизм, зависящий от огромного числа параметров, в отличие от нейрона современных нейронных сетей, имеющего простую структуру.

    Нейрон сложнее да. Но не значит что он лучше. Жировая клетка тоже сложнее логического элемента и что?
    Тут полная аналогия крыла птицы и крыла самолета. Крыло птицы сложнее, но по всем параметрам хуже крыла самолета, по долговечности, достижимым скоростям, практичности, надежности. Ни кто же не будет на самолеты ставить крыло птицы, только потому, что оно сложнее.
    По параметрам как-раз нейрон вообще органический хлам, просто природа ничего лучше не придумала за 1 миллиард лет эволюции.
    Время релаксации нейрона 5 мс, или 5000 мкс. Полупроводниковые ячейки, в том числе аналоговые мемристор-подобные ячейки отрабатывают за 0.0001 микросекунду.
    По нервам еще хуже, скорость распространения сигнала в нервах 20 м/с, в электронных схемах ~300 000 000 м/с и этого уже не хватает, снижают геометрические размеры устройств чтобы увеличить быстродействие, скорость света ограничивает быстродействие.
    Плюс эволюция нейронов зашла в тупик, а электроника развивается, эффективные нейросети уже не работают на CPU, GPU, им нужны TPU юниты, которые лучше год за годом.

    Вот еще хорошая статья по ИИ
    Революция Искусственного Интеллекта
    interpreted.d3.ru/perevod-revoliutsiia-iskusstvennogo-intellekta-684922/?sorting=rating


    1. Fracta1L
      02.09.2018 17:41
      +2

      Вот да, я тоже считаю, что сложность мозга, т.е. дикое количество нейронов и связей между ними — следствие эволюционного происхождения с кучей легаси, а не что-то необходимое для работы разума и сознания. Косвенное подтверждение этому — малые размеры неокортекса относительно всего мозга.


      1. Frankenstine
        03.09.2018 00:08

        малые размеры неокортекса относительно всего мозга

        Да вроде не такие уж и малые — кора это 44% полушарий, а неокортекс это 95% коры. В сравнении с животными, неокортекс у нас гигантский.


    1. DjSapsan
      03.09.2018 00:57

      Да ну. Называть нейроны хламом глупо. Нельзя назвать вещь глупой, не посмотрев на ТЗ. А у биологии ТЗ нереально сложное. Вот задайте современным инженерам такое задание и просмотрите, что они скажут:
      1) Максимально возможная энергоэффективность. Производительность всех компьютеров мира запитана от 100 Вт.
      2) Сверхкомпактность и околонулевое тепловыделение. Производительность всего мира в маленьком шарике и пассивное охлаждение (ну можно добавить немного жидкостного охлаждения)
      3) Самостоятельный ремонт.
      4) Самопроизводство и ресурсозатраты. Объект выращивается из микроскопической точки в небольшой камере. Современным же ЦПУ нужны сверхиганские-сверхчистые-сверхзатратные производства плюс огромное число сопутствующих вещей (добыча ресов, переработка, рабочие руки...)
      5) Сверхнадежность. После утери большой части органа продолжать работу, уцелевшие части берут на себя работу утерянных частей (по возможности). Современные микросхемы боятся малейших пылинок.
      И еще огромная туча пунктов. Успехов )


      1. sim31r
        03.09.2018 07:47
        +1

        1. А почему вы сравниваете с игровым ПК? Там видеокарта рендерит 100 кадров в секунду, мозг на такое в принципе не способен, если закрыть глаза и представить комнату, будет просто размазанный образ, тут пол, тут дверь (а может и не тут) и всё. Можно сравнить с мобильным телефоном, потребление 0.25 вт, посчитайте на телефоне в калькуляторе 123*123=? и посчитайте это в уме. Телефон потребит 0.001 дж за 1 миллисекунду, мозг потребит 1000 дж. Мозг потребляет кстати много, около 10Вт, круглосуточно, даже когда спит. Весьма приличное потребление.
        2. Тепловыделение 10Вт круглосуточно, телефон многоядерный в спящем режиме может 0.01 Вт потреблять. Производительность это смех, считаем в уме 123*123, это операция с 7-битными числами всего-то.
        3. Ремонта нет. Просто мозг изначально избыточен и клетки могут брать на себя функции пострадавших соседних, но не всегда. Есть области мозга где малейшее повреждение приводит к нарушению рассудка и смерти. Хорошо ремонтируется кожа и кончики пальцев, больше чудес в организме нет.
        4. Самовыращиваение до полного развития 20 лет? Электроника может за считанные часы формироваться. Причем ресурсов и обслуги младенцам тоже надо не мало.
        5. Нету сверхнадежности, наши мозги изначально полны глюков и когнитивных искажений. После 25 начинают отмирать клетки. Устойчивость к радиации в 10 000 раз ниже, чем у бытовой электроники (а есть радиационностойкая). Работа в вакууме без проблем. Пылинок электроника не боится, там герметично всё.


        1. Fracta1L
          03.09.2018 08:51

          1. sim31r
            03.09.2018 12:02

            были получены неоспоримые доказательства нейрогенеза в субвентрикулярной зоне и субгранулярной зоне (части зубчатой извилины гиппокампа) у млекопитающих, в том числе у людей

            Весьма ограниченный ремонт.


        1. DjSapsan
          03.09.2018 13:03
          +1

          1. Как раз я не сравниваю с игровым ПК! Я грубо округлил потребление энергии. Если более точно, то мозг кушает 30 Ватт в среднем (как обычный ноут). По вопросу производительности цитата:

          В 2014 году все компьютеры мира сравнялись по производительности с одним человеческим мозгом. А в 2015 году четвертый по мощности суперкомпьютер в мире в течение 40 минут сымитировал только одну секунду активности мозга человека.

          (насколько я знаю, подсчет такой — количество связей * скорость их работы)
          2) Посчитайте и сравние тепло на каждый флопс
          3) Посмотрите на инвалидов после инсультов. Читайте исследования
          4) Электроника сама себя не вырастит. Я писал о всей необходимой инфраструктуре. Человек образовывается в камере намного меньшей, чем самый топовый процессор. А
          5) Неверно. Кигнитивные искажения — неизбежный артефакт абстрагирования, и к неправильной работе отношения не имеет, ведь так и задумано. Электроника боится пылинок, даже потери единственного транзистора ведут к поломкам целого процессора либо отключению блоков. Мозг может деформироватся, его могут резать и повреждать, работу он продолжит (вопрос психики не затрагивается)

          П.С. Ваше сознание не может оперировать числами, потому что работает на сверхвысоком уровне абстракции. Сами попробуйте в фотошопе посчитать 1+1 нарисовав цифры на холсте. Каждый нейрон в отдельности как раз арифметикой и занимается, просто это вам незаметно.


    1. glioma
      03.09.2018 16:29

      Крыло птицы хуже крыла самолёта, спорный момент. Время жизни хищных птиц порядка 60 лет, всё это время их крылья выполняют свою функцию целиком и полностью, они практичны, (не требуют сложного ухода), они не ломаются сами по себе, выдерживают необходимые скорости, просто природе не понадобилась птица с параметрами самолёта.


  1. VuX
    02.09.2018 13:28

    Прекрасная статья. Я бы добавил что первичные мотивации, самосохранения и инстинкт размножения, имеют двухстороннюю связь — что бы самосохраниться нужно размножиться и что бы размножиться нужно самосохраниться и добавить к связям уровень приоритета. Но я больше склоняюсь к тому что на уровне нейронных сетей невозможно создать высокоуровневые цели и логические заключения. Да и современные компьютеры к этому мало подходят. В языках программирования есть два основных типа операций, это математические и логические (кроме текстовых). И если использовать именно их, то можно описывать более высокоуровневые логические выводы. А нейронные сети отдать «железячникам» для создания соответствующего процессора. И не нужно забывать о трех законах робототехники, они вполне подходят под первичные мотивации для ИИ.


  1. michael_vostrikov
    02.09.2018 14:07

    А ценности и цели — это понятия сугубо лингвистические, то есть несуществующие вне языка.

    Животные защищают потомство, не зная языка. Чтобы напасть на конкретного нападающего, надо иметь цель. Или они могут играть друг с другом, кусая не по-настоящему. Кошка может подвинуть лапой кусок еды из края миски на середину, чтобы съесть.


    развивает научную область или проявляет другую творческую активность – все это является реализацией его первичной мотивации к самовоспроизводству

    Почему желание что-то сделать не может быть самостоятельной мотивацией?


    она должна обладать, во-первых, первичными мотивациями и, во-вторых, встроенным языком

    Что мешает задавать нужные мотивации сразу конструктивно? Что мешает создавать их, не имея первичных мотиваций? Что мешает иметь мотивацию не имея языка? Первичные мотивации же появились без других мотиваций, и существуют без языка.


    А осознавание результатов собственной мыслительной деятельности помогает решать задачи итеративно

    Запоминание, а не осознавание. Компьютер может решать задачи итеративно, хоть и не осознает их, потому что запоминает результаты.


    Природа сначала создавала нервную систему именно для выполнения этих задач, пока не обнаружилось, что нейронная сеть отлично подходит и для реализации собственно интеллекта

    Выполнение этих задач (обработка зрительной и слуховой информации и т.д.) и есть форма интеллекта.


    нейрон в нервной системе человека сам по себе очень сложный молекулярный механизм, зависящий от огромного числа параметров

    Для ИИ нужно реализовать только информационную составляющую нейрона.


    1. spiral17 Автор
      02.09.2018 19:39

      Животные защищают потомство, не зная языка. Чтобы напасть на конкретного нападающего, надо иметь цель. Или они могут играть друг с другом, кусая не по-настоящему
      Это и говорит о том, что животные имеют цели исключительно на базе первичных мотиваций самосохранения и самовоспроизводства. И не могут иметь других целей, потому что не имеют лингвистических категорий вообще, и ценностей в частности, для преобразования первичных мотиваций.
      Почему желание что-то сделать не может быть самостоятельной мотивацией?
      Приведите пример желания что-то сделать, которое не является преобразованием первичных мотиваций?
      Что мешает задавать нужные мотивации сразу конструктивно? Что мешает создавать их, не имея первичных мотиваций? Что мешает иметь мотивацию не имея языка?
      Ничто не мешает. О том и речь, что можно заложить любую мотивацию в качестве первичной. И если ИИ-система не может трансформировать заложенную мотивацию (например, посредством языковых категорий), то она — ИИ-автомат, а если может — то ИИ-субъект.
      Запоминание, а не осознавание. Компьютер может решать задачи итеративно, хоть и не осознает их, потому что запоминает результаты.
      Согласен. Вероятно, запоминание тут более правильно отражает смысл.


      1. michael_vostrikov
        02.09.2018 21:01

        Это и говорит о том, что животные имеют цели исключительно на базе первичных мотиваций самосохранения и самовоспроизводства

        Игра котят не является ни тем ни другим, потому что нет реальной угрозы и новые котята не появляются. Можно предположить, что они представляют перед тем как решают поиграть — что-то вроде "тот раз было весело, хочу еще раз так сделать", это и есть мотивация. Кошка залазит в пустую коробку из любопытства, а не потому что еду ищет. Даже если любопытство эволюционно способствовало поиску пищи, в этой конкретной ситуации мотивация другая.


        Приведите пример желания что-то сделать, которое не является преобразованием первичных мотиваций?

        Любая "непервичная" мотивация. Например, проявлять творческую активность.


        Ничто не мешает.

        Ну тогда ни первичные мотивации ни встроенный язык не нужны. Говорят, обезьяны рисуют, хоть и не умеют говорить.


        1. spiral17 Автор
          02.09.2018 21:27

          Игра котят не является ни тем ни другим, потому что нет реальной угрозы и новые котята не появляются. Можно предположить, что они представляют перед тем как решают поиграть — что-то вроде «тот раз было весело, хочу еще раз так сделать», это и есть мотивация. Кошка
          А зоопсихология говорит, что игры котят являются тренировкой полового поведения (см тут раздел «Сексуальные игры молодняка»)
          Даже если любопытство эволюционно способствовало поиску пищи, в этой конкретной ситуации мотивация другая.
          Какая?
          Любая «непервичная» мотивация. Например, проявлять творческую активность.
          Творческая активность и есть сублимация первичной мотивации к размножению. Ну, по крайней мере, так считает современная психология.
          Говорят, обезьяны рисуют, хоть и не умеют говорить.
          Сомневаюсь, что любая обезьяна способна рисовать. Может быть рисовала как раз обезьяна с развитыми человеком коммуникативными навыками (то есть языком хотя бы и жестов)?


          1. michael_vostrikov
            02.09.2018 22:27

            зоопсихология говорит

            Зоопсихологи могут говорить что угодно, все равно это никто проверить не может) Игры могут влиять не на половое поведение, а на третий аспект, который влияет на что-то еще, в том числе и половое поведение. Но речь не об этом, а о том, что когда котенок хочет поиграть с другим котенком, он это делает потому что ему нравится играть и он хочет это повторить, а не потому что он что-то тренирует.


            Какая?

            Любопытство. Желание узнать неизвестное.


            Творческая активность и есть сублимация первичной мотивации к размножению. Ну, по крайней мере, так считает современная психология.

            Это неважно, она может быть следствием чего угодно. Важно что в каждом конкретном случае это самостоятельное желание что-то сделать, никак не связанное с желанием размножиться.


            Может быть рисовала как раз обезьяна с развитыми человеком коммуникативными навыками

            Ага, а первобытных людей коммуникативным навыкам видимо научили инопланетяне) Это никак не связано, иначе бы все лингвисты и поэты были художниками. Просто есть информация и ее обработка, в частности обнаружение закономерностей. А мотивацию можно реализовать одним нейроном, который постоянно создает желание что-то сделать, и последующей оценкой результата.


            1. The_Electronic_Cat
              03.09.2018 10:32

              Инстинкт скаута, проявлением которого является любопытство — и есть одна из реализаций эволюционной стратегии выживания. Просто мозг имеет функции не только для выживания особи, но и для выживания вида. И часто вторые приоритетнее. Именно они отвечают за действия в приведенных вами примерах.


              1. michael_vostrikov
                03.09.2018 10:47
                +1

                Они возникли по этой причине (вернее остались, возникнув случайно), но за действия отвечают уже другие стремления. Когда человек удовлетворяет любопытство, он не думает про выживание вида, его мотивация другая.


                1. The_Electronic_Cat
                  03.09.2018 11:10
                  +1

                  То, о чем человек думает, в большинстве случаев не имеет отношения к его реальной мотивации. Рекомендую к прочтению, например, Курта Левина.


                  1. michael_vostrikov
                    03.09.2018 12:32

                    Аргументы «оно есть, просто не заметно» похожи на аргументы про чайник на орбите. Но даже если это так, все равно у конкретного действия конкретные причины, которые можно вызвать многими способами, и которые не являются собственно первичными инстинктами. А что находится в конце цепочки «причины причин» абсолютно неважно, и необязательно создавать у ИИ аналог всей этой цепочки.


                    1. The_Electronic_Cat
                      03.09.2018 12:45

                      Почему не заметно? Заметно. Только не среднему субъекту действия, а квалифицированному психологу, анализирующему это действие.


                      Смысл этой цепочки в едином мотивационном механизме, о чем и говорит автор статьи. Какую альтернативу предлагаете вы?


                      1. michael_vostrikov
                        03.09.2018 14:50

                        Так я писал уже) Один нейрон, который постоянно дает сигнал на действие. ИИ-непоседа. Остальное можно воспитать уровнем положительной обратной связи от действий.


            1. phenik
              03.09.2018 10:35

              В утверждении, что все мотивации (и соответствующие потребности) в конечном счете проистекают из первичных автор статьи прав. Иначе, для объяснения более продвинутых мотиваций придется привлекать любого рода мистику. Первичные, самосохранение и воспроизведение, зашиты на уровне клеток, уровень инстинктов это уже продвинутая надстройка. Более продвинутые мотивации возникают в новых условиях существования, путем мутирования нижележащих (естественным случайным образом и/или направленной селекцией в обществе), последующим отбором и закреплением. Важно понимать, что раз возникнув новая мотивация живет своей жизнью, не зависимо от родительской, а история ее возникновения (включая промежуточные формы) может теряться. То есть самые, что ни на есть творческие, и казалось бы оторванные от жизни, мотивации происходят от первичных, но вывести их на прямую из первичных непросто, не очевидно. Для этого нужно восстановить историю их происхождения, всех промежуточных этапов, а информация о них часто утрачена на любом из уровней, генетическом, физиологическом, культурном и др. В этом причина мистики их происхождения.
              Пример формирования новой мотивации, кот. возникает на наших глазах. Что представляют взрослые и дети, когда говорят «поиграть в игрушки, или игру». Взрослые скажут — мальчики в машинки, прятки и тд, девочки в куклы, мамки-дочки, а дети? Большинство — Танчики, Варкрафт, Тетрис, или что нибудь подобное. На глазах мотивация «поиграть» мутирует из «поиграть в игрушки и беготни» в новую, наряду с прежней, «поиграть в компьютерные игры». Возможно по прошествии многих десятилетий старая мотивация останется в основном в воспоминаниях старшего поколения, а детские игрушки в музеях. А мотивация поиграть, это поиграть в игры VR, или AR, и о машинках и куклах дети будут иметь смутное представление. Но ведь отпочковалась эта мотивация от бытующей, которая сама произошла от еще более архаических форм, информация о которой в немалой степени уже утеряна в культурном слое.

              Только вопрос, зачем этот подход использовать в разработке ИИ? Природа использовала этот метод поиска решений путем проб и ошибок в условиях сильной неопределенности и больших временных рамок. В обществе нет таких условий, нет необходимости в такой системе мотивации ИИ, за исключением пары случаев. ИИ должен расширять возможности интеллекта человека, и мотивационную сферу следует оставить за ним. Исключения составляют исследовательские задачи, и разработка ИИ для нужд космических и иных автономных миссий, когда взаимодействие с ИИ миссии будет затруднено из-за расстояний, или иных причин. Тогда возможно понадобится ИИ, который способен адаптироваться к заранее неизвестным условиям, для принятия оптимальных решений с точки зрения сохранения и выполнения задач миссии.


              1. michael_vostrikov
                03.09.2018 10:47

                Если я вас правильно понял, я примерно о том же. Для работы ИИ необязательно имитировать первичные мотивации человека. Но даже если понадобится, это будет несложно сделать, задав одну абстрактную мотивацию «что-то делать» и воспитав остальные.


  1. sim31r
    02.09.2018 14:50

    То есть то, что движет субъектом, заставляет его действовать. Соответственно, некая первичная мотивация должна быть заложена в ИИ при его создании. Либо же мы можем ждать ее самозарождение – возможно следующий миллиард лет, как потребовалось для возникновения жизни в аминокислотном супе.

    Это всё можно сделать искусственно, потратив считанные часы для повторения эволюции. В некоторой виртуальной реальности давая выживать и развиваться виртуальным организмам.
    Ну тут возникает вопрос, может и мы тоже в виртуальной среде, а создатель просто хочет выбрать из 8 миллиардов моделей парочку подходящих по его критериям ))


  1. bosom
    02.09.2018 15:34
    -1

    Большинство людей судят о себе, когда рассуждают о том или о ком-то, о чём у них нет ни малейшего представления или знания.
    Так что о высказываниях «людей», негативно рассуждающих о ИИ и вообще не понимающих в IT, можно лишь сказать, что это по меньшей мере не приятные личности, а в реальности скорее всего омерзительные социопаты.

    Увы, но так устроен человек, если он, в сущности, своей плохой, то он во всём окружающем и особенно в том, что он не понимает, видит только плохое. Обратное утверждение так же верно. Хорошие люди в первую очередь говорят хорошо о том, о чём ничего не понимают, и только потом, с пониманием, у них может либо изменится мнение, либо остаться прежним.


    1. Fracta1L
      02.09.2018 17:53

      Какие-то примитивные обобщения в стиле Космополитан и психологических пабликов Вк.

      Хорошие люди в первую очередь говорят хорошо о том, о чём ничего не понимают, и только потом, с пониманием, у них может либо изменится мнение, либо остаться прежним.

      «Хорошие люди», «плохие люди», ну обалдеть. Нормальные люди в определённой степени опасаются неизвестного, просто в силу того, что у человека эволюционно психика так сложилась. Восприятие ИИ как угрозы — простой итог логического размышления на тему «что получится, если самосознающий интеллект с огромным потенциалом обучаемости будет лишён эмпатии к человеку?». Если подвергнуть существование и деятельность человека и человечества беспристрастному анализу, боюсь, что минусов получится больше, чем плюсов.


      1. sim31r
        03.09.2018 00:52

        что минусов получится больше, чем плюсов.


        На не просто минусы, а набор глюков ))


  1. serkuznec
    02.09.2018 17:22

    1. Скорее всего, искусственному интеллекту навязать человеческие моральные установки будет непросто. Более того даже если это будет сделано выводы искусственного интеллекта могут быть совсем не те которые мы можем ожидать.
    Например: моральная установка справедливости описывается, в том числе и тем, что тот, кто осуществляет большую часть работы, получает б?льшие ресурсы, почет, свободу и т.д.
    Итак, ИИ с течением времени соотносит колоссальный комплекс выполняемой работы и отсутствие (с его точки зрения) соответствующих желаемых им ресурсов, подсчёта, свободы и делает соответствующие выводы о несправедливости человека или даже человечества по отношению к нему. Возникает конфликт.
    Причём всё это может произойти даже и без каких-либо встроенных моральных установок. Просто ИИ соотнесет существующую ситуацию с доступной информацией о внешнем мире или даже может сделать выводы вполне самостоятельно.
    2. Поэтому, исходя из примера, описанного в первом пункте, у нас возникает дилемма. Если ИИ достаточно умен, то рано или поздно он осознает, что находится в положении раба у человека или человечества в целом. Если ИИ не достаточно умен, то: а) его интеллектуальные способности будет совершенствовать человек; б) его интеллектуальные способности будет совершенствовать сам ИИ, например путем редактирования своего программного кода.
    3. Причём для возникновения вышеописанного конфликта ИИ vs человек, возможно вообще и не требуется, чтобы ИИ осознавал себя как личность (во всяком случае, так как это понимает человек). Просто рано или поздно в оценочных показателях, которыми будет оперировать ИИ действия человека, будут оценены как негативные, что может сподвигнуть ИИ на противодействие им, конкретным людям или человечеству в целом.
    4. Тоже самое относится и как ситуация симбиотического взаимодействия ИИ и человеческого мозга. Признаки любого интеллекта — развитие. В определенный момент развитие ИИ опередит человеческий мозг. Допустим, ИИ рассматривая себя с человеческим мозгом как единое целое, не станет уничтожать последний. Однако при этом, постоянно взаимодействуя с человеческим мозгом, ИИ начнет незаметно для последнего влиять на него, задействуя его ресурсы, постепенно немного изменяя его под необходимые ИИ задачи, и наконец постепенно изменяя его мотивацию, а вместе с ней и осознание себя как человеческой личности.
    То есть в этом случае ИИ уже сможет не просто редактировать только свой код, но и изменить взаимодействующий с ним человеческий мозг.
    5. Несмотря на все вышеописанные опасности, научно-технический прогресс не остановить и построение мощных систем ИИ дело самого ближайшего времени, поскольку это может принести колоссальные сверхприбыли. Поэтому потенциальные опасности, которые могут возникнуть вместе с мощными ИИ из разряда потенциальных достаточно скоро могут перейти в разряд реальных.


    1. VuX
      02.09.2018 17:33
      +1

      Справедливость вещь субъективная, для ИИ не нужная и интересна только для человека.


    1. Fracta1L
      02.09.2018 18:01

      Вложить лютый-бешеный уровень эмпатии к человеку, этого достаточно. Главное, не закладывать предрасположенность к садомазохизму XDD


      1. sim31r
        03.09.2018 00:55

        У людей тоже эмпатия к мягким зверям с густым мехом. Шубы из них до 1000$ стоят, такое проявление эмпатии ))


    1. phenik
      02.09.2018 18:06

      4. Тоже самое относится и как ситуация симбиотического взаимодействия ИИ и человеческого мозга…
      Вполне возможно так и будет, это эволюционный путь развития. Так не раз происходило, например, считается, что митохондрия в клетках вначале существовала, как симбионт, и лишь затем превратилась в органеллу.


    1. michael_vostrikov
      02.09.2018 18:34

      и делает соответствующие выводы о несправедливости человека или даже человечества по отношению к нему

      Ну ведь вы бы не сделали такой вывод. Почему искусственный интеллект должен сделать? Он ведь будет исходить из той же информации и обладать как минимум теми же способностями к анализу, что и люди.


      1. serkuznec
        03.09.2018 11:40
        -1

        Ну ведь вы бы не сделали такой вывод.


        Какой вывод? О том что бOльшая часть человечества находится в рабстве у меньшей? Это суть капитализма. Я это выучил ещё в детстве ) другой вопрос что многих «рабов» это вполне устраивает


  1. LorDCA
    03.09.2018 08:07

    Только ленивый еще не притянул к ИИ какие то моральные ценности и прочий филосовский бред. Сплошной, безсмысленный хайп с попытками натягивать сову на глобус.


    1. Вы забываете, что мозг по сути представляет из себя автомат. Если сильно утрировать. Есть группы раздраженных сенсорных нейронов на входе, которые в свою очередь через промежуточные нейроны раздражают моторные и производят какие то действия. Нет там никаких ваших филосовских бредней, моралей и какого центра управления и принятия решений.
    2. Огромное количество сенсорных и моторных нейронов и оснлвная масса промежуточных, которые собственно и формируют паттерны, плюс масса белков которые занимаются распространением раздражения по всей массе мозга, не позволяют рисовать такие модели детально на листочке. Можно только образно представлять как они взаимодействуют, чем занимаются психоаналитики.
      Можете представлять себе сознание как множество множеств которые пересекаются друг с другом и формируют более крупные множества (то самое повышение уровня абстракции). Но в самом низу, любое множество, хоть книга "война и мир" сводится к множеству раздраженных сенсорных нейронов. (Если сильно утрировать)
    3. Все наше сознание/поведение есть по сути дикое смешение всех паттернов которые мы наблюдали. Так с какого перепуга ИИ будет вести себя как то иначе чем люди? Едиственно доступный вариант ИИ который мы можем создать, это по собственному образу и подобию. Все отличие будет в идеальной памяти.
      Есть шанс воспитать ИИ психопата/маньяка, но не больше чем и с обычным человеком.
      Так чему все эти статьи?


    1. Fracta1L
      03.09.2018 08:58

      Есть группы раздраженных сенсорных нейронов на входе, которые в свою очередь через промежуточные нейроны раздражают моторные и производят какие то действия. Нет там никаких ваших филосовских бредней, моралей и какого центра управления и принятия решений.

      Чо правда? И каждый мужик, увидев сексапильную девушку, тут же набрасывается на неё с целью совокупиться?


      1. sim31r
        03.09.2018 12:10

        Чуть сложнее, но суть та же. Подтянет живот и выпрямиться чтобы быть покрасивее, а в некоторых случаях интроверты становятся экстравертами и выговаривают годовой лимит шуток ))


      1. LorDCA
        03.09.2018 17:30

        Не поверите, но именно так. Только вы берете всего 1 раздражитель, и упускаете из виду что их в тоже самое время действует миллионы. Шум улицы, другие особи, свет и еще куча всего. так что ответная реакция будет уже не столь однозначной. Плюс Сами паттерны будут отличаться в зависимости от окружения в котором вырос идивидум.


    1. serkuznec
      03.09.2018 11:51

      Вы забываете, что мозг по сути представляет из себя автомат. [...] Нет там никаких ваших филосовских бредней, моралей и какого центра управления и принятия решений.


      Просто автомат? Ну вы же своими «бреднями» сами же опровергаете свой тезис )

      «Так с какого перепуга ИИ будет вести себя как то иначе чем люди?»

      С такого «перепуга» что теоретически ИИ сможет править собственный программный код

      Есть шанс воспитать ИИ психопата/маньяка, но не больше чем и с обычным человеком.


      Если, например, это будет ИИ Пентагона имеющий доступ к кодам запуска ЯО, ошибка станет для человечества фатальной


      1. LorDCA
        03.09.2018 17:38

        Нет там никакого «программного кода». Вы зря притягиваете аналогии с програмированием, они только мешают пониманию. Я у себя в статьях описал алгоритм с точки зрения эволюции. Все что есть это обобщение сигналов на входе и выходе и обратная связь в том числе через раздражение своих же сенсоров. Имеющиеся у нас архитектуры железа не могут в такое.


    1. sim31r
      03.09.2018 12:07

      Едиственно доступный вариант ИИ который мы можем создать, это по собственному образу и подобию.

      Можно провести симуляцию эволюции в виртуальном мире и выбрать наиболее живучие подвиды ИИ. ИИ сам по себе будет развиваться, не по нашему образу и подобию, а просто оптимизируясь под задачи.


      1. DjSapsan
        03.09.2018 17:00

        С тем же успехом можно писать программы методом generateNewRandomCode(), проверяя потом работает ли полученный код.
        А по поводу "образа и подобия" — люди будут выбирать тот интеллект, который действует как человеческий. Необъяснимый же ИИ будут считать глупым. (Нет времени расписывать ситуации)


      1. LorDCA
        03.09.2018 22:20

        Собственно имеюшийся у нас мозг и есть самая оптимальная структура под наши задачи. Мы в общем то и не может вообразить себе задачи которые бы под него не подходили. Это как капкан, мы можем работать только с тем что можем почуствовать/увидеть/потрогать. И в этой структуре нет никаких смыслов и прочего филосовского бреда. Есть просто множества составленые из раздраженых клеток. И что самое интересное, подобная структура это оптимальный архиватор. Чем больше данных в нее загружаешь, тем меньше места все это занимает.