Искусственный интеллект многогранная и сложная задача? Отнюдь нет. В чем же тогда загвоздка? Почему мы сидим и обсуждаем, а в мире до сих пор даже гиганты IT индустрии не сдвинулись с мертвой точки? Уже было сказано много слов по этому поводу, отстаивались эмоции, нейронные сети. Я же попробую пойти чуть дальше и разобрать, в чем же принципиальные ошибки многих кто изучает это направление. Собственно я это уже сделал в рамках своей стажировки по ИИ в одной компании, осталось только поделиться с общественностью.

1. Что мы хотим от ИИ?


Давайте для начала разберемся, что же такое ИИ и что мы от него ожидаем. Искусственный Интеллект это некая программная или аппаратная конструкция обладающая тем что мы называем разумом. Первое заблуждение: в оригинале Intelligence – «умение рассуждать разумно», несет иную смысловую нагрузку, в отличие от русского слова «интеллект». Обезьяны тоже по своему разумны, дельфины тоже. Но воссоздав обезьяну программно, ИИ мы не получим.

Соответственно опустимся от абстрактных рассуждений о разнице между разумом и интеллектом и попытаемся дать четкие определения, чем должен являться ИИ.

Я в свое время составил список того что я хочу увидеть в первую очередь в разумной машине, всего насчитывается 9 пунктов.

• Система восприятия
• Система обработки и анализа информации
• Система хранения полученных данных, воспроизведение информации
• Система поиска требуемой информации
• Система обучения и самообучения
• Система семантического анализа, выделения смысла
• Система построения логических цепочек высказываний
• Система, выполняющая конкретные действия, по сути выполняющая прямые команды
• Система вывода информации, на языке понятном конечному пользователю

Кстати вот и второе заблуждение: ИИ никогда не будет думать как человек, он может имитировать человека, но он никогда им не станет, даже обладая сверх-разумом.

К сожалению многие, наверное, столкнулись с известными теориями Тюринга. Он разработал теорию и выдвинул предположение что для того чтоб определить может ли машина мыслить, ей нужно пройти тест. В оригинале это звучало так: «Человек взаимодействует с компьютером и человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор».

Основная критика в сторону теории Тюринга впервые была выдвинута в 1980 году, и представляла собой мысленный эксперимент под названием «Китайская комната». Описание данного эксперимента довольно длинное, поэтому приводить его здесь не буду. Скажу лишь что Джон Сёрл выдвинувший данное опровержение опирался на четыре основных предпосылки:

• Мозг порождает разум
• Синтаксиса недостаточно для существования семантики
• Компьютерная программа полностью определяется своей синтаксической структурой
• Человеческий разум оперирует смысловым содержанием (семантикой)

Эти предпосылки дают нам право утверждать, что на сегодняшний день все попытки смоделировать искусственный интеллект опирающиеся на теорию Тюринга, были тщетны. Ведь все до единого существующие чат-боты, даже те которые приблизились к заветной цифре и в ближайшем будущем смогут пройти тест Тюринга не являются искусственным интеллектом ни в коей мере. Какой отсюда вывод? Тест Тюринга проверяет лишь способность компьютерной программы походить на человека, а не наличие разумного поведения и как следствие интеллекта. Кстати чтоб не быть голословным приведу пример парочки чат-ботов получивших премию Лёбнера и показав впечатляющие результаты на тестировании. Данные системы работают и по сей день, вы можете пообщаться с ними и оценить в онлайне:

1. Elbot (www.elbot.com)
2. Jabberwacky (www.jabberwacky.com)

2. Деструктивность эмоций


Эмоции деструктивны, да в них есть плюсы, они толкают человека на поступки, они дают мотивацию. Но так же они и угнетают, подвергают наш разум изменениям, от которых потом очень трудно избавится. Зависимые люди, будь то наркотики, алкоголь, азартные игры, да что угодно. Эмоции делают человека уязвимым. Вы доверитесь машине с железной логикой или машине, которая, увидев Хабуб (выглядит впечатляюще, погуглите), в панике развернется и даст газу? Как декорации эмоции могут быть присуще машине, начнем хотя бы с того как людям весело наблюдать за котом который увидев себя первый раз в зеркале начинает то заигрывать с отражением, то убегать, то еще вытворять что то смешное. А теперь представьте своего директора, который ведет себя так же. Ну не абсурд ли? Именно то, что называют интеллигентностью — по большей степени является умением контролировать свои эмоции. Но это все субъективные домыслы, перейдем к реалиям.

Одна из наиболее распространенных теорий в психоанализе призванная раскрыть суть эмоций сравнивает все эмоциональные состояния с неким подобием животных инстинктов, которые оказывают колоссальное влияние на человека, на протяжении всей его жизни. Данный вопрос настолько глубок, что затрагивает даже некоторые области биохимии, ведь организм человек стремящегося испытать, к примеру, радость, вырабатывает определенные ферменты, которые будут либо способствовать его стремлению, либо вызывать негативное состояние, так например злость и раздраженность вызывают чувство усталости и наоборот.

Понятное дело, что моделируя аналогичные процессы нам совершенно не важна часть, отвечающая за выделение ферментов, наш ИИ — абстракция в чистом виде. Вот собственно на основе всего вышесказанного можно уже говорить о третьем заблуждении: эмоции это движущие рычаги человека, ИИ это не человек. Все что он может делать — это имитировать человеческое поведения. Рычаги влияния у него иные, а значит, эмоции в том виде, в котором они есть у человека, ему попросту не нужны.

Конечно, желание есть (заряжаться в случае реального физического тела), или страх перед не изведанным обусловливают «правильное», ожидаемое поведение. Но возвращаясь к вышесказанному — это поведение НЕ эмоционально, хотя многие, внешне, могут его принять именно за эмоции, потому что так делает человек.

3. Почему именно нейронные сети


Нейронная сеть != интеллект? Или все-таки равно? Четвертое заблуждение: Человек это гибрид, он может то — что делают отдельные нейронные сети. Он может это делать сразу. Смешивать звуки и запахи, образы и цифры, ощущения и эмоциональные состояния в шипучий коктейль полезной информации. Так ли много в мире гибридных нейронных сетей которые могут сразу распознавать изображения кошек и сложных математических формул? А если кошка на фоне формул? А если формулы на фоне кошек?

А что собственно представляет собой гибридная сеть? Те, кто работал с нейронными сетями, представляют, какие невероятные сложности возникают при моделировании многослойных нейронных сетей. А теперь представьте себе те же нейроны только в трехмерном пространстве, они взаимодействуют не на плоскости, они взаимодействуют во все стороны. При этом еще и перемещаются. Вы встречали нейронные сети, которые строятся, динамически перемещаясь и перебрасывая нейроны из одной области в другую? А у человека все еще сложнее. Те же ферменты могут по-разному влиять как на мозг, так и на отдельные участки в частности. Несомненно, нейронная сеть это то, чем мы думаем, обрабатываем и анализируем информацию. Но пока еще мы не познали и десятую часть всего того что действительно может нейронная сеть, или называйте ее иначе, в любом случае таких аналогов в мире еще нет.

4. Кто будет работать долго и нахаляву?


Основная проблема — отнюдь не деньги… это время. Вы готовы отдать 10 лет своей жизни чтоб проверить одну единственную теорию? Вы смиритесь с тем, если окажется что вы работали над пустяком? К сожалению энтузиастов, которые готовы с огнем в глазах работать только за еду и за идею — крайне мало. По этой же причине многие компании гиганты интересуются, но особо денег не выделяют. Будь вы директором, вы готовы отдать все и сдать позиции на рынке и заниматься далекими миражами в то время когда ваши соперники вас опережают? Все великие открытия совершались либо задротами-одиночками, либо просто энтузиастами, которые могут десятилетиями вынашивать идею чтоб потом в один прекрасный день вскричать — Эврика! Реалии сегодняшнего мира таковы что исследовательской деятельностью вызывающей недоверие занимаются на профессиональном уровне крайне редко, и зачастую либо только ради выгоды, либо из за какой то стремной и никому не понятной цели(гугл молодец но его цель тотального контроля всех сервисов для объединения в одну платформу — уж очень похоже на сюжет мувика «будущее началось», погуглите он минут 15 идет).

5. Где же проблеск в конце туннеля?


Неужели все так печально? Отнюдь нет и Watson тому пример, разработки идут, энтузиасты есть. Задач очень много, и с каждым годом недоверие из 90-х к «думающим машинам» сменяется проблеском надежды. Генные инженеры все ближе к расшифровке генов, которые дадут нам хоть какую-то доказательную базу. Гугл разрабатывает семантическую сеть для поиска информации. Ватсон разбирает и анализирует речь с последующим выводом обратно в речевой форме. Гугл почти совершил прорыв в распознавании речи. Очень надеюсь, что придёт время, когда несколько подходов начнут объединять в гибридные сети. А пока гигантские корпорации живут в своем макро мире, я уже почти год экспериментирую с смешанным типом сети для хранения информации и выделения смысла в речи(усредненный подход между семантической сетью и нейронным принципом хранения и передачи информации). Чего и вам советую. Успехов в экспериментах.

P.S. Это была всего лишь маленькая часть моего доклада по этой теме, есть еще, с табличками, набросками. Возможно, в скором времени появятся даже скромные аналоги программки, которая читает и пересказывает текст. Я хоть пока еще, как говорится, юн и молод, достаточно уперт в своих начинаниях, тем более что тема такая интересная. Кому будет интересно увидеть продолжение — пишите.

Комментарии (18)


  1. cjfynjy
    27.07.2015 12:57
    +1

    Но воссоздав обезьяну программно, ИИ мы не получим.
    Я бы не был так категоричен. Не вижу причин, почему, если каким-то образом мы полностью сможем эмулировать мозг (и заодно все остальные ткани) живого существа, это не будет полноценной заменой этой самой обезьяне.

    То есть сразу оговорюсь, что да, одного только мозга недостаточно, нужно еще эмулировать сигналы от органов чувств. Даже такое умное существо, как человек, полагаю, моментально сойдет с ума, если полностью отключить его от всех проявлений внешнего мира (а о каком-либо развитии от младенца до полностью сформировавшейся личности вообще и речи идти не может). Кроме того, человека, как и упомянутые вами нейронные сети, непрерывно «обучают» на примерах реального мира в течение лет так 15. Вот как нейросеть от гугла насмотрелась собачек и рисует картины с собачками, так же и человек 24 часа в сутки 365 дней в году смотрит и слушает окружающий мир и учится. Электронную копию мозга человека тоже придется обучать.

    Что же до разницы между обезьяной и человеком, я бы не сказал, что она качественная, скорее количественная. Обезьяны (и вообще животные в целом) напоминают мне по поведению крайне глупых людей, на самом деле. Инстинкты на месте, базовые способности к соображению хоть чего-то и принятию решений тоже есть.

    Я согласен, конечно, что, возможно, целенаправленно копировать человека или там обезьяну — не самый оптимальный путь при создании ИИ, у нас за миллионы лет эволюции накопилось слишком много костылей в нашем «коде» и просто неоптимальных решений и багов. Но я не вижу причины, почему, если это таки успешно сделать, это не будет искусственным интеллектом.


  1. cjfynjy
    27.07.2015 13:11
    +4

    начнем хотя бы с того как людям весело наблюдать за котом который увидев себя первый раз в зеркале начинает то заигрывать с отражением, то убегать, то еще вытворять что то смешное. А теперь представьте своего директора, который ведет себя так же. Ну не абсурд ли? Именно то, что называют интеллигентностью — по большей степени является умением контролировать свои эмоции.

    Но вот этот серьезный директор из вашего примера тоже поведет себя странно или даже смешно при встрече с чем-то новым и удивительным. Вспомните реакцию доктора Гранта из первого Парка Юрского Периода, когда он впервые увидел живых динозавров. :) Разница между этим серьезным дядькой и котиком только в том, что для одного впечатляющая новинка — это живые динозавры, для второго — зеркальная поверхность (и человеческие младенцы тоже в первое время удивляются зеркалам, кстати, хоть и быстро привыкают). И взрослый человек, и котик — животные, и оба эмоционально реагируют на впечатляющие их вещи.


  1. ufm
    27.07.2015 15:16
    -1

    По мимо проблемы, «что считать искуственным интеллектом», неплохо было-бы решить проблему «что считать искуственным интеллектом».
    Допустим, у нас есть технология, позваляющая заменять любые части тела человека на искуственные. После чего берём человека, и начинаем эту замену. Заменяем всё, включая мозг (с переносом «структуры» связей внутри мозга).
    1. Является ли то, что получилось — человеком?
    2. Является ли то, что получилось — ИИ?

    Если стереть содержимое «мозга» у данного создания, и потом обучить как обычного человеческого детёныша — какие будут ответы на вышепоставленные вопросы?

    Если перенести всё это в виртуальность (компьютерную симуляцию) — какие будут ответы на вышепоставленные вопросы?


  1. fivehouse
    27.07.2015 15:36

    Категорически не согласен с автором на счет эмоций. Эмоции это модели поведения доставшиеся нам от рождения и немного подкорректированные воспитанием. Да, эмоции можно поставить более-мение под контроль, но далеко не из воздуха эти модели взялись! Эмоции это результат естественного отбора психики внутри человеческой популяции. И если эмоции пережили столько смертей и столько рождений, нельзя их просто так взять и выкинуть, объявив деструктивными. Надо понимать где начало (для каких условий эмоции вырабатывались в мозгу ествественным отбором) и где конец применения эмоций и почему. Для новых условий (образовавшихся условно позднее 1000 лет т.н.), в которых оказывается человек, эмоции не приспособлены. Но и старых условий в жизни человека полно.
    А успехов в области ИИ не будет пока четко не ответят на вопрос, что такое интеллект (как мы люди его понимаем). Какие задачи он решает? Что в нем нового? Действительно ли он решает какие либо уникальные задачи? Как эти задачи решают существа без интеллекта нашего понимания?


    1. Alexey2005
      27.07.2015 19:44
      +1

      Эмоции — это аппаратная реализация некоторых базовых алгоритмов. Грубо говоря, чем рендерить/декодировать/обсчитывать на CPU, удобнее использовать специализированный модуль. Проблема не в эмоциях как таковых, а в том, что, сформировавшись вперёд разума, они находятся вне его контроля. Вы не можете заставить себя не испытывать эмоций и так или иначе вынуждены будете прикладывать усилия на их преодоление.
      Так, если человек к примеру боится собак, то с этим уже ничего невозможно сделать. Даже если он точно знает, что данная конкретная собака в принципе не способна его укусить и вообще на поводке и в наморднике, он всё равно непроизвольно собьётся с шага, а сердце забьётся чаще. Т.е. алгоритм сработал, а разум может всего лишь, путём определённых усилий, нивелировать результаты его работы (в данном случае сделать вид, что всё в порядке, и пройти мимо собаки).
      По мере развития разума, эмоции всё сильнее ему мешают. Более того, эмоции мешают и построению по-настоящему гармоничного и рационального общества — как ни старайся, а всё стандартная звериная стая получается вот уже которую тысячу лет. Почему, думаете, во власть в 99% случаев прорываются те, кто в управлении ничего не смыслит? Почему общество прислушивается к гуманитариям, создавшим очередную совершенно бредовую брошюрку «как нам обустроить страну Х», состоящую целиком из беспочвенных фантазий, но полностью глухо к технарям, составившим реальную экономическую модель развития и хоть сколько-то обоснованную, подкреплённую расчётами, экономическую программу?
      Поэтому, если мы хотим стать по-настоящему разумными и построить действительно справедливое общество, вместо того, чтоб до конца времён оставаться под властью религиозных деятелей, актёров, писателей, маркетологов и прочих фантазёров, людям необходим эмоциональный фильтр. Какой-либо способ тонкой настройки эмоций, выставления «потолка» эмоциональных сигналов через простой программный интерфейс. Чтобы именно разум решал, до какой степени этой эмоции сегодня можно поддаться, а за какие рамки она заходить не должна.
      Что же касается ИИ, то тут эмоции — это просто громадная «дыра» в прошивке, которой могут с лёгкостью воспользоваться социнженеры. Почему человек считается самым слабым звеном в безопасности любой компьютерной системы? Вот именно потому, что даже супер-профессионала, который знает все правила безопасности от и до, рано или поздно удастся подловить, сыграв на его эмоциях. Главное, подходящего момента дождаться.
      Поэтому если мы не хотим, чтобы ИИ было легко хакнуть, ему не нужно давать эмоций.


      1. webkumo
        27.07.2015 20:49
        -2

        Эквилибриум www.kinopoisk.ru/film/309?
        Давайте сразу договоримся: эмоции это инструмент. А инструментом можно пользоваться хреново (и каждый раз резаться ножом), а можно профессионально (и орудовать микроскальпелями в мозгу пациента). Так же и эмоции — если умеешь настраиваться, они помогают, не умеешь — приносят беду.
        Проблема этих ваших технарей, которые придумали и обсчитали модель, но не могут пропихнуть видна уже на старте — что это за модель социальных отношений, в которой нельзя просчитать как эту модель в общество вписать? А вот когда эта модель наконец-то научится учитывать эмоции и способы раскачки народа — тогда она сможет добиться своего внедрения и принести пользу. Не раньше. Но и в этом случае — модель это ведь упрощение… уверены, что она принесёт пользу?


        1. Alexey2005
          27.07.2015 21:34
          +1

          Эмоции нужно сделать инструментом, а это возможно только путём их подчинения разуму (те самые эмоциональные фильтры, задающие предельный уровень эмоций). Потому что пока имеем ситуацию, когда наш «инструмент» сам выбирает, как и когда нами пользоваться.
          Нужны эмоции? Врубил их в настройках на максимум. Не нужны? Убрал в ноль. Постоянная возможность контроля и алгоритмических настроек. Это — необходимость, иначе общество так навсегда и застрянет на уровне звериной стаи.

          модель это ведь упрощение… уверены, что она принесёт пользу?
          Если не принесёт, всегда можно внести корректировки. Тогда как противоположная сторона, на эмоциях считая свои идеи единственной и непреложной истиной, держится за них до конца, старательно обрубая все каналы обратной связи, пока всё не заканчивается закономерной катастрофой. И даже после катастрофы выводов не делается, или делаются неверные («не повезло», «враги помешали», «народ не дорос до наших идей»). Особенность идейных гуманитарев в том, что они крайне плохо учатся на собственных ошибках, а на чужих уж тем более.
          что это за модель социальных отношений, в которой нельзя просчитать как эту модель в общество вписать?
          В том-то и дело, что модель общества существует всего одна — та самая, которая сложилась за миллионы лет эволюции. Её можно варьировать в некоторых пределах, чем собственно человечество и занималось всю свою историю, но кардинально поменять можно только путём внешнего вмешательства в функционирование человека. Никаким воспитанием, пропагандой и т.д. этого не добиться — только путём чипизации, генной инженерии, селекции, биоконструирования и т.п. технологий. Это единственный путь поднять общество на принципиально новый уровень. И вполне понятно, что гуманитарная составляющая сопротивляться ему будет изо всех сил, не щадя себя.
          Ну, а что до «Эквилибриума», то если бы изобрели такое вещество, картина была бы прямо противоположной тому, что показано в фильме: оно попало бы под запрет, а преступниками объявили тех, кто им пользуется или хотя бы распространяет о нём информацию. Ведь рациональный человек, не подверженный эмоциям, крайне неудобен для власти. Ему не промоешь мозги пропагандой. Его нельзя подловить на чувстве долга, патриотизма и т.д., заставив впахивать на власть имущих. Его невозможно запугать, ведь страх — это тоже эмоция. Он даже на маркетинговые приёмы не ловится! Ну, какая власть в здравом уме такое захочет? Даже корпорации не захотят.


          1. webkumo
            27.07.2015 22:01

            И с вашей и с моей стороны в дальнейшем диспуте, как я подозреваю, будут только эмоциональные составляющие. Я не занимался научными изысканиями и не могу привести ссылок подтверждающих мой мнение. Вы можете?

            На своём личном примере я вижу — эмоции именно инструмент. Не всегда удобный и не всегда полезный. А вот той самой проблемой, «которая выбирает как мной пользоваться» — является некоторое подмножество социальных запретов (упрощённо — комплексов), которые перехватывают эмоциональную машину и управляют моими действиями в некоторых ситуациях. Понятно, что один человек — ещё не показатель, но полагаю, что у многих можно или достичь того же или такая же ситуация уже есть.

            Противоположная сторона, которую вы упоминаете — это не гуманитарии, а фанатики… Проблема только в том, что вы не правы даже в сваливании вины на фанатиков (хотя и они правили в некоторые периоды). Текущая власть — не фанатики. Являются ли они гуманитариями… ну точно не все, но это в данной ситуации не важно. Просто их цели не совпадают с целями общества в целом. При этом в любом обществе правящая часть занимает существенно меньшую часть популяции. Заменить их на тех, у кого цели в большей степени совпадают с общими целями общества — очень сложная задача. Т.к. таких людей очень мало, и большинство из них к власти не стремятся.

            Эквилибриум и прочие анти-утопии вам рукоплескают. Возьмём за основу ситуацию с эквилибриумом: вещество, блокирующее эмоции не может их подавлять полностью (иначе будет происходить существенный вред здоровью — человеческий организм ну очень сложная штука). Соответственно: маркетинговые приёмы работают (им нужен минимальный эмоциональный отклик, его не подавить), пропаганда — вполне себе работает, надо только её немного модифицировать, перегружая не эмоциональный блок сознания, а блок информационного анализа, чувства долга, патриотизма, ответственности,… уже сейчас эффективно заменяют:
            — банковско-кредитная система
            — рыночная экономика (плановая экономика менее удобна, но при правильном подходе так же может использоваться)
            Так что в целом — властям такое средство не помешает. Модель же показанная в киноленте — вполне реалистична в плане возможности создания на базе такого средства, хотя и не является основной схемой при появлении такого средства. Скорее один из побочных вариантов, который скорее всего будет реализован на некоторой отдельной территории (условно — Северной Корее).


          1. evorios
            28.07.2015 13:15

            У меня мурашки по коже от того, что вы пишете:

            Никаким воспитанием, пропагандой и т.д. этого не добиться — только путём чипизации, генной инженерии, селекции, биоконструирования и т.п. технологий. Это единственный путь поднять общество на принципиально новый уровень.

            Я надеюсь, что у вас появится возможность ощутить радость от общения с любимой, гордость за своих детей, и что вы поменяете свою точку зрения. Воспитание детей — это прежде всего самодисциплина, это нелегкий труд, но благодарный труд. У вас же слышится отказ от воспитания, от самодисциплины. Вам хочется лекого пути? Его нет.


            1. cjfynjy
              28.07.2015 14:21

              Но его комментарий как раз об одном вариантов, как создать легкий путь. Создать, а не взять готовый откуда-то. :) Вернее, не легкий путь, а путь, открывающий возможность такого развития человечества, которое ранее не было возможно.


  1. alkresin
    27.07.2015 15:38
    +9

    Искусственный интеллект многогранная и сложная задача? Отнюдь нет

    Вот это новость!


  1. Anc
    27.07.2015 16:54

    Тут у каждого своё мнение на проблему ИИ. Намного полезней выкладывать результаты своих изысканий. Всем будет интересно почитать про ваши эксперименты с смешанным типом сети для хранения информации и выделения смысла в речи.


  1. webkumo
    27.07.2015 21:06
    +2

    «Эмоции деструктивны»
    не то чтобы спорный тезис… он просто неправильный. Это как «молоток деструктивен» или «технолгии использующие атомное деление деструктивны».
    Возьмём для начала полярные эмоции:
    — радость, счастье — могут при правильном применении значительно поднимать эффективность. Слабостей сами по себе не имеют, но некоторые пытаются подменить их суррогатами (наркотики, алкоголь ...)
    — умиротворённость — пограничное эмоциональное состояние, очень способствующее наблюдательной деятельности — сильно облегчает наблюдение длительных процессов. Слабостей как таковых не имеет. Минусы могут быть закрыты информационными системами уже сейчас (низкая скорость реакции на неожиданные либо ожидаемые, но скоротечные/редкие/… явления может быть легко перекрыта автоматическими регистрирующими системами)
    — злость — бывает полезна в монотонной силовой физической деятельности (работа с перфоратором, отбойным молотком — помогает игнорировать монотонность работы), в экстремальных ситуациях (помогает концентрации на проблеме), минусы начинают проявляться только при избыточной силе эмоции
    — страх — гарантирует вброс адреналина и, как следствие, ускорение реакции требующей физических действий, минусы начинают проявляться только при избыточной силе эмоции
    Т.е. все эмоции для человека полезны, нужно только уметь ими пользоваться. Безусловно у каждого человека будут моменты, когда эмоции придётся преодолевать — не всегда они возникают своевременно. Но при правильном подходе можно наработать эмоциональный механизм так, чтобы он улучшал жизнь и повышал эффективность человека. Любую свою слабость надо брать себе же на вооружение, тогда сможешь достигнуть куда большего.
    Теперь о эмоциях, применительно к ИИ — действительно, человеческие эмоции напрямую переносить по меньшей мере глупо (они в немалой степени относятся к биохимии организма в целом), а вот попытаться продумать эмоциональный аппарат для нейросетей — это вполне допустимое и разумное направление исследований.


  1. edogs
    27.07.2015 21:40

    второе заблуждение: ИИ никогда не будет думать как человек, он может имитировать человека, но он никогда им не станет, даже обладая сверх-разумом.
    Это помесь софистики с демагогией. Что такое «как человек»? Где определение думания «как человек»?
    Напоминает спор о том, что треугольники не могут быть одинаковыми, т.к. даже если у них все свойства одинаковые, то это все-таки разные треугольники, потому что каждый треугольник уникален.
    Есть же простой duck-тест. Если Вы что-то не можете отличить от утки — это утка.


  1. omikad
    27.07.2015 22:00

    Рискну предположить что эмоции это просто механизм оптимизации вычислений. У любого человека есть тысячи вещей, над которыми можно поразмышлять, потратить вычислительные ресурсы. Однако, в определенный момент времени есть более приоритетные задачи, а есть менее. Например, в опасной ситуации нет смысла размышлять над сюжетом любимой книги, стоит сосредоточиться на задачах, ассоциированных с опасными ситуациями — искать пути отхода, просчитывать возможные варианты событий и т.д. Эмоции задают контекст размышления, и заставляют разум тратить вычислительные силы на ассоциированные с этим контекстом мысли. Менее ассоциированные идеи просто не будут «приходить в голову».

    При таком взгляде на эмоции, в ближайшее время нет смысла вводить их в алгоритмы. Можно использовать ассоциативное мышление как оптимизацию, но просто работая с этим как с математической функцией, которая поможет алгоритму чаще использовать более приоритетные направления, и реже менее приоритетные.


  1. Sadler
    27.07.2015 22:18
    +1

    Как только у Вас будет что-то кроме предположений, с удовольствием почитаю. Пока что сплошная графомания.


  1. Centimo
    28.07.2015 00:15
    +5

    Давно инвайты дают за пространные и некорректные рассуждения?


  1. stepik777
    28.07.2015 02:28
    +1

    Тест Тюринга проверяет лишь способность компьютерной программы походить на человека, а не наличие разумного поведения и как следствие интеллекта. Кстати чтоб не быть голословным приведу пример парочки чат-ботов получивших премию Лёбнера и показав впечатляющие результаты на тестировании. Данные системы работают и по сей день, вы можете пообщаться с ними и оценить в онлайне:

    1. Elbot (www.elbot.com)
    2. Jabberwacky (www.jabberwacky.com)
    Без искусственного интеллекта нормальный тест Тьюринга не пройти. А эти боты полнейшие дебилы, один из них на вопрос «who are you» ответил «yes you are».