image

Make AI Strong Again!


В последнее время термин «искусственный интеллект» стал чрезвычайно широким. Где только не употребляют его – от «умных» устройств до программ игры в шахматы, Го и пр. При этом собственно интеллекта, сознания в человеческом понимании в этих устройствах нет.

Наиболее хайповые темы — нейросети, глубокое обучение и пр. основаны на концепциях, которые предполагают реализацию, по сути, только одной функции — распознавания образов и не могут привести к созданию полноценной системы искусственного интеллекта.

В этой статье я предлагаю вернуться к изначальному пониманию задачи – созданию систем, обладающих свойствами мыслительной деятельности человека – такими, как понимание смысла, построение плана действий для достижения цели, способность объяснить свои действия, корректировка поведения в зависимости от окружающей среды и т.д.

Уже многие годы предпринимаются попытки создать системы искусственного интеллекта, приближающиеся по свойствам к мозгу человека. Однако до сих пор этого не удалось достичь. Ученые уже достаточно подробно знают функции и строение базовых элементов мозга – специальных клеток, называемых нейронами. Также более-менее изучено общее строение мозга – какие части мозга за какие глобальные функции отвечают. Однако средний уровень — уровень соединений нейронов в более крупные структуры и связь этих структур с сознанием и процессом мышления остается загадкой.

Данная статья является попыткой представить гипотезу способа объединения нейронов в более крупные структуры, описать основные функции и свойства этих структур. Это позволит, по моему мнению, подойти к технической реализации таких понятий, как смысл, внимание, целенаправленное поведение, самосознание и др. Представленные идеи конечно необходимо проверить на практике. Но даже если они не подтвердятся, возможно соображения, изложенные в данной статье, подтолкнут других исследователей к работе в этом направлении, явно испытывающем дефицит конструктивных идей в настоящее время.

Представленную в статье концепцию я назвал — «Динамическая семантическая сеть, основанная на действиях».

1. Исходные положения


Ниже изложены известные факты об устройстве нервной системы, на которых базируется предлагаемая модель:

  1. Восприятие внешних сигналов в нервной системе происходит специальными структурами, называемыми рецепторами, которые активируются при определенных условиях внешней среды.
  2. Выполнению элементарных действий (сокращение/расслабление мышц, выделение химических веществ) происходит за счет активизации других элементов, называемых эффекторами.
  3. Передача активности между рецепторами и эффекторами выполняется специальными элементами, называемыми нейронами.
  4. Сигнал активности – бинарный. Активность либо есть, либо нет.
  5. Для возможности обучения в процессе обработки информации необходима способность образовывать новые нейроны и связи между ними.
  6. В мышцах, сухожилиях и суставах присутствуют рецепторы, то есть выполняемые действия посылают сигналы о своем выполнении — действия ощущаются.

2. Описание модели


2.1 Общая схема


Информация, обрабатываемая в системе, имеет в своей основе ощущения, то есть сигналы от определенных рецепторов — визуальных, слуховых и прочих. На определенном этапе обработки, эта информация становится знанием, а процесс ощущается как мышление. Нет какой-то отдельной сущности для представления мыслей. То, что мы называем мыслью – это обработанные ощущения.
Сигнал от рецепторов (ощущение) может возникать как вследствие внешнего раздражения, так и от сигналов изнутри системы.

Общая схема обработки представлена на Рис. 1.

image
Рис. 1 Общая схема

В дальнейшем под термином рецепторы будем понимать совместно собственно сенсоры и функциональность переключения, обеспечивающую активацию либо извне системы, либо изнутри.

2.2. Детектор, действие, понятие


Итак, рецепторы регистрируют элементарные сигналы окружающей среды, такие как цвет, яркость точек пространства, амплитуду и частоту колебаний окружающего воздуха, температуру участков тела, положение суставов, состояние мышц, химический состав в определенных точках тела и др. В результате возникают наборы сигналов активности от рецепторов идущие в сеть обработки.
В сети обработки, частично вследствие генетической информации, а в большей степени на основе индивидуального опыта, образуются нейроны, реагирующие только на определенные комбинации входных сигналов. Будем называть данные нейроны детекторами, а комбинацию входных сигналов от рецепторов — образом. То есть детекторы выполняют функцию распознавания образов. Собственно, именно эту функцию и моделируют разнообразные широко известные в настоящий момент нейронные сети. Но их разработчики на этом и останавливаются, а мы пойдем дальше.
Аналогично детекторам, нейроны посылающие сигналы к эффекторам, могут объединяться в более сложные структуры, активация входных связей которых приводит к выполнению комбинаций элементарных действий. Таким образом, возникают структуры, представляющие действия.

Можно представить образование структуры, которая будет выполнять следующие действия:

  • Активизацию связей изнутри системы к некоторой комбинации рецепторов
  • Установку переключателя (Рис.1) на восприятие сигналов изнутри системы

Таким образом образуется действие по воображению, представлению некоего образа, являющегося набором сигналов от рецепторов. Будем называть такие действия действиями-представлениями некоторого образа.

Комбинация детектора некоторого образа и действия-представления для этого образа образует понятие-образ, с которым система может работать. С помощью детектора система может распознать понятие во входном сигнале, а с помощью действия-представления представить его, даже при отсутствии соответствующих сигналов извне.

2.3. Ассоциативные связи


Между понятиями-образами могут образовываться связи, так что, например, одно понятие может активировать другое. Таким образом активация извне детектора визуального образа может приводить к активации, например, звукового, или другого визуального образа. Пример варианта подобных связей показан на Рис. 2.


Рис. 2 Ассоциативные связи

2.4. Действия-восприятия и действие-внимание


Ранее мы рассмотрели действия-представления, активизация которых приводила к представлению какого-то образа на входе сети обработки. Эти действия устанавливали переключатель рецепторов на прием информации изнутри системы.

В случае установки переключателя на прием информации извне, состояние рецепторов будет определяться состоянием окружающей среды. Назовем такие действия действиями-восприятиями. Это такие знакомые нам понятия, как например смотреть, слушать, читать.
Рецепторы поставляют в сеть обработки данные о большом числе параметров (например, зрительный нерв содержит около миллиона волокон). Если учитывать весь набор входных сигналов, то воспринятые образы были бы для системы всегда новыми, так как окружающая среда никогда не бывает одной и той же до мельчайших деталей. И система в этом случае не могла бы узнавать ранее виденные части новой сцены.

То есть необходима возможность ограничения входных сигналов, фильтрации их. Это приводит нас к необходимости действия — внимания. На пути сигналов от рецепторов должен располагаться некий фильтр, управляемый вниманием и способный отсекать часть информации по определенным признакам. Прошедшие этот фильтр сигналы, либо приведут к активации какого-то детектора (в случае, если ранее он был сформирован в системе), либо должны быть запомнены на случай возможной важности в будущем. Таким образом, помимо фильтрации, внимание должно уметь создать из прошедших фильтр сигналов временное понятие, объединив активные детекторы и сформировав связи к соответствующим действиям-представлениям.

Рис. 3 показывает действия-восприятия и входящее в их состав действие-внимание.

"
Рис. 3 Действия-восприятия и действие-внимание

Созданные временные понятия и связи через некоторое время могут разрушаться, а могут и становиться постоянными, в случае неоднократного использования.

Общий процесс восприятия информации от окружающей среды разбивается таким образом на отдельные акты восприятия, завершающиеся либо созданием/модификацией временных понятий (при замечании чего-то нового в окружающей среде) или просто активизацией уже созданных понятий.

Действие-внимания, активирующее при восприятии временные понятия, ведет упорядоченный список этих понятий, глубина которого вероятно и определяет размер кратковременной памяти человека (обычно не более 10 понятий).

2.5. Действие как основа (смысл) понятий


Размышление о разных понятиях с которыми оперирует мозг человека, приводит к наблюдению, что понятие действия является центральным и лежит в основе практически всех понятий и составляет так называемый их смысл.

Рассмотрим понятия, выражающие свойства или характеристики объектов.

2.5.1. Понятия — характеристики


Образы, регистрируемые рецепторами, содержат в себе информацию о разных базовых характеристиках окружающей среды, например, цвете, яркости, форме линий в определенной точке пространства, частоте и силе колебаний воздуха и других параметрах.

Проверяя образ на выполнение некоторых условий, можно активировать понятия, которые будут выражать значения определенных характеристик или признаков, например, «красный», «желтый», «в центре», «круглый», «большой».

Само действие по проверке этих условий можно считать вопросом о чем-либо, а результат работы этого действия ответом на этот вопрос. Например, вопрос – «Дом красный?», ответ — «Красный». Но необходимо как-то обозначать отрицательный результат проверки. Так появляется понятие «Нет», выражающее отрицательный результат любой проверки. Для симметрии и удобства появляется понятие «Да», которое обозначает положительный результат проверки. Ответы «Красный» и «Да» на вышеуказанный вопрос эквивалентны.

Отдельные действия проверки могут группироваться в наборы, которые получают определенное обозначение. Так появляются наборы характеристик «Цвет», «Размер», «Форма» и другие, включающие в себя отдельные проверки, такие как например, «красный», «желтый», «большой», «маленький». В этих общих характеристиках содержится действие, объединяющее в себе проверки отдельных элементов. Результатом этого действия является одно из значений, входящих в это понятие характеристик. Например, «Размер дома?» — «Большой». Ответить «Да», или «Нет» на подобные вопросы нельзя.

В дальнейшем будем называть характеристикой как отдельное понятие (например, «большой»), так и групповое (например, «размер»). При их использовании каких-то существенных отличий не имеется.

Говоря о действиях-характеристиках можно различить четыре варианта их использования:

  1. Можно говорить об обобщенном действии-характеристике, например, «Цвет чего-то», «Размер чего-то» и др. Эти выражения просто определяют действие, задают какие признаки образа проверяются, и какие возможные значения могут получаться в результате. Аналог описания класса в объектно-ориентированном программировании.
  2. Можно говорить о характеристике какого-то конкретного объекта, представляемого временным понятием, созданным действием-восприятием. Например, внутрисистемным представлением (смыслом) фразы «Какой цвет у этой книги?» будет новое временное понятие, действие-характеристика созданное на основе обобщенного понятия «Цвет чего-то» (п.1) и временного понятия «Эта книга». У характеристики «Цвет чего-то» параметр объекта действия указывает на «Эта книга». Является аналогом экземпляра класса в объектно-ориентированном программировании с конкретизированным значением объекта действия.
  3. А можно задать и результат действия. Этот вариант будет внутренним представлением утвердительных фраз, например, «Цвет этой книги красный». Является аналогом экземпляра класса в объектно-ориентированном программировании у которого конкретизированы объект действия и результат.
  4. И, наконец, может быть задан результат действия, но не задан объект. Этот вариант будет внутренним представлением фраз вида «Что-то красное», «Что-то большое». Является аналогом экземпляра класса в объектно-ориентированном программировании у которого конкретизированы только результат.

Таким образом одна внутренняя структура (действие по проверке определенного признака) лежит в основе таких различных понятий, как 1) обобщенное понятие – характеристика («форма»), 2) вопрос о характеристике конкретного объекта («Какая форма у этого камня?»),
3) утверждение о свойстве конкретного объекта («Камень, лежащий наверху — круглый») и 4) указание на некий объект с определенными свойствами («Что-то круглое»).
Возможность задать результат действия, не выполняя собственно проверку свойств образа, чрезвычайно важна. Она позволяет обрабатывать информацию об объектах в отсутствии собственно образа объекта. Это открывает дорогу к конструированию любых, в том числе абстрактных, понятий, например, «кто-то хороший», «кто-то уважаемый», «функция логарифмическая» и так далее.

Рассмотрим возможную внутреннюю структуру действия-характеристики. Из изложенного выше понятно, что в нем должны присутствовать указатели на объект действия и результат. В рамках действия должны выполняться активности по представлению образа объекта, по проверке определенных свойств этого образа и по формированию результата (активации соответствующего понятия и установлению на него ссылки результата действия). В случае заданного заранее результата, активности по представлению и проверке образа не выполняются.
Схематично это отражено на Рис.4

image
Рис. 4 Возможное внутреннее устройство действия-характеристики

2.5.2. Сравнительные понятия, понятия отношения


В предыдущем разделе мы говорили о признаках, характеризующих некий образ и выяснили, что смыслом этих понятий было действие сравнения этих признаков с определенными, заранее известными шаблонами. При определении, например, цвета происходило сравнение с шаблонами известных цветов и совпавший считался результатом.

Если же проводить сравнение не с заданным заранее шаблоном, а с признаками другого объекта, то получим сравнительные понятия или понятия-отношения. Например, «что-то больше чего-то», «что-то ярче чего-то», «что-то выше чего-то» и так далее.

Подобно характеристикам, отношения не обязаны базироваться только на признаках, содержащихся в образе, воспринимаемом рецепторами. Вполне возможны понятия, не имеющие явного внешнего представления, например, «Он ее муж», «Он руководитель отдела», «Что-то принадлежит кому-то». Иногда даже затруднительно сформулировать ясные правила проверки какого-то признака, как например для понятия принадлежности.

При отсутствии того или другого объекта отношения, получаются вопросы (например, «Что принадлежит Саше?», «Чья эта ручка?»).

2.5.3. Объект – образ и набор характеристик


Воспринятый рецепторами образ можно представить либо в виде сигналов, составляющих этот образ — «фотографии», либо в виде набора результатов действий по проверке каких-то признаков, то есть набора характеристик, либо и того и другого вместе.

Комбинация образа и/или характеристик, всегда встречающихся вместе удобно представлять понятием объект.

На Рис.5 изображено возможное представление объекта, характеризуемого визуальным образом «Образ 1», ассоциативно связанным с ним звуковым образом «Образ 2» и двумя характеристиками «Цвет» и «Форма».

image
Рис. 5 Возможное представление объекта

Отметим, что значения «Круглый» и «Красный» являются образами «текстовых» рецепторов, то есть словами. «Текстовые рецепторы», реагирующие на символы компьютерной информации отсутствуют конечно у человека и приведены, как возможный пример искусственной системы обработки символьной информации.

2.5.4. Характеристика «быть»


Среди всех возможных характеристик есть одна, которая присутствует всегда и является как бы основой для появления других характеристик. Это характеристика отражающее бытие, наличие чего-то. И уже после этого, это что-то может иметь и другие характеристики.
Это характеристика выражается словами «быть», «есть». Действие, лежащее в ее основе, проверяет наличие какого-то сигнала или набора сигналов.

image
Рис. 6 Характеристика есть/быть

Рис.6 показывает, что существует разница между ассоциативной связью между объектами Образ1 и Образ2 и связью через понятие Есть. В первом случае при восприятии одного образа в системе «всплывает» второй образ, а во втором случае возникает знание об объекте.

Ассоциативные связи могут приводить к появлению бессмысленных и не связанных образов и быть в общем случае случайными, а вот образы, связанные через понятия-характеристики, уже несут смысл, так как содержат в себе определенную проверку и сообщают нам о положительном результате этой проверки. Отсюда возникают понятие об истине и лжи, а также логика, как набор правил работы с понятиями-характеристиками, позволяющий из одних истинных понятий порождать другие, которые также будут истинными.

Внешнее представление понятий-характеристик осуществляется действием-представлением, которое конструирует внешнюю форму объединяя представления самой характеристики, объекта и результата. На Рис.6 оно показано внутри понятия-характеристики Есть.

Итак, мы увидели, что определенное действие лежит в основе следующих понятий:

  • Характеристика (действие проверки)
  • Отношение (действие проверки)
  • Объект (набор характеристик)

Если сюда добавить понятия, представляющие собственно действия или процессы, и связанные с ними понятия (например, сомнение, вероятность и др.), то представляется, что все знание можно описать такими структурами, основанными на действиях, и связями между ними.

Таким образом становится ясно, что ключевым вопросом становится вопрос об управлении действиями, то есть о том, какое действие выполняется в данный момент времени и какое будет выполняться следующим. Рассмотрим это в следующем разделе.

2.6. Управление действиями


2.6.1. Рецепторы действий


В начале мы упоминали что выполняемые действия ощущаются, а значит у действий присутствуют определенные рецепторы. Представляется что система должна уметь различать следующие ситуации:

  • Действие в процессе выполнения
  • Действие только что завершилось успешно
  • Действие только что завершилось неуспешно

То есть внутренняя структура действия должна включать рецепторы этих ситуаций. Наличие рецепторов действия позволяет корректно трактовать сигналы с обычных рецепторов (визуальных, слуховых и т.д.). Например, становится возможным различать ситуацию, когда мы реально видим какой-то объект и когда только представляем его.

image
Рис. 7 Уточнение образов рецепторами действий

В предыдущих разделах мы говорили и обозначали на рисунках связи между различными элементами. Эти связи передавали сигнал активности от одного элемента к другому. Например, определенный набор связей от рецепторов может формировать некоторый детектор. Связь от детектора может идти к более сложному детектору, или к эффектору, вызывая какое-либо действие. В целом всю активность системы можно представить, как выбор определенных действий в зависимости от различных сигналов на рецепторах.

Рассмотрим возможные варианты активации определенного действия, изображенные на Рис.8.

image
Рис. 8 Варианты выполнения действий

Вариант 1. В системе может сформироваться связь между детектором и непосредственно эффектором или группой эффекторов (на Рис.8 обозначена цифрой 1). В этом случае, при возникновении определенной ситуации будет срабатывать определенный эффектор. Так образуется то, что называется рефлексами.

Вариант 2. Связь от детектора идет не непосредственно к эффекторам, а к специальной структуре, действию (на Рис.8 обозначена цифрой 2). Чтобы действие выполнилось и послало сигнал к соответствующему эффектору нужно разрешение от специального действия, обозначенного на рисунке действием «Выбор действия». То есть, связь 2 не запускает выполнение действия, а только как-бы подсказывает действию «Выбор действия» что делать. Действие «Выбор действия» работает автоматически. Действию «Выбор действия» в этом случае не нужно искать что делать, ему просто надо согласиться с предложенным выбором. Так возникают автоматизмы, когда вследствие опыта или обучения, система привыкает в определенной ситуации выполнять определенные действия. При этом остается возможность изменить поведение, так как действие «Выбор действия» может не согласиться с предложенным вариантом и несмотря на активность связи 2 выбрать другое действие к выполнению.

Вариант 3. В этом случае нет связи от активных детекторов к какому-либо действию, либо предложенные связи (типа 2) не устроили действие «Выбор действия». В этом случае выполняется сложная логика по выбору действия для выполнения (система «думает»). На процесс выбора действия могут влиять внешние сигналы (показаны на Рис.8 связью 4). Таким образом, например, выполнение действий может прерываться при появлении новых сигналов. Подобное поведение известно в нейрофизиологии как ориентировочный рефлекс – переключение внимания на новый раздражитель.

2.6.2. Процесс выбора действия


В данном разделе опишем процесс происходящий в рамках действия «Выбор действия» на Рис.8. Это действие автоматически выполняется если не возникло рефлекторных активностей (тип 1 предыдущего раздела).

В процессе жизни системы, алгоритм заложенный в это действие может изменяться, совершенствоваться. Но представляется, что он должен обладать как минимумом следующими свойствами:

  • Выбор следующего действия не должен быть случайным, а должен быть целенаправленным;
  • Выполненное действия должно получать оценку – успех/неуспех. Неуспех действия должен учитываться при следующем выборе;
  • При выборе действия должны учитываться подсказывающие сигналы с уровня ассоциаций (связи типа 2 предыдущего раздела).

Для реализации первого свойства в системе должна иметься информация, во-первых, о целях, потребностях системы в данный момент времени, во-вторых об ожидаемых результатах каждого известного системе действия, и в-третьих об условиях успешного выполнения действия.
Большим плюсом предлагаемого подхода является то, что все три типа информации (цели, ожидаемые результаты действия и необходимые условия для действия) могут быть представлены одной сущностью – понятием-характеристикой, описанной в разделе 2.5.1. Например, характеристика «что-то рядом» может присутствовать в ожидаемых результатах действия «Подойти к чему-то», в необходимых условиях действия «Взять что-то», а также быть целью в какой-то момент времени.

Покажем эти элементы на Рис.9.

image
Рис. 9 Выбор действий

В системе присутствует перечень целей, состоящий из указателей на понятия-характеристики (также хранится и значимость данной цели). С данным списком, а также со списком действий с активными ассоциативными связями («подсказки», связи типа 2) и работает действие «Выбор действия». Также каждое известное системе действие включает два списка указателей – один на обязательные условия для выполнения действия, а другой на характеристики результата. Основываясь на этой информации алгоритм действия «Выбор действия» и определяет какое действие выбрать, при необходимости конструируя новое составное действие из отдельных известных действий.

В целом мы видим, как понятие действия, которое берет начало от элементарного эффектора, обрастает вспомогательными структурами (рецепторами, понятиями-характеристиками). Эти структуры формируют некую модель действия, которая позволяет оценивать результат действия до реального выполнения, что дает возможность планировать действия для достижения необходимого результата.

Помимо целенаправленного поведения, необходима реакция на не успешную попытку выполнить действие. Под неуспехом понимаем неспособность завершить (или даже начать) действие в принципе, например, вследствие отсутствия необходимых условий (попытка пить при отсутствии воды или попытка взять что-то очень тяжелое).

О наличие такой ситуации сообщает рецептор не успешности действия (раздел 2.6.1). В этом случае, перед тем как искать следующее для выполнения действие, необходимо провести анализ причины неуспеха предыдущего действия. Этот анализ включает сравнение ситуации перед выполнением действия с прошлыми ситуациями, когда выполнение было успешным, выделение отличий (в виде понятий-характеристик) и корректировку моделей известных действий (например, добавление необходимых условий).

2.6.3. Формирование перечня целей


Рассмотрим процесс формирования перечня целей. Как уже упоминалось, это список желаемых в данный момент времени характеристик вместе с их значимостью. Этот список динамический – элементы могут добавляться и удаляться в результате выполнения действий и достижения цели. Добавление данных в него возможно автоматически («бессознательно») от сигналов определенных рецепторов, активирующих эффекторы, которые и добавляют цель в перечень. Либо добавление цели возможно целенаправленно («сознательно») путем выбора для выполнения специального действия «Добавить цель».

Удаление цели из перечня также возможно на двух уровнях – на уровне эффекторов, когда сигналы от рецепторов сигнализируют о прекращении нужды в чем-то, и на «сознательном» уровне, проверяя удовлетворение целевой характеристики после выполнения действия, призванного ее удовлетворить. Эта проверка и удаление достигнутых целей выполняется в рамках первых шагов действия «Выбор действия». Удаление цели на этом уровне может выполниться и без достижения целевой характеристики, путем выбора для выполнения специального действия «Удалить цель».

Это показано на Рис.10

image
Рис. 10 Формирование перечня целей

2.6.4. Оценка последствий действия


В предыдущих разделах мы рассмотрели структуры необходимые для планирования поведения – перечень текущих целей системы и модели известных системе действий, включающие перечни необходимых для выполнения действия условий, и свойств, получаемых по результатам выполнения действия. Эти данные позволяют подбирать действия для достижения целей. Этим занимается специальное действие «Выбор действий».

Возможны ситуации, когда цель может быть достигнута в результате различных действий. Например, чтобы утолить голод можно съесть имеющуюся на кухне еду, можно купить еду в магазине, можно отобрать еду у кого-то, можно ее украсть где-то. Допустим, что все эти действия теоретически возможны (в холодильнике имеется еда, магазин расположен недалеко и имеются деньги, а по улице идет человек и несет покупки). В этом случае системе надо выбрать из четырех равно возможных действий. Нужен какой-то механизм для оценки предпочтительности возможных действий. Для каждого действия он должен учитывать конкретную текущую ситуацию и выдавать некую оценку на шкале от плохо до хорошо. Чтобы воспринять эту оценку, необходимы рецепторы. А выполнение оценки может выполняться в виде специального действия, входящего в состав модели действия и активирующего, в зависимости от состояния других рецепторов, рецепторы оценки.

image
Рис. 11 Оценка последствий

На Рис.11 выполнение действия «Оценка последствий» выполняется действием «Выбор действия» на этапе выбора из теоретически возможных действий. Эти возможные действия сравниваются по значениям рецепторов плохо-хорошо.

Действие «Оценка последствий» не является статичным, формируется и модифицируется в процессе обучения и реальных действий.

Рецепторы оценки «Плохо-хорошо» могут активироваться не только при оценке последствий действий, но и в ходе выполнения действий восприятия сигналов окружающей среды. Они как бы дополняют, «эмоционально» окрашивают все другие сигналы. Как и на базе других сигналов, на их основе могут быть образовываться понятия-характеристики (п.2.5.1) – «Хороший», «Плохой», которые могут включаться в модель действий и учитываться на этапе выбора действий.

2.6.5. Возможный алгоритм выбора действия


Ранее мы упоминали разные функции выполняемые в рамках действия «Выбор действия». Попробуем объединить их в рамках одной блок-схемы. Приведенный на Рис.12 алгоритм не является единственно возможным и не отражает всех особенностей, а служит исключительно для систематизации и осмысления выполняемых функций.

Среди функций этого алгоритма есть функция, которую мы не обсуждали ранее – это так называемое углубление целей, когда перечень целей дополняется новыми целями, создаваемыми на базе необходимых условий из модели некоторого действия. Например, при наличии цели «Отсутствие голода», из модели действия «Съесть еду» (в необходимых условиях которого присутствует понятие-характеристика «Еда рядом») будет добавлена цель «Еда рядом», а для ее выполнения создано действие «Подойти к еде».

image
Рис. 12 Возможный алгоритм выбора действий

3. Заключение


Итак, в данной статье дана попытка описать концепцию представления и обработки информации, которую я назвал — «Динамическая семантическая сеть, основанная на действиях».

Семантическая сеть – потому что знания представляются в виде связей понятий и образов. Динамическая – так как действия-восприятия порождают временные образы и понятия, с которыми и ведется работа. Основанная на действиях – так как, в основе понятия лежит действие, вокруг которого формируются все более сложные структуры, приводящие к усложнению поведения системы.

За основу при ее разработке брались известные факты о работе нервной системы человека, но, учитывая ограниченность знаний в этой области, в значительной степени данная концепция является гипотезой и требует проверки путем создания прототипов систем для обработки разного типа информации – текстовой, визуальной и пр.

В случае верности изложенных в статье идей, системы на ее основе будут обладать следующими свойствами:

  • Понимание смысла воспринятой информации – смысл заключен в стоящих за образами действиях;
  • Выполняемые действия могут быть объяснены – в системе есть перечень целей, а выполняемые действия выбираются на основе модели действия, содержащей условия и ожидаемые результаты;
  • Способность планирования цепочек действий – наличие модели действия позволяет строить цепочки действий с определенным ожидаемым результатом;
  • Способность к обучению на собственном опыте – наличие рецепторов действий позволяет «ощущать» выполняемые действия, оценивать их результат, корректировать модели действий при несовпадении ожиданий и реальности.

Многие вопросы не были освещены в рамках этой статьи, например, понятие времени и представление последовательностей действий, анализ собственных действий (рефлексия), особенности обработки визуальной информации и другие. Возможно в следующих статьях я попытаюсь дать соображения по этим вопросам.

4. Ссылки


  1. www.real-ai.ru – мой сайт с более подробной информацией о данной модели.
  2. scorcher.ru — Много фактической информации о функциях мозга и нервной системы.

Комментарии (25)


  1. Apxuej
    19.12.2019 16:18

    соображения, изложенные в данной статье, подтолкнут других исследователей к работе в этом направлении, явно испытывающем дефицит конструктивных идей в настоящее время.

    Хотел поинтересоваться у автора, что понимается под дефицитом идей? Отсутствие литературы на тематику статьи? Или может быть схожесть подходов во всём доступном объёме литературы на данную тему? Если второе, то может поделитесь что читали и в каком разрезе современная научная мысль рассматривает проблему, в чём кардинальное различие с Вашим подходом? Заранее спасибо!


    1. Sanek22 Автор
      19.12.2019 16:51

      Добрый день!
      Основные идеи по представлению и обработке знаний были относительно давно высказаны.
      Это по-крупному:

      • Логика предикатов
      • Продукционные модели (правила «если-то»)
      • Семантические сети и концептуальные графы
      • Системы на базе фреймов

      Популярные в настоящее время системы — это либо нейросети в чистом виде (они не обладают знаниями), либо комбинация например с продукционной системой или концептуальными графами.
      Я не профессиональный ученый, поэтому за всю современную научную мысль не скажу. Но мне не встречалось интересных работ где правдоподобно объяснялась бы обработка информации мозгом и появление знаний.
      Изложенный в статье подход, на мой взгляд, дает понимание как возникают знания (как результат действий по проверке входных сигналов). Других концепций, объясняющих этот вопрос, мне не известно.


  1. Apxuej
    19.12.2019 17:46

    У Вас ведь тоже семантическая сеть? Расскажите, что другие подходы на семантических сетях делают по Вашему мнению не совсем корректно или чего в них не хватает. Ну тезисно, конечно, в самом общем смысле. Я понимаю что не получиться в комментарии уместить более или менее развёрнутое сравнение.


    1. Sanek22 Автор
      19.12.2019 18:20

      Главные отличия:
      1. В классических семантических сетях не описывается процесс возникновения понятий и связей. Предполагается что понятия и связи кто-то как-то занесет в систему, а потом еще придумает что с этим делать. То есть, это абсолютно статичные структуры.
      2. За понятиями семантической сети или концептуального графа ничего не стоит (ни сигналы от окружающей среды, ни какие-либо активности) — соответственно система не может создать или проверить истинность утверждений, ни выполнять действий. Для реализации этого, надо создавать что-то за рамками этих структур.
      3. Среди базовых понятий классических семантических сетей нет понятия действия.

      Предлагаемая концепция «привязывает» понятия к сигналам окружающей среды, что позволяет создавать и проверять понятия. Наличие понятия действия в этой концепции позволяет описывать разные активности, при этом единообразное представление результатов действий и условий их выполнения, позволяет системе конструировать цепочки действий для достижения цели.
      Как-то так…


  1. fivehouse
    19.12.2019 18:11

    Перед рисованием всех этих выдающихся схем, я бы посоветовал узнать про одну маленькую, но очень важную вещь — как конкретно обучаются реальные нейросети. Без всех этих внешних механизмов подгонов весов связей, что делается для искусственных сетей. А также понять, что искомый общий интеллект в мире обнаруживается только как функция человеческого мозга, и что никакого интеллекта в человеческом мозгу без его обучения не существует. Мало того, существует возрастное окно обучения. После его пропуска человек остается глубоким инвалидом с невозможностью как либо нормально жить в мире созданном человеком.


  1. Ermit
    19.12.2019 18:29
    +1

    Есть катастрофическая разница между словами, которые идентифицируют понятия (как у Вас) и словами, которые идентифицируют явления (или значения). Пока Вы не разберетесь с этим дуализмом (можно начинать изучать эти вещи в семиотике), ваши семантические построения не выйдут за рамки upper ontology.


  1. VDG
    20.12.2019 06:17

    Вам не нужен переключатель. Заведите обратную связь прямо на вход сети, как в рекуррентных сетях. А фильтр уже управляемый, просто дАвите им, когда нужно, сенсорную активность.

    Все эти действия, внимание, цели — это мышление, и Вы пытаетесь его использовать для восприятия. Но это разные процессы и работают они в разных «временных потоках».

    Будем называть данные нейроны детекторами, а комбинацию входных сигналов от рецепторов — образом. То есть детекторы выполняют функцию распознавания образов. Собственно, именно эту функцию и моделируют разнообразные широко известные в настоящий момент нейронные сети. Но их разработчики на этом и останавливаются, а мы пойдем дальше.

    Вот я бы предложил решить этот открытый вопрос прежде чем идти дальше. Легко нарисовать квадратик, сказать, что он что-то распознаёт, и построить из таких квадратиков целую концепцию. Но когда дойдёт до попытки перенести её из бумаги в код, оказывается что строить-то не из чего.

    Аналогично детекторам, нейроны посылающие сигналы к эффекторам, могут объединяться в более сложные структуры, активация входных связей которых приводит к выполнению комбинаций элементарных действий. Таким образом, возникают структуры, представляющие действия.

    Вы очень легко проскочили данный момент без объяснений.

    Если попытаться завести эту модель, то сенсорный поток породит случайную активность квадратиков-детекторов, которые опять случайным образом активируют квадратики-действия. По обратной связи их случайная активация перейдёт в фильтр, где опять случайным образом отфильтрует сенсорную активность, и цикл повторится. В зависимости от модели нейронов, которые будете использовать, в лучшем случае увидите хаотичную активность. В худшем — коллапс, комбинаторный взрыв, эпилепсию сети.


  1. Sanek22 Автор
    20.12.2019 09:57

    Про ненужность переключателя. Мышление и восприятие.
    Переключатель нужен чтобы система могла:

    • взаимодействовать с внешней средой
    • «думать», прогнозировать, выбирать следующие действия.
    Так как хочется, чтобы система могла выполнять оба эти действия, а в концепции предполагается, что «мышление» это обработка тех же образов от рецепторов, то без переключателя не обойтись.
    По моему мнению, восприятие конечно же определяется изнутри системы. Мы видим/ощущаем/замечаем то, что хотим видеть, ощущать. Вернее, хочет наш мозг/нервная система, так как сюда входят и бессознательные реакции. Зрительные иллюзии хорошо это демонстрируют, на мой взгляд.

    Про детекторы.
    Нейроны обладают связями, реализующими логические функции И/НЕ. Их достаточно чтобы представить любую комбинацию сигналов от сенсоров. Не вижу какой-то большой сложности здесь, но конечно, возможны какие-то нюансы, вопросы, которых сейчас не видно.

    Про структуры представляющие действия, случайности и хаотическую активность.
    Собственно в статье я и пытаюсь показать структуру и функцию действий. Присутствие в системе целей, и активизация действий не случайным образом, а специальным действием предотвращает хаотичную активность. Но наверняка, при попытки реализации здесь будут какие-то сложности. Без попытки реализации сложно пока их представить.


    1. VDG
      20.12.2019 22:14

      Нейроны обладают связями, реализующими логические функции И/НЕ.

      Если желаете строить модель по биологическому подобию, то необходимо опираться на реальные данные. Есть только возбуждающие и тормозные синапсы. И последние не являются аналогом логического НЕ-элемента.

      специальным действием предотвращает хаотичную активность

      Задайтесь вопросом что происходит в момент запуска. Нет ни действий, ни детекторов, ни целей.


  1. michael_vostrikov
    20.12.2019 10:06

    Вы написали то, что и так все знают — нейроны объединяются в сложные структуры, и посредством этого происходит обработка информации. Дело в том, что никто не знает, как именно это происходит, как устроен механизм взаимодействия и организации. Понятие "действие" притянуто за уши, и вполне заменяется на понятие "процесс".


  1. Kilorad
    20.12.2019 10:47

    Судя по моим наблюдениям, статьи по разработке сильного ИИ пишут либо с позиции философии/психологии — и тогда она очень абстрактная и пытается копировать человеческое мышление, независимо от того, насколько это разумно. Либо с позиции математики, теории управления, структур данных и машинного обучения — тогда ИИ уже хоть как-то реализуем, ну и можно быстро проверить, работает ли идея. Но тогда это попытка сделать не человеческий интеллект, а оптимальный.
    Радует, что автор относительно хорошо погрузился в математику и структуры данных) И понимает, что входные образы не повторяются, а чтобы работать с объектами, эти объекты надо вначале как-то выделить из видеоряда.

    Итак, есть ли автора понимание, как работает Q-Learning и как работает Model-Based Reinforcement Learning, хотя бы концептуально? При условии, что на входе у ИИ не дискретные состояния, а набор сенсоров, каждый из которых выдаёт число типа float. И… При условии, что нам доступны разные способы машинного обучения, но нейросети — нет)
    Я это спрашиваю, потому что самое близкое, что есть сейчас к «ИИ общего назначения» — это Reinforcement Learning, и люди, говорящие о сильном ИИ, не всегда понимают базовые вещи в RL)

    Потом. Вы можете примерно описать, как бы ваша система решала задачу обратного маятника? С нулевым опытом на старте
    gym.openai.com/envs/CartPole-v1

    С уважением)


    1. Sanek22 Автор
      20.12.2019 14:38

      Спасибо за положительную оценку. Меня тоже всегда огорчало отсутствие конкретики в большинстве рассуждений о сильном ИИ.

      Честно скажу, сильного понимания Q-Learning и Model-Based Reinforcement Learning у меня нет.
      Мои соображения по их поводу следующие:
      Хотя в них заложен понятный и разумный принцип достижения отдельной цели, они недостаточно универсальные для представления ими всей мыслительной деятельности. Эти подходы предполагают наличие в системе единой модели оценки окружающей среды и возможных действий, а также фиксированную функцию оценки награды, что на мой взгляд не верно. Моя концепция предполагает наличие отдельной модели для каждого действия.

      Работать с числами float можно если предусмотреть рецепторы, анализирующие эти величины. Естественно, в системе должно быть столько детекторов, сколько разных ситуаций вы хотите обрабатывать.

      Например, детектор активизирующийся при наличие на входе числа 1.23456789 или детектор, активизирующийся при попадании величины в определенный диапазон.

      Попытаюсь описать схему решения задачи поддержания равновесия.

      Первый случай (автоматизм, после обучения):

      Есть детекторы угла наклона стойки, например: ровно, влево 1, влево 2, влево 3, вправо 1, вправо 2, вправо 3
      Есть действия: сдвиг 1, сдвиг 2, сдвиг 3, сдвиг -1, сдвиг -2, сдвиг -3

      Есть признаки-характеристики: «В равновесии», «Наклон влево», «Наклон вправо», «сдвиг 1 выполнен», «сдвиг 2 выполнен» и аналогично для остальных действий.

      Система настроена (обучена) на поддержание равновесия — то есть, есть рефлекторные связи от детекторов наклона к действиям Создать цель, которые создают временные цели (детектор влево 1 -> создать цель «сдвиг 1 выполнен», детектор вправо 1 — > цель «сдвиг -1 выполнен» и так далее).

      Действие «Выбор действия» выбирает соответствующее действие, так как в результатах модели действия, например, действия сдвиг 1 присутствует характеристика «сдвиг 1 выполнен».

      Второй случай (процесс обучения):

      Есть детекторы угла наклона стойки, например: ровно, влево 1, влево 2, влево 3, вправо 1, вправо 2, вправо 3
      Есть детекторы плохо, нейтрально, хорошо
      Есть действия: сдвиг 1, сдвиг 2, сдвиг 3, сдвиг -1, сдвиг -2, сдвиг -3

      Есть признаки-характеристики: «В равновесии», «Наклон влево 1», «Наклон вправо 1» и т.д., «сдвиг 1 выполнен», «сдвиг 2 выполнен» и аналогично для остальных действий.
      Есть признаки-характеристики: «Стало хорошо», «Стало плохо» которые проверяют состояние детекторов плохо-хорошо и сравнивают с предыдущим состоянием.

      Система настроена на избегание ситуаций «Плохо», то есть действие «Выбор действия» пытается выбрать действие так, чтобы исчезла активность детектора «Плохо»,
      то есть, признак-характеристика «Стало хорошо» присутствует в списке целей системы.

      Системе сообщается, что наклон стойки это плохо путем установления связи от любых детекторов наклона к детектору «Плохо».

      Действие «Выбор действия» пытается найти действие с результатом «Стало хорошо» в модели каждого действия. Среди имеющихся таких не находится.
      Тогда создается новое (пока пустое) временное действие с результатом «Стало хорошо» в его модели. Условно его можно назвать «Поддержание равновесия 1».
      В рамках выполнения этого нового действия пробуется случайное действие.
      Результат анализируется (подробно сейчас тяжело описать), но вкратце выполняется например следующее.
      Если произошло выравнивание стойки, то есть детекторы наклона стали неактивны, а значение признака-характеристики «Стало хорошо» истинно, то значит сконструированное действие достигло цели и завершилось успешно.
      В этом случае система сохраняет ситуацию до действия (то есть значения активных признаков, например «Наклон влево 1») в раздел «необходимые условия» модели.

      Если же выравнивания не произошло, детекторы наклона активны, значение признака-характеристики «Стало хорошо» ложно, то признаки описывающие ситуацию до действия (например «Наклон вправо 1» не добавляются или исключаются из раздела «необходимые условия» модели этого сконструированного действия.

      Соответственно в следующий раз действие «Поддержание равновесия 1» не будет выбрано в ситуации «Наклон вправо 1» (так как не будут выполнены необходимые условия) и система попробует создать другое действие «Поддержание равновесия 2», в которое случайным образом попытается добавить другие действия.
      Через какое-то время в системе сформируется несколько новых сконструированных действий «Поддержание равновесия ...» для ситуаций с разными признаками-характеристиками и они будут выбираться для выполнения, для достижения цели «Стало хорошо» в определенных условиях.
      В случае частого использования какой-то более глобальный процесс оптимизации сможет проанализировать значения детекторов до выполнения, выполняемые действия и успешность результата и прийти к замене общей цели «Стало хорошо», на конкретные цели выполнения определенных действий, как было описано выше. Это позволит ускорить выполнение, уйдя от анализа признаков-характеристик.


      1. Kilorad
        20.12.2019 15:58

        То, что вы описали, очень похоже на Q-Learning =) Но это его разновидность, и по описанию понятно, как она работает ситуации с дискретным множеством состояний сенсоров и с ситуациями, когда будущие переменные можно вывести из прошлых через относительно небольшую таблицу истинности. Кроме того, из описания не вполне следует, что делать в стохастической среде (когда не удаётся вывести зависимости, которые работали бы со 100% точностью). Кроме того, из описания пока не вполне ясно, как действовать, если у действий есть последствия, но все они отсрочены во времени.
        Это не значит, что систему нельзя как-то тривиально доработать до такого состояния)

        Поэтому у меня будут вопросы, как работать с такими ситуациями =)
        Допустим, нам нужно ловить сложные зависимости, в том числе временные. Скажем… Мы хотим, чтобы наш ИИ выставлял цены в супермаркете. И максимизировал деньги. Горизонт планирования — пара месяцев. У нас меняется спрос, у нас меняется число товара на складе, у нас часть товара надо срочно продать, иначе протухнет. Кроме того, люди реагируют на изменение цены не мгновенно. Поменяли цену сейчас — спрос меняется в течение нескольких дней. Кроме того, изменение цены на один товар влияет на продажи другого.
        Как бы ИИ обучался в таком случае? Он должен как-то учитывать историю на неизвестную глубину назад. У него довольно много сенсоров, все типа float. Кроме того, ему надо как-то оценивать сильно нелинейные зависимости: например, если поставить большую цену, то доход будет низким, но и если поставить низкую цену, то доход будет не очень. И если цену слегка понизить, то мы можем получить много дохода сегодня-завтра, но мало в перспективе месяца.
        Сенсоры: цена_товар1, продажи_товар1_вчера, испортится_товар1, на_складе_товар1, цена_товар2, продажи_товар2_вчера, испортится_товар2, на_складе_товар2
        Актуаторы: цена_товар1, цена_товар2
        Целевая величина: сумма_на_банковском_счету
        Ну и доступна вся история в таком формате.

        То есть основной вопрос — как строить сложные временные зависимости.

        Ещё — я не вполне понял, для чего меняются цели действий… И как это происходит. По описанию похоже, что мы просто не проводим перебор в некоторых ситуациях, а выполняем «действие по умолчанию», потому что там уже не нужна разведка. Но… Тогда почему цель меняется?

        Хотя в них заложен понятный и разумный принцип достижения отдельной цели, они недостаточно универсальные для представления ими всей мыслительной деятельности. Эти подходы предполагают наличие в системе единой модели оценки окружающей среды и возможных действий, а также фиксированную функцию оценки награды, что на мой взгляд не верно. Моя концепция предполагает наличие отдельной модели для каждого действия.
        — а можно чуть подробнее о вашей цели в данном проекте? В QL эта единая модель оценки — это по сути ТЗ для ИИ, это предельно однозначное объяснение, чего мы от него хотим. То есть без неё вообще не очень понятно, как проверять, улучшаем ли мы ИИ или ухудшаем. На какую метрику/какое ТЗ ориентируетесь вы?
        Или там задача вида «сделаем архитектуру примерно как у человека и будем рассчитывать, что оно будет вести себя примерно как человек»?

        Кроме того, насчёт достижения целей. Предлагаю разобраться, что такое уравнение Белмана в QL. Насколько я понимаю, это одна из моделей оптимального принятия решений. В смысле… Я искал аргументы в пользу того, что есть какое-то поведение, которое не соответствует уравнению Белмана, но при этом лучше в плане достижения целей, и таких аргументов не нашёл. Разве что аргументы в пользу того, что не надо это уравнение программировать тупо в лоб)))


        1. Sanek22 Автор
          20.12.2019 16:37

          Уважаемый Kilorad!
          Я очень хотел бы ответить на все ваши вопросы, но не смогу.

          Отвечу, на что могу:

          1. В статье описана концепция, базовые понятия. Вопрос учета неопределенности в результатах действий может быть решен добавлением понятия вероятности к результатам действия в модель и учетом ее при выборе действий. Конкретнее пока не продумывал.
          2. Про максимизацию прибыли в условиях неопределенности — не знаю.
          3. Характеристика времени подобна другим характеристикам. Например «Справа от чего-то», подобно «После чего-то». Просто сравниваются другие сигналы.
          4. Меняются не цели действий, а цель системы. Вместо общей цели «Чтобы было хорошо», ставятся цели выполнить конкретное действие. Эти цели не требуют сложного поиска действий для их достижения.
          5. Да, мне интересно было предложить модель, которая бы обладала свойствами приближенными к человеческим.
          6. Про уравнение Белмана вряд ли я смогу разобраться, нет у меня необходимой математической подготовки, сорри :)


          1. Kilorad
            20.12.2019 16:43

            Спасибо и на этом =)
            В вашей концепции есть идеи, которые позволили бы поднять RL на новый уровень, если бы их удалось воплотить)


        1. VDG
          21.12.2019 02:41

          У него довольно много сенсоров, все типа float… Мы хотим, чтобы наш ИИ выставлял цены в супермаркете. И максимизировал деньги. Горизонт планирования — пара месяцев.

          «Я просто щёлкаю тумблерами и смотрю что зажжётся.» © Экспансия

          К справедливости, мы требуем от ИИ то, чего и сами не можем. Мы не щёлкаем тумблерами, а крутим модель с ценой, товаром, психологией и т.д.


          1. Kilorad
            22.12.2019 14:16

            К справедливости, мы требуем от ИИ то, чего и сами не можем. Мы не щёлкаем тумблерами, а крутим модель с ценой, товаром, психологией и т.д.
            — вы смогли бы рассказать, что именно мы делаем, не используя терминов «цена», «товар», «психология» и так далее? У нас есть временные ряды на входе, временные ряды на выходе и сигнал подкрепления. Модель появится, только если ИИ её сделает сам (на людей же тоже все эти модели не с неба свалились, люди их как-то вывели)


            1. VDG
              23.12.2019 05:49

              Перед тем как входные данные попадут к мышлению сенсорная система, отточенная эволюцией за сотни миллионов лет, понижает их размерность, создаёт мысленный объект. Вот с ними «цена»/«товар» мышление может работать, а с сырыми данными — нет. И этот уровень абстракции мы не развиваем в себе, он у нас с рождения. А без него человек и в трёх тумблерах запутается. Но перед ИИ сразу ставят задачу с миллионом тумблеров — иди разбирайся.

              Нужно строить мозг, разделить задачу хотя бы на два уровня: сенсорный и мышление. Натравливать сетку мышления не на миллион сырых флоутов, а на семантическую сеть с сенсорного уровня. В мозгах тысячи специализированных мест, разные уровни обработки/абстракции, разные части объединяются в сети, переключаются с одной на другую. А для ИИ сейчас просто валят на «новорождённого» миллион флоутов и ждут что такая сложнейшая архитектура мозга родится сама. Она может и родится, но надо подождать полмиллиарда лет.


              1. Sanek22 Автор
                23.12.2019 08:32

                Перед тем как входные данные попадут к мышлению сенсорная система, отточенная эволюцией за сотни миллионов лет, понижает их размерность, создаёт мысленный объект. Вот с ними «цена»/«товар» мышление может работать, а с сырыми данными — нет. И этот уровень абстракции мы не развиваем в себе, он у нас с рождения.

                Поддержу VDG в том, что мышление не должно и не работает непосредственно с уровнем сенсорных сигналов.Но не соглашусь с тем, что выделение абстракций происходит до мышления, на сенсорном уровне, и дано нам от рождения.
                Что-то дано от рождения, но большую часть производных понятий человек приобретает в процессе учебы, опыта. Принятие решений происходит как раз на основе таких производных признаков (функций от сенсорного входа). Причем какие признаки анализировать определяется целями. Разные цели могут требовать анализа разных признаков, даже при одной сенсорной информации на входе.
                Именно такой подход и содержится в предлагаемой модели. Характеристики описанные в п.2.5.1 (по сути производные признаки) формируют абстрактный уровень понятий, который и участвует в целеполагании и выборе действий.


              1. Kilorad
                23.12.2019 10:39

                Я с вами в целом согласен, но к сожалению, это означает лишь, что значительная часть управления происходит за пределами процессов мышления. То есть этот ответ не приближает нас к знанию, как сделать ИИ, который решает задачи реального мира.

                Разве что он предлагает «а давайте мы получим ИИ с помощью эволюции», но тогда какой толк строить внутренние модели данных, если у нас всё равно получится блэкбокс?

                Сейчас есть, скажем, DQN, и если им дать хороший сенсорный предобработчик, то они станут ИИ общего назначения. Просто автоматически, исходя из их математики.
                Только где взять такой предобработчик?..

                Идея, что у нас сознательное мышление как-то отделено от сенсорной предобработки — она верная и полезная. Но если мы дальше строим модель сознательного мышления, а модель предобработки не строим, то мы всё самое интересное выносим за скобки =) Без предобработки думалка всё равно не сможет решать реальные задачи, поэтому имеет смысл рассматривать «расширенное» человеческое мышление как всё, что происходит после того, как фотоны вошли в глаза и до того, как сработали мышцы. Когда я это обсуждал с друзьями, я даже термин придумал: мышление-управление. То есть не то, что делает сознание, а то, что делает вся ЦНС

                У вас есть понимание, как решать задачу мышления-управления? Если на входе у нас не то, что на входе у мышления (потому что может, интеллект весь не в мышлении, а в предобработке), а то, что на входе у глаз?


  1. SNYPS
    20.12.2019 16:25

    Не могу не поделиться ссылкой на мою собственную работу на эту тему
    habr.com/ru/post/477804


  1. DjSens
    21.12.2019 10:19
    -1

    все такие модели якобы сильного ИИ я проверяю так — прошу автора рассказать ход мыслей его СИИ при ответе на заданный ему вопрос «можно ли носить воду в решете ?»
    Описанный автором текстовый процессор не сможет ответить, и нейросети не смогут, а мой вариант сможет, но его ещё не скоро реализуют, подробнее тут — aftershock.news/?q=node/718819


    1. michael_vostrikov
      21.12.2019 15:39

      У автора есть пункт "Ассоциативные связи", именно это и даст возможность отвечать на такие вопросы. В вашем варианте вообще архитектура не описана, там просто постулируется, что ИИ каким-то образом может обучаться так же как человек. Естественно, при такой способности он сможет ответить так же как человек.


  1. InterceptorTSK
    22.12.2019 10:30
    -1

    О боже… Какая бредятина… Ну сколько можно? Автор, вы зачем лезете туда, где вы вообще «ни ухом ни рылом»?

    Вы для начала определение «интеллекту» дайте, причём строго математическое.
    Итак, интеллект — это любые манипуляции с логикой высших порядков, такое что не нарушает логику в пределах построенной логики.
    Одной из реализаций логики высших порядков является «теория абстракций», построенная на «теории типов».

    Пример: Поглядите на шкафчик перед вами, или где-то сбоку. Развалите его на абстракции.

    Вещь: iФорма-able
    Шкаф: Мебель: Вещь

    Коню понятно, что Шкаф реализует форму, причём как — не суть важно. Т.к. Шкаф реализует форму как абстракцию, то вы можете шкафу задать любую форму, такую что бы логика Шкафа не развалилась.
    В итоге очевидно, что вы получаете буран абстракций, абсолютно доселе неведомых. Т.е. например Шкафы пяти… девяти-угольные, скругленные и т.д. — топология вам в помощь. Пространственно — оно совсем получается в принципе любым каким захотите.

    А теперь посмотрите на Шкаф пристальней, поймите от чего он наследуется, найдите все 150 интерфейсов от родителей, соберите логику Шкафа и меняйте интерфейсы как вам вздумается и получите абсолютно всё что захотите практически без ограничений.

    Вот это и есть «интеллект».


    1. Kilorad
      22.12.2019 14:30

      Итак, интеллект — это любые манипуляции с логикой высших порядков, такое что не нарушает логику в пределах построенной логики.
      — а вот Люк Мюльхаузер (а так же Ник Бостром, DeepMind, Google и OpenAI) сказал бы, что интеллект — это оптимальное управление, что бы ни подразумевалось под критерием оптимизации. Это, кстати, можно измерить. И есть минимум две концепции такого интеллекта, которые вообще не включают в себя в явном виде теорию типов. И ограниченные формы которых уже запрограммированы. И ни так, ни другая концепция вообще не ссылаются на человека, они «объективны».

      Вы для начала определение «интеллекту» дайте, причём строго математическое.
      — полностью согласен, с этого надо начинать. Разные люди под этим подразумевают очень разные штуки.

      К счастью, автор это определение привёл в комментах — он намерен передрать архитектуру человеческого мышления (того самого, которое можно отрефлексировать, то есть… Не всё) и получить результаты, похожие на результаты человеческого мышления. Это называется подходом на основе когнитивных архитектур или бионикой. То есть задача: создать «чёрный ящик» такой, что при включении его в контур управления роботом этот робот будет вести себя максимально похоже на человека. И дальше уже идёт математика того, как это реализовывать.