Решил опубликовать еще один отрывок из рассказа "Высший разум", который тоже касается обсуждаемого на Хабре — обработка информации. В нем изложен несколько неожиданный взгляд на поток информации в мозге, чем принят в программировании. Но не спешите критиковать, это просто попытка иначе взглянуть на то, что порой кажется известным и само собой разумеющимся. Сразу замечу, что этот подход основан на когнитивной психологии. Буду рад интересным мнениям, так как вопрос открыт.

— Эми, я столкнулся с проблемой. Как создавать модели? Информации от объектов явно недостаточно. И она зашумлена. Надо очень много предъявлений, чтобы корректно обучить модель.
— Модель не создается по информации от предмета. Она уже есть в мозге. Только тогда информацию, как ты говоришь, можно «принять», то есть выбрать вариант этой модели. Каждый предмет, ситуация, факт, явление – это только вариант более общей модели. И сама модель состоит из других моделей. Как предложение, описывающее предмет, из слов, служащих для описания не только этого экземпляра. Тебе надо разобраться в этом.
— Подожди, то есть, по-твоему, наши представления строятся не из информации от предмета?
— Если бы это было так, то ты бы видел в цвете только маленький круг в фокальной зоне (в фокусе внимания), все остальное вокруг было бы для тебя в оттенках серого. Так устроена сетчатка, как ты знаешь. Информация о предмете всегда неполная, но вы видите предмет всегда полностью. Потому что информация от предмета только активирует вариант модели, которая уже есть в мозге.
— Как так, не понял? Как работает мозг тогда?
— Так же как вы решаете уравнения. В уравнении уже установлены отношения между переменными. И вам обычно не известны все переменные сразу. Вы подставляете одни, чтобы найти другие. И в итоге приходите к решению. К одному из решений, то есть варианту модели при данных переменных. Примерно так же это происходит и в мозге, только модели более сложные, распределенные и многомодальные.

— Но разве это не обработка информации?
— Тебе надо изменить способ представления об этом процессе, чтобы понять. Мозг не обрабатывает информацию как поток, а подбирает подходящий под триггеры сенсорной системы вариант модели, которая уже есть в мозгу. Ваши нейронные сети так и работают уже. Они обучаются – это значит, что они приобретают модель того, что учатся распознавать. А картинка – всего лишь триггер на входе, который активирует цепочку весов, замкнутую на тот или иной выход нейросети.
— Откуда же мы узнаем новые модели?
— Вы их генерируете в ответ на отсутствие подходящей модели с предсказанным ответом среды. В ответ на нераспознанный (не подходящий ни под одну модель) стимул идет поиск вариантов (ориентировочное поведение), у животных – это весь ассортимент имеющихся движений. У людей – все варианты мысленных действий. Например, математики начинают сочинять математические теории, которые потом надо подтверждать в опыте для объяснения нового явления. И если ответ среды (триггер) с искомым результатом окажется предсказанным, этот вариант запоминается как модель процесса. Это если упрощенно.
— Но мы до сих пор пользуемся представлением о передаче информации от источника.
— Передача информации о предмете излучением от него – это наивная метафора. Она произошла от передачи предмета, письма с текстом, которая была интерпретирована как передача информации. Но чтобы прочитать письмо, надо уже иметь модель букв, слов, предложений (языка). Иначе это только черточки на бумаге. Буквы являются вариантами в модели, и передать ее можно, только если у адресата есть такая же модель – он знает хотя бы букварь. Вот так, кстати, метафоры вам мешают находить правильные решения. И вам трудно от них отказаться, многие ваши ученые и ты до сих пор пользуетесь этой метафорой.
— Что тогда мне надо делать?
— Алгоритм генерации моделей по триггерам, а не наоборот. У вас были работы по генеративным нейросетям, это может подойти, если немного скорректировать подход. Я покажу как.
— Хорошо, ты говоришь, что надо генерировать модель. Но что брать за основу? Все равно нужны какие-то данные из среды. Или элементы модели совершенно произвольны и никак не связаны с реальностью?
— Разве шкала градусника как-то похожа на температуру тела? Разве она как-то соответствует броуновскому движению молекул? Она только показывает, какая она в тех единицах, которые вы приняли для себя. В градусах. Все, что соответствует реальности в этих измерениях, — это одновременное изменение температуры тела и положения указателя на шкале градусника, так как ртуть расширяется от нагревания. Это все, что вы узнаете при помощи прибора о реальности, – ее изменение в единицах шкалы. И без шкалы положение ртути в градуснике вам ничего не говорит! Ни одно разумное существо не может знать, какова реальность на самом деле, потому что все разумные существа оперируют не самой реальностью, а моделями ее внутри себя. Модели — это шкала градусника. При этом они созданы для удобства оперирования ими, а не для соответствия реальности. Они созданы теми средствами, которые доступны мозгу.
— Вы тоже используете модели реальности?
— Конечно, но более сложные, чем у вас. Наши модели могут учитывать больше параметров. Любой субъект может видеть, оперировать только своими моделями, чтобы организовывать свои действия. Поэтому то, что мы видим, – шкала градусника, а не сама температура. Это показал еще ваш древний философ Кант.
— Получается, что мы солипсисты, замкнутые в своем воображении?
— Вы не солипсисты, потому что модель всегда имеет варианты. Как деления на шкале градусника. Выбор вариантов происходит по тому, что воспринимают в данный момент ваши сенсоры из среды. Это и есть триггеры.
— Все модели как-то связаны?
— Не всегда. Возьмем, например, яблоко. Это один объект, но у него может быть много моделей. Как фрукта, как молекулярного объекта, как атомного, субатомного. У вас это разные модели, прямо не связанные между собой, хотя могут описывать одну и ту же субстанцию, в разных масштабах.
— Почему так происходит?
— Мозг не может обработать все изменения, воспринимаемые из среды. Он не может сделать настолько подробную модель, чтобы рассматривать целое яблоко на субатомном уровне, и прибегает к упрощениям. Целое проявляет новые свойства, которые не могут быть выведены из взаимодействия частей, потому что это другая модель целого, что вы называете эмерджентностью. Можно было бы составить одну модель целого из составных, и вы могли бы видеть яблоко как взаимодействие молекул. Но это была бы огромная модель, которой будет трудно оперировать. Это непосильно для вашего мозга.
— То есть практически надо создавать модели определенных категорий, классов, которые могут и не пересекаться. Но есть же связь между ними?
— Да, она в третьей модели – как сделать стул из палочек.
— Понял. Это все, что мне нужно учесть при создании моделей?
— Нет. Любое понятие, которые ты знаешь, при ближайшем рассмотрении окажется только фиксацией изменения, динамикой в среде, которая и отражает модель. Например, даже цвет ты видишь, только если рядом есть другой цвет. Если же долго пребывать в комнате, где все одного цвета (или надеть цветные очки), через небольшое время ты перестанешь его воспринимать как цвет. Красный исчезнет. Даже линию ты видишь, пока глаз пересекает ее своим фокусом. Ты знаешь об опытах, когда линия исчезает, если ее изображение синхронизировать с движением хрусталика. Это как раз и говорит о том, что модели предназначены для восприятия изменений. Поэтому модели отражают варианты, и когда происходит переключение между ними, ты видишь это. Когда яблоко созревает, цвет в мозге тоже меняется с зеленого на красный.
— Но зачем такие сложности? Цвет можно определить и обычным детектором света.
— Детектор знает, что можно сделать с этим цветом? Распознание с вариантами необходимо мозгу, чтобы знать, как оно может измениться, как оно может выглядеть иначе. Распознавая лошадь, а не зебру, ты узнаешь, что ее можно запрячь и поехать верхом, в отличие от зебры. Распознавая линию края, а не поверхность, ты узнаешь, что дальше нельзя двигаться. Модель содержит не только распознаваемое, но и его варианты, а также возможные действия. Детектор тебе в этом не поможет.
— Совершенно непонятно, как теперь программировать моделирование. Я запутался.
— Я предупреждала, что вы еще очень далеки от того, что можно было бы назвать интеллектом. Вы не знаете даже базовых задач моделирования среды и мышления. Если ты сможешь понять, о чем я говорю, ты сможешь сделать интеллект. Не раньше.

Комментарии (5)


  1. AVI-crak
    20.12.2018 01:30

    Тарелка крепкого бульона… Как-то слабо верится.
    Всё связанное с электроникой основано на базовых математических действиях. Из маленького получается большое, с новыми разделами науки, новыми возможностями и применением.
    Но вот проблема, базовые математические действия имеют доказательства из более высоких слоёв. Тот самый случай, когда над чем-то простым есть наблюдатель. Оно доказывает само себя, и наверное по этому может существовать.
    Это можно использовать, как например GCC, который может сам себя собирать.
    Но каким образом для искусственного интеллекта осознать своё строение — для для меня не понятно. Вот мы например, достаточно много знаем о собственном мозге, однако материализовать из воздуха нечто похожее и думающее — не можем.
    Осознать — значит иметь представление, возможность применять, и наверное главное — возможность менять себя без угрозы самоуничтожения.
    Что-то я ни о чём подобном ещё не слышал…

    А сама фантастика прикольная, читаю.


  1. NickFornit
    20.12.2018 21:10

    Верная суть идеи о контекстных моделях понимания, интерпретирующих восприятие и возможность ответных действий. Локализация – префронтальная лобная кора. При формировании каркас образуется нейронами, названными зеркальными за отражение свойств объекта внимания. Хорошо описано то, как подбирается подходящая модель при восприятии, придавая смысл объекту внимания. Внимание – всегда ориентировочный рефлекс, подключающий активный образ третичной теменной коры к лобноым механизмам произвольного решения: “а что делать с этой новизной в привычном”. Вот тут бы и подхватить функциональность сознания, которая так неудачно была не описана в предыдущей вашей статье.


  1. Xom Автор
    20.12.2018 21:12

    Спасибо за комментарий

    Вот тут бы и подхватить функциональность сознания, которая так неудачно была не описана в предыдущей вашей статье.

    Что именно не описал?


    1. NickFornit
      21.12.2018 10:18

      >>Что именно не описал?
      Не описал функции сознания для адаптивности организма. Все наработки эволюции – адаптивность. Особи, оказывающиеся вне ее, выходят из игры. Поэтому и у механизмов, проявляющихся как то, что назвали сознанием, есть своя даже очень конкретная адаптивная функциональность, без который не только человек, но и рабы-птицы так и остались бы на уровне условных рефлексов простых насекомых. Короче, сознание не для того, чтобы писать стихи понравившейся особи противоположного пола или философствовать под луной, воя от тоски, а это все – следствия его адаптивной функциональности.
      Видя как здорово у вас получилась эвристика про модели понимания, мне стало интересно, сможете ли вы развить картину в целом, учитывая передачу опыта через отзеркаливание, учитывая произвольность в отношении привычного и те контексты моделей понимания, в которых возникает понимаемый смысл и решаются проблемы, фактических данных исследований более, чем достаточно. Очень бы хотелось!


  1. michael_vostrikov
    20.12.2018 21:19

    — Откуда же мы узнаем новые модели?
    — Вы их генерируете в ответ на отсутствие подходящей модели с предсказанным ответом среды. В ответ на нераспознанный (не подходящий ни под одну модель) стимул идет поиск вариантов (ориентировочное поведение), у животных – это весь ассортимент имеющихся движений.

    Это не так. Есть собака, она узнает хозяина. Когда щенок только родился, у него не было представления ни о хозяине ни о людях вообще. В какой-то момент щенок открывает глаза и начинает видеть окружающий мир. У него все стимулы не распознаны, не подходят ни под одну модель, потому что никаких моделей еще нет. Постепенно он начинает узнавать окружающие объекты, в том числе и людей. Он не может генерировать варианты того, как они выглядят, и как выглядит именно хозяин, потому что не знает этих вариантов. Он создает их сам посредством наблюдения. Это и есть проявление интеллекта. И это именно "передача информации о предмете излучением от него".


    Передача информации о предмете излучением от него – это наивная метафора. Она произошла от передачи предмета, письма с текстом, которая была интерпретирована как передача информации.

    Нет. Это передача информации письмом с текстом произошла от передачи информации излучением (светом). Самые первые варианты такой передачи информации — угрожающие действия и звуки животных при нападении — рычание, оскал клыков, движения рогами.