Напомню предысторию. Меня зовут Алексей Редозубов и я занимаюсь созданием сильного искусственного интеллекта. Мой подход крутится вокруг контекстно-смысловой модели работы мозга. Об этом был цикл статей на хабре и много видео на Youtube. Сейчас я хочу рассказать об основах контекстно-смысловой модели и о недавних исследованиях, которые позволили взглянуть на эту модель с новой, неожиданной стороны. Исследованиях невероятных настолько, что уверен — многие сочтут их безумием.
Есть два интересных и важных термина — «искусственный интеллект» (ИИ) и «сильный искусственный интеллект» (СИИ). В английской традиции Artificial intelligence (AI) и Artificial general intelligence (AGI). Первый подразумевает любую деятельность компьютера, имитирующую человеческий интеллект, второй — только такую, которая претендует на что-то универсально общее, похожее на то, как мыслит человек.
Точного определения СИИ нет. Лучшее, что есть — это знаменитый Тест Тьюринга.
«Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор».
Если человек признает, что не может отличить двух скрытых собеседников, то можно говорить о достижении компьютером уровня СИИ.
Отметим очень тонкий и при этом очень важный момент. Простой ИИ может во много раз превзойти человека в какой-то области. Например, сильнее играть в шахматы, обыгрывать в Го или Starcraft. Но от этого он не становится сильным.
В английском названии СИИ не случайно называется общим или универсальным. Суть этого названия в том, что СИИ должен уметь решать не одну конкретную задачу и даже не широкий набор задач, он должен быть человекоподобным. То есть обладать способностью, начав с нуля, вникнуть в любую область и начать ориентироваться в ней подобно тому, как это способен делать человек. И желательно не хуже человека.
И тут мы приходим к понятию «смысл». В принципе, отличие человека от современных программ заключается в том, что программы и алгоритмы пока не способны уловить суть того, что происходит или о чем говорится. Они оперируют выученными шаблонами, не задаваясь вопросом о смысле. Даже великий и могучий GPT3 является, по сути, огромным генератором правдоподобного бреда и даже близко не приближается к пониманию того, что он генерирует.
Берусь утверждать, что для создания СИИ в первую очередь надо понять, что есть смысл. Но легко сказать. Вся современная философия построена вокруг различных попыток это сделать. Но результата, который можно было бы описать формально и запрограммировать, пока нет.
Как же формально описать смысл? Для начала надо договориться, о каком смысле пойдет речь. Слова коварны, каждый может дать свое определение смысла и быть совершенно прав внутри данного им определения. Двое с разными определениями могут спорить до хрипоты и никогда ни о чем не договорятся; собственно, философия — яркий тому пример. Нас будет интересовать то понимание смысла, что существует у людей интуитивно и то, которое ложится на суть теста Тьюринга.
Тут надо пояснить. Еще Сократ обнаружил удивительную вещь. Люди знают язык, понимают его слова, тонко чувствуют, когда какое слово уместно употребить, но редко когда могут объяснить свое знание. То есть наш мозг знает много больше, чем мы можем объяснить. Сейчас такие знания принято называть имплицитными.
Интересно, что когда человек пытается объяснить то, что знает его мозг, он не может получить непосредственный доступ к этим своим знаниям. Например, он не может их просто вспомнить. Знания есть, но они недоступны. Доступен только результат использования этих знаний.
Поясню на примере. Прочитав шутку, вы смеетесь. Объявление: меняю бензопилу на протез. Но если вас спросить, что в шутке смешного, вы озадачитесь и скорее всего дадите объяснение, которое будет неверным. Если бы ваше объяснение было верным, то вы, зная секрет юмора, могли бы легко придумывать смешные шутки и стать знаменитым юмористом. Ваш мозг всегда знает, смешно или не смешно, но вы практически никогда не можете объяснить, почему. Более того, ваш мозг тонко чувствует разницу между просто смешным и юмором, а вы?
Так вот, мы будем говорить о смысле в том понимании, какое стоит за этим словом, когда мы используем его в речи, не пытаясь дать ему четкого определения. Дело в том, что наивное определение, которое дается, пока явление еще не понято, будет обязательно построено на неких видимых признаках и в итоге опишет нам совсем другое. Платона попросили дать определение человека. Он сказал: двуногое без перьев. Диоген принес ощипанного петуха и сказал: вот человек.
Сказанное не значит, что смысл непостижим и не может быть выражен словами. Просто сложные явления не стоит недооценивать. Кстати, для извлечения неочевидных скрытых знаний Сократ придумал удивительный метод, который так и называется: метод Сократа. Метод актуален сегодня, как был и во все времена, очень рекомендую.
Итак, приступим к «извлечению» природы смысла. Чтобы описывать окружающий мир, наш мозг в результате эволюции приобрел возможность формировать внутренние понятия. Такое представление сегодня достаточно распространено, на нем основана когнитивная психология, согласимся с этим и мы.
Формирование внутренних понятий происходит под воздействием опыта, который человек получает из окружающего мира. Хотелось бы сказать, что явления, окружающие нас, приводят к отражению их в понятия. Но беда в том, что в самом мире явлений нет, явление — это тоже одно из наших понятий. Скажем так: наличие в окружающем мире определенной структуры приводит к формированию понятий, способных адекватно эту структуру описать.
В какой-то момент эволюции у человека появился язык. Внутренним понятиям были сопоставлены слова. Устные слова — это просто звуки, они не несут смысла сами по себе. Но будучи связанными с понятиями, передают их значения. То есть за содержание отвечает внутреннее понятие, а слово — это внешняя форма понятия. При этом надо учитывать, что далеко не всем внутренним понятиям соответствуют какие-либо слова.
Язык развивался и в нем появлялись новые слова. Кроме непосредственно обозначения того, что видно или слышно, в языке стали появляться слова, обозначающие некие сложные, порой абстрактные явления. Люди открывали для себя эти явления и через язык давали им названия. Например, так появились слова: «понятие», «логика», «определение» и тому подобные.
Для появления внутренних понятий, в принципе, язык не нужен. Они сформируются и без него. Своя система понятий сформируется и у Маугли. Но с момента своего появления язык стал влиять на то, какая именно система внутренних понятий формируется у людей. Образование понятий напоминает рост виноградных лоз. Для лозы направляющая служит опорой и задает направление ее роста. Сколько есть направляющих, столько лоз их обовьет. Для формирования внутренних понятий слова языка во многом служат такими направляющими. Изобретенные когда-то слова, обозначающие некие абстракции, и сегодня позволяют сформироваться у нас понятиям, которые не возникли бы сами по себе без участия языка.
И вот мы подходим к самому интересному. Хорошо, внутри у нас есть набор понятий. За каждым понятием стоит некое содержание. Но как мозг это содержание описывает? Что это за содержание? Каков его механизм? Собственно, это и есть те самые главные вопросы, от ответа на которые все зависит. Ведь, по сути, мы говорим о том, что за каждым понятием стоит некий смысл. И этот смысл и определяет содержание понятия. То есть, когда мы говорим, что мозг умеет, наблюдая за миром, формировать понятия, мы говорим о том, что мозг умеет формировать описания смыслов.
Заданные вопросы очень коварны. Дело в том, что ответы на них слишком очевидны. Предположим, вы бог и вам надо «запрограммировать» мозг. Как вы в своей программе зададите понятия? Скорее всего так же, как естественным образом это сегодня пытаются сделать многие создатели ИИ. Попробуем воспроизвести их рассуждения.
Чтобы сформировать набор понятий, описывающих мир, надо поделить этот мир на области, которые можно назвать, например, классами, кластерами или как-либо еще в зависимости от вкуса. Чтобы было проще, стоит, посмотрев на число слов в языке, ограничить себя, например, набором из десятка тысяч понятий. Каждое из понятий должно объединять похожие друг на друга явления. Но из-за бушующего многообразия явлений (в море каждая волна уникальна) эти классы нельзя задать простым перечислением. Надо придумать что-то более универсальное.
Вполне логично дальше для каждой группы явлений, относящихся к одному понятию, создать свой прототип. То есть вычислить образ идеального явления.
Чтобы описать портреты явлений, нам понадобятся признаки. На роль признаков подходят другие «более мелкие» явления. Удава можно измерить в попугаях. Признаки, конечно, сами потребуют описаний, но тут мы выкрутимся, сделав многоуровневую конструкцию и пойдем от простого к более сложному.
Если мы запишем признаки в вектор, то получим очень удобное признаковое описание. Например, это может быть вектор, в котором каждое число указывает на степень выраженности соответствующего признака в явлении. Можно придумать и что-то посложнее, не суть.
Дальше нам понадобится обвести прототипы границами. Что внутри границ — относится к понятию, что выходит — нет. Для этого придется придумать некую метрику, которая позволит, взяв одно описание, сравнить его с другим. Если мы имеем дело с векторами, то таких метрик сотни и можно выбирать любую по вкусу.
Конечно, если подходить серьезнее, то имея учителя, который скажет, какое явление к какому понятию относится, мы сможем не только рассчитать центр класса и назвать его прототипом, но и вычислить характер распределения. Это может сильно помочь на практике. Средний вес килограммовой гири — один килограмм. Средний вес курицы 3 килограмма. Нечто весом кило сто, исходя из распределений, скорее будет курицей, чем гирей. Хотите знать подробнее, смотрите методы классификации и кластеризации, расстояние Махаланобиса.
Рано или поздно обнаружится, что все явления многогранны, тогда можно будет усложнить схему. Например, искать ключевые признаки, определяющие явление, либо пытаться для каждого явления задать набор его возможных проявлений и очертить границы вокруг них. Собственно, вот вам краткий курс нейронных сетей.
Сухой остаток: понятия можно задать через перечисление их признаков, тем самым разбив мир на области. Затем можно совершенствовать описания, уточняя прототипы и границы вокруг них. Разделяй и властвуй.
Так действительно можно сделать. На этом основаны методы математической статистики, в этом основная идея машинного обучения, на этом же фундаменте построен колосс нейронных сетей.
Так в чем подвох? А в том, что когда заходит речь о словах языка и, как следствие, о стоящих за ними понятиях, то в первую очередь всплывает именно такая модель. И полагается вполне очевидным, что, видимо, мозг делает точно так же. Что, как и в искусственной нейронной сети, в мозгу есть нейроны бабушки, бодро реагирующие на ее появление и хранящие на своих весах ее портрет.
Другими словами, кажется вполне очевидным, что у каждого понятия есть его определение. А значит, потрудившись, можно дать определения всем понятиям и тем самым понять скрытые знания человека.
И тут мы возвращаемся к смыслу. С одной стороны, за каждым понятием стоит его смысл. С другой, мы только что рассудили, что понятию можно дать определение. Выходит, что определение и есть смысл? Очевидно, что нет. Но в чем тогда разница? И тут приходит спасительная мысль: даже если определение пока не соответствует смыслу, то можно постараться определение уточнить, приблизив к оному. Напрашивается вывод, что определение понятия — это его «недоделанный» смысл, который при желании можно «доделать». И тогда смысл хочется истолковать как некое «идеальное» определение. Отсюда возникает вера, что усложняя описания понятий, создавая онтологии, описывая связи между понятиями, мы рано или поздно сможем постичь смысл и создать СИИ.
В популярном буддистском коане говорится: «Рыжая корова проходит мимо окна. Голова, рога и четыре ноги прошли. Почему не может пройти хвост?». В математике беда почти всегда приходит с одной и той же стороны. И имя этой стороны — комбинаторный взрыв. Имея дело с тепличными примерами, не нарадуешься красоте определений. Но стоит только «выйти в поле», и все идет прахом. Любое реальное явление начинает давать такое разнообразие проявлений, что никакие вычислительные мощности и датасеты не могут за этим разнообразием угнаться. Все время кажется, что осталось еще совсем немного дообучить модель и все будет хорошо. Мы слышим: автопилот для автомобилей уже почти готов, осталось пару месяцев. На моей памяти эти пару месяцев слышатся последние года три. Правда, сейчас говорят: три месяца и точно. Проклятие размерности — оно такое. К сожалению, корову не определяет ни ее цвет, ни ее рога и ни ее копыта, и «хвосту» всех признаков никогда не пройти мимо.
В этом и есть разница между ИИ и СИИ. Простой ИИ строится на использовании сущностей, заданных определениями. Отсюда классы, кластеры, тезаурусы, онтологии, нейроны бабушки и тому подобное. СИИ, который может пройти тест Тьюринга — это, в первую очередь, интеллект, оперирующий смыслом.
Так что же такое смысл и чем он отличается от определения? Попробую объяснить. Предположим, есть нечто, на что мы смотрим. Допустим, мы не узнаем предмет перед нами. Тогда мы можем изменить точку зрения и посмотреть на него с другой стороны. Если изучаемый предмет в принципе нам знаком, то должна найтись такая точка зрения, с которой мы его, наконец, узнаем. На этом можно было бы и закончить, предмет опознан, что еще? Но важно (и об этом часто забывают), что кроме того, что нам удалось понять, что перед нами, мы еще узнали и точку зрения, глядя с которой, у нас все и сложилось.
Почему это важно? Дело в том, что любое понятие может быть точкой зрения. За всяким понятием стоит явление, которое меняет наше восприятие мира. Одно и то же мы начинаем видеть по-разному в зависимости от того, через призму какого явления мы смотрим. «Ицик, сколько будет дважды два? А мы таки покупаем или продаем?». Так вот, если, глядя через призму явления, мы увидим правдоподобную картину, то это будет означать, что скорее всего в этот момент присутствует и само явление. «Дважды два — пять» — продаем, «три» — покупаем.
То есть самого явления может быть вообще не видно, но по его влиянию на картину мира мы можем понять, что оно есть. Это как тот Чеширский кот, когда сначала появляется его улыбка, а вслед за ней сам кот.
Уловили идею? Вы видите комнату и в ней разбитую вазу. Сначала это просто «разбитая ваза». Но если посмотреть на это в предположении, что в комнате есть кот, то появляется картина «кот задел вазу и она, упав, разбилась», вот она, улыбка. Эта картина оказывается вполне правдоподобной. В этот момент вслед за своей улыбкой появляется и он сам. То есть вы узнали кота, вообще не видя ни его, ни каких-либо его непосредственных признаков.
Настоящая «магия» заключается в том, что для каждого явления, наблюдая за ним, можно составить правила, по которым из исходного описания получается его трактовка. То есть любое явление может быть контекстом, в котором исходное описание заменяется его трактовкой в этом контексте.
Что это дает? Это позволяет проделать мысленный эксперимент. Имея сформированный контекст, для любой входной информации можно, используя вычисленные правила, получить трактовку в этом контексте. Это как, имея волшебную лампу Аладдина, посмотреть, что будет, если примерить на людей другие роли. Получится ли что-то разумное или же выйдет полный бред.
Важно, что осмысленная трактовка появляется в контексте только тогда, когда есть существенная вероятность, что присутствует соответствующее явление. Отсюда возникает алгоритм. Возьмем все слова языка, сформируем вокруг них контексты, то есть вычислим правила трактовок. Теперь, когда будет поступать новая информация, будем смотреть, в каких контекстах трактовка оказалась наиболее достоверной.
В этом можно увидеть многое от байесовского подхода. В нем, используя накопленные данные, для каждого интересующего нас события строится условная плотность распределения. То есть строится картина того, как будет выглядеть распределение при условии, что данное событие уже реализовалось. Затем новые данные примеряются к этой плотности для того, чтобы оценить, насколько достоверно они выглядят на фоне этого распределения. Проделав это для всех возможных событий, можно судить о том, в каком предположении все выглядит наиболее достоверно, и из этого сделать заключение о присутствии соответствующего события.
Но как в случае контекстов оценить достоверность трактовки? Очень просто — трактовка должна выглядеть, как что-то нам ранее знакомое. Это значит, что надо иметь память того, что мы знаем, и сравнивать трактовку с памятью. Увидели что-то знакомое, значит, контекст подходит. Причем во всех контекстах память должна быть одна и та же.
Тут напрашивается сравнение со сверточными сетями. В них один и тот же набор ядер свертки (одна и та же память) примеряется к разным частям изображения. Там, где есть совпадение, мы говорим об обнаружении соответствующего образа. При этом сами позиции, в которых осуществляется свертка, по сути, выступают в роли контекстов. Мы примеряем известные нам картинки в предположении, что эта картинка сдвинута к соответствующей позиции. Поясню, ядро свертки — это маленькая картинка. Она примеряется к какому-то месту большой картины. Это равносильно тому, что мы взяли пустую большую картину, в центре которой разместили маленькую картинку. Сдвинули маленькую картинку к нужному месту, а затем сравнили две больших картины.
Но у наших контекстов есть принципиальные отличия и от байесовского подхода, и от сверточных сетей. Самое главное в том, что там к неизменной входной информации примеряется некое «искажение» памяти. Вот «искаженное» по отношению к исходному условное распределение. Вот ядра свертки, перемещенные так, чтобы оказаться в нужном месте изображения. У нас же память всегда остается неизменной, а «искажается» входная информация. Вместо исходного описания в каждом контексте появляется его трактовка. Если гора не идет к Магомету, то Магомет идет к горе.
Кроме того, в сверточных сетях важно то, «что увидели». В байесовском подходе — то, «где увидели». У нас же — и «что увидели», и «где». Но, пожалуй, самое главное отличие — это возможность автоматически построить пространство контекстов. В сверточных сетях правила свертки воспринимаются как нечто естественное, следующее из законов геометрии, и вопрос об их формировании не ставится. Зачем, если они, правила, и так понятны? Мы же говорим, что для любой информации можно сформировать пространство контекстов, обучив контексты соответствующим правилам трактовки. Кстати, мы показали, как в зрительной истории контексты, соответствующие правилам свертки относительно несложно получаются при самообучении.
В результате получается, что полное задание конкретного понятия требует трех вещей. Нужны:
имя понятия. Слово языка или внутреннее кодирование имени понятия.
правила трактовки. Правила преобразования, индивидуальные для каждого контекста.
память. Накопленный ранее опыт, один и тот же для всех контекстов.
И работает эта триада не по отдельности, для каждого понятия, а только в пространстве всех понятий, где происходит сравнение результатов между собой.
Теперь возвращаемся к смыслу. Смысл понятия — это и есть описывающий его контекст, состоящий из правил трактовки и памяти. Смысл информации — это тот контекст, в котором трактовка выглядит достоверно, и сама полученная трактовка. И, заметьте, что смысл не сводится к определению. Он имеет совсем другую природу, в которой нет привычного прототипа и границ вокруг него.
Поясню все на моем любимом примере. Во время второй мировой войны немцы использовали шифровальную машину под названием «Энигма». Сообщение на входе перекодировалось так, что одни буквы заменялись другими по достаточно сложным правилам. Кодирование происходило с помощью ключа. Если на принимающей стороне ключ был известен, то можно было через обратное преобразование восстановить исходное сообщение.
Шифровальная машина «Энигма»
Примерно в декабре 1932 года Мариан Реевский, польский математик и криптоаналитик, смог разработать алгоритмы, позволяющие потенциально взломать код «Энигмы». В это же время французской разведке удалось получить ключи, реально используемые немцами, и передать полякам. Анализируя перехваченные сообщения, Реевскому удалось восстановить внутреннюю схему «Энигмы». Для расшифровки немецких сообщений поляки построили шесть машин, «бомб», которые позволяли за разумное время перебрать 100 000 возможных кодов и найти среди них верный.
В 1938 году немцы усложнили конструкцию «Энигмы», в результате чего расшифровка ее сообщений стала в десять раз сложнее. За пять недель до вторжения Германии в Польшу в 1939 году Реевский и его коллеги передали свои результаты французской и британской разведке. Это позволило англичанам построить в Блетчли-парк батарею из «бомб», которая успешно взламывала немецкие коды на протяжении всей войны.
Определенную роль в этом сыграл тот самый Алан Тьюринг, что придумал приведенный в начале тест.
Немецкие шифровальщики могли ежедневно менять коды, поэтому главной задачей англичан было найти актуальный код, после чего все остальное становилось делом техники. Для этого приходилось брать сообщение и перебирать с помощью «бомб» миллион возможных вариантов. То есть смотреть на сообщение в миллионе возможных контекстов, получая миллион его потенциально возможных трактовок. Если код был неверен, то на выходе получался бессмысленный набор знаков, но как только обнаруживался правильный код, сообщение приобретало смысл. Главный вопрос был в том, как без участия человека понять, что сообщение получилось осмысленным?
Оказалось, что каждая ежедневная немецкая метеосводка заканчивалась одной и той же подписью – «хайль Гитлер». Зная это, англичане брали утреннюю метеосводку и перебирали коды до тех пор, пока эта подпись не появлялась в конце сообщения.
Можно было бы обойтись и без известной подписи, а ждать, чтобы слова в сообщении стали правильными, то есть соответствующими немецкому языку. Это и есть сравнение трактовки с памятью для определения ее достоверности.
И самое главное — при расшифровке прогноза погоды англичан не интересовал сам прогноз погоды. Был важен контекст, то есть код, в котором получалась удачная расшифровка. Напомню, что в контекстно-смысловом подходе удачная трактовка – это только часть расшифрованной информации, другая часть – это контекст, в котором эта трактовка возникла.
Замечу, что разбираясь с контекстным подходом, удобно представлять себе «Энигму» и ее коды. Если понять правильные сопоставления, многое становится простым и понятным.
Для полноты картины отмечу, что кора человеческого мозга делится на зоны, которые в свою очередь состоят из миниколонок. Каждая из миниколонок — это порядка сотни нейронов, расположенных вертикально, с плотными связями между собой и менее плотными по сторонам. У меня есть статьи, где показывается, что каждая из миниколонок является реализацией отдельного контекстного модуля и что память зоны коры продублирована в каждой из ее миниколонок. При этом сами зоны коры являются пространствами контекстов. Таким образом, анализируя информацию, человек одновременно рассматривает ее во множестве различных контекстов, выбирая из них наиболее подходящие. Я полагаю, что мышление человека основывается именно на контекстно-смысловых принципах.
Конечно, это только начало разговора о контекстах. Далее должен следовать разговор о форме кодирования понятий, о методах хранения памяти, о механизмах поиска закономерностей, о рекуррентной модели, реализующей формальные грамматики, о пространственной организации контекстов, о реализации обучения с подкреплением, о формировании удачных описаний и многое другое. Подробнее об этом есть в цикле лекций «Логика сознания».
Все, что было сказано, было странно, но не безумно. А где же обещанное безумие? Начнем.
Разрабатывая контекстно-смысловую модель, мы постоянно задавались вопросом: неужели никто раньше до этого не додумался? В конце концов, а как же философы? Великие древние, которые рассуждали об устройстве мира и разума? И постепенно до нас стало доходить. Как вы думаете, кто такой Диоген? Почему он жил в бочке? Почему ел прямо на рынке? Почему с фонарем искал честного человека? Почему его взбесило, когда горожанин нацепил на себя шкуру льва? Пазл стал складываться.
Мы с удивлением обнаружили, что в древних текстах и преданиях скрыто огромное количество устойчивых, согласующихся между собой и непротиворечивых аллегорий, непосредственно отсылающих к философии смысла. К той философии, что говорит ровно о том, над чем работаем мы. В итоге параллельно с созданием СИИ наша команда несколько лет работала над разгадками древних аллегорий.
И выяснилось, что действительно, ничто не ново под луной. И шумерские мифы, и египетская книга мертвых, и аккадский Гильгамеш, и греческие легенды, и буддийское учение, и Ветхий, и Новый Завет, и Талмуд, и Коран, и «Сказки тысяча и одной ночи», и много что еще оказались аллегорически зашифрованными рассказами о философии смысла. А еще обнаружилось, что причины шифрования философии смысла в священные тексты и превращение этих текстов в религии было не забавной шуткой авторов и не капризом истории, а страшной драматической необходимостью.
Все наработки мы постепенно начали выкладывать на сайт нашего проекта «Поиск утраченного смысла». Понять основные посылы можно из описания или посмотрев короткое видео, где, кстати, рассказывается, почему не стоит бояться конца света.
Ну и в развитие темы о смысле и определении я хотел бы предложить вам рассказ о том, как на это смотрели наши предки и какие подсказки они нам оставили. Я понимаю, что это будет достаточно неожиданно, и уверен, многие сочтут за сумасшествие, но я специально сделал это видео в форме провокации, не пробуя что-то доказать, а пытаясь возбудить любопытство и вызвать желание разобраться глубже.
Алексей Редозубов
AN3333
Попытка сделать нечто работающее исходя из философии? Проект обречен на провал.
Bedal
Более того, главный вывод: «Статья написана по результатам прочтения научпопа. Авторы сами разрабатывать нейросети не умеют. Запускать — может быть.»
AlexeyR Автор
Несколько не так. Мы уже сделали много работающего и после этого стали понимать что-то в философии.
saboteur_kiev
То есть вы достигли результата не в разработке ИИ, а в том, что продвинулись немного в философии?
Для начала, тест Тьюринга совсем не самое лучшее, что может быть.
Условия теста никак не проверялись на соответствие человеку.
Взять 100 человек разного возраста и состояния здоровья, и дать им пообщаться с группой экспериментаторов по чату. Как много «ИИ» найдет группа экспериментаторов, если будет считать что им нужно отличить человека от ИИ? Если найдет хоть одного, значит данный тест Тьюринга ни о чем. Такой эксперимент кто-то проводил, чтобы убедиться что тест рабочий? Я не слышал.
Во-вторых, условие — поговорить с человеком, и почти весь ИИ который участвует в таких тестах заточен не на развитие именно интеллекта, а на обман человека в разговоре при помощи базы данных и так далее. При этом ИИ не выходит за рамки разговора. Человек, который пройдет тест Тьюринга может пройти другие тесты, возможно ему нужно будет немного подучиться, но это он сможет сделать самостоятельно. Он может выполнять и другие задачи. А ИИ, которого обучили чатиться — сможет только чатиться.
qw1
SergeyMax
Экспериментатор: сыграем в игру
Испытуемый:…
Экспериментатор: как «нахер»?
qw1
То, что испытуемый делает всё, чтобы доказать свою разумность, входит в условия теста. Поэтому говорить «нахер» может неразумно, т.к. быть трактовано как дежурная фраза, когда нет понимания и это требуется замаскировать.
kometakot
А экспериментатор знает о том, что испытуемый мотивирован на обман, а живой человек — нет. Поэтому произнёсший «нахер» — с большей долей вероятности человек.
qw1
Нет, потому что автор бота может рассуждать именно так, как вы написали, и заложить реакцию «нахер» на все непонятные ситуации.
kometakot
А экспериментатор может догадаться о таком рассуждении автора бота, и начнётся война меча и щита. Экспериментатору остаётся лишь пытаться определить — насколько по человечески будет звучать «нахер» в непонятных для настоящего человека ситуациях.
qw1
Именно поэтому добросовестному участнику теста надо отвечать на вопросы, а не посылать нахер.
kometakot
«Надо» только тому участнику, который мотивирован в том или ином результате теста.
SergeyMax
qw1
Такое общение не будет являться тестом Тьюринга.
SergeyMax
AlexeyR Автор
Вспомнить о смысле. Если пытаться дать формальное определение условиям теста, то всегда найдется ощипанный петух про которого Диоген скажет, что это человек. Если же исходить из смысла теста, то все встает на место.
qw1
SergeyMax
В этом и проблема. Тест не позволяет различить ситуации, когда машина просто ничего не понимает, и когда искусственный интеллект по какой-либо причине не желает общаться с низшими существами.
qw1
Идея этого теста появилась в середине прошлого века, когда считалось, что ИИ будет такой прислугой для людей, без своих интересов.
AlexeyR Автор
Не соглашусь. СИИ нельзя создать без эмоции, а значит и без интересов. И они часть теста.
qw1
В 1950-е, когда создавался тест, это было не очевидно.
AlexeyR Автор
Дух теста в проверке «адекватности» собеседника. Эмоции — это часть механизма обучения с подкреплением. Это ключевой механизм в формировании человека и, как я убежден, он обязателен для СИИ. Без него «адекватности» не получить. Уже в 20-х годах эти принципы четко сформулировали бихевиористы.
qw1
Общего консенсуса не было (возможно, и сейчас нет). Иначе как понимать тупиковые проекты 80-х и 90-х создания серьёзного СИИ на чисто логических подходах (языки 5-го поколения, CYC/OpenCYC). Кто бы их затевал, если бы было абсолютно понятно, что направление тупиковое.
saboteur_kiev
Попробуйте провести такой тест с ребенком 5 лет, посмотрим он бот или человек?
Вы вообще не поняли о чем я. Тест Тьюринга сам по себе никем не был проверен, что он рабочий на самих людях. Нет стандартна сколько должен длиться разговор, кто и по какой причине ставит свой позитивный или отрицательный отзыв.
dipsy
Ребенок 5 лет это "недоразвитый" интеллект, нельзя его в тестах Тьюринга использовать, как и больных деменцией и т.п. расстройствами, а так же людей без хотя бы среднего образования.
Впрочем и для 5 летнего можно придумать адекватный тест, на простейшую логику и особенно на память и удержание контекста беседы, чего полностью лишены машины. Попробуйте сказать боту какую-то неожиданную информацию, типа "я в синих кроссовках", а через пару сообщений спросить, если "я сейчас надену левый ботинок черого цвета, какого цвета будет обувь на правой?"
saboteur_kiev
Приведите пожалуйста ссылки на авторитетные источники, где указаны упомянутые вами ограничения к тесту Тьюринга?
Потому что на самом деле таких требований нет, и собственно какого-то стандарта и сформулированных требований к тесту тоже нет.
Все тесты, которые проводились, соблюдали только требования авторов этих тестов, которые составлялись эмпирически, и никем не проверялись, и даже никак не сопоставлялись с другими тестами.
dipsy
К тесту Тьюринга, как идее, не нужны авторитетные источники и утвержденная Уполномоченным Комитетом методика проведения тестирования. Просто решил ответить на достаточно абсурдный, по моему мнению, аргумент про 5-летних детей. Видимо зря, придется наверное и дальше разъяснять очевидные
даже 5-летним детямвещи.saboteur_kiev
Совершенно не абсурдный. Никто не запрещает общаться с пятилетним ребенком как с пятилетним ребенком и задавать вопросы соответствующие возрасту.
Но при этом, пятилетний ребенок — это уже полноценный интеллект, с возможностью развития, причем возможно без участия разработчиков, а только психологов или «киберпсихологов» =).
То есть если будет создан ИИ уровня пятилетнего ребенка — это уже ОГРОМНЫЙ, НЕВЕРОЯТНЫЙ прорыв.
JArik
А с чего 5летний не человек теперь? Если АИ покажет хотя бы уровень ребенка 5 лет — это уже человеческий интеллект, с такими свойствами как — способность к пониманию контекста, обучения, развития как с помощью других людей или систем, так и самостоятельно. Имея такой АИ, через еще 5лет вы сможете "вырастить" из него уже 10, а то и 20+ летнего. Так что тест Тьюринга вообще не про какой-то абсолютный меритель интеллекта — он про умственные способности, а это огромная разница.
qw1
А никто не утверждает, что субъект, не прошедший тест тьюринга, не имеет интеллекта. Ещё раз: это достаточное условие (по замыслу Тьюринга), а не необходимое.
SergeyMax
dipsy
GPT-3 это не интеллект, и предполагаю, что это достаточно быстро можно понять собеседнику-человеку (развитому, взрослому, достаточно эрудированному). Я бы всё-таки именно на таких ориентировался, в качестве собеседников для машины. С обратной стороны люди в принципе не нужны никакие, ну просто зачем, если понять что это человек (и это реально человек), нам это никак не поможет в создании думающей машины. Можно немного обмануть тестирующего, для снижения предвзятости, рассказав что «там» может быть человек, но совершенно не обязательно сажать туда другого человека.
perfect_genius
Вот это сильно, теперь очень хочется провести такой эксперимент. Его ведь можно провести даже обычным людям через Интернет. Если не получается организоваться, то можно привлечь денежным вознаграждением за участие.
Мой вариант замены сомнительного теста Тьюринга — тест на чувство юмора. Чтобы более менее хорошо шутить нужен изобретательный ум. Только вот даже люди не все способны на это, половина человечества уж точно. Так что за ИИ могут часто принимать женщин :)
saboteur_kiev
Есть профессиональные шутки, которые непонятны тем, кто не в этой профессии.
Есть локальные шутки, которые понятны только тем, кто в теме.
Способность или неспособность к юмору — вещь непредсказуемая, в первую очередь потому что нет формального определения шутки, которая бы подошла всем.
Catslinger
Есть меташутки — понятные только тем, кто знает другую шутку.
Однажды, на обеде у Губернатора, поручик Ржевский взял вилочку для омаров не в ту руку. С тех пор по стране ходят истории о его невоспитанности.
saboteur_kiev
тем, что для понимания шутки нужно знать другую шутку — ничем не отличается от того, что для понимания шутки нужно знать локальный мем/профессиональный термин/конкретную ситуацию и так далее.
kometakot
perfect_genius
Если ИИ будет успешно имитировать человека, то значит какой-то человек может походить на ИИ. Эксперимент показал бы можно ли найти такого человека по его манере общения.
waldganger
Из философии это «означаемое» и «означающее» — дихотомия языкового знака, но их автор не знает
Barbaresk
Почему же вы так? Из философии выходят все науки, так что в каком-то смысле рассуждения в философии позволяют определить направление. И рассуждения на тему, что является интеллектом как раз философское. Другое дело, что здесь и философии нет. Здесь какие-то цитаты из интернета и прочее «оригинальное исследование». Я не вижу в тексте ссылок на: Гёделя, Дрейфуса, Сёрла, Хофштадтера и других учёных и вижу лишь поверхностное упоминание Тьюринга без упоминания по сути.
AN3333
Все науки выходят от работ Галилея. Который ссылался на Архимеда, в противовес Аристотелю.
И уже из этого одного видно сколь умный был мужик.
phenik
AN3333
Наука это и есть экспериментальный подход, добавленный полезными инструментами типа математики. Причем, единственный подход. Никакой иной подход ни к чему не привел. Аристотель не был ученым. И ничего научного от него не происходит. Схоластика, вот та да, происходит.
Это клевета на науку. Науку создали ремесленники. А философы тысячу лет тормозили этот процесс.Предтечи науки это греческие математики (Евклид) и изобретатели (Архимед). Затем, веками накапливался практический технический опыт: мореплавание, голландское сельское хозяйство, алхимия, механика и т.п. А первый настоящий ученый Галилей синтезировал всё это в то, что лишь и достойно называться наукой.
phenik
a1111exe
Кстати, интересный факт: Галилею была понятна ошибочность тезиса Аристотеля и без проведения опыта. Из Вики:
Т.е. для Галилея было очевидно, что сведение к противоречию достаточно для опровержения утверждения об объективном мире. И это чисто философская позиция. :)
phenik
AlexeyR Автор
В триаде Сократ, Платон, Аристотель. Сократ говорил о смысле. Платон пытался его пересказать. А Аристотель свел все к определениям, по сути, уничтожив все от Сократа. Сама эта история — поучительный рассказ.
vagon333
AlexeyR Автор
Через абзац об этом.
ni-co
"… великий и могучий GPT3 является, по сути, огромным генератором правдоподобного бреда и даже близко не приближается к пониманию того, что он генерирует". Только если представить ее не выучившим урок учеником, стоящим возле школьной доски. Это из- за того, что понятие «понимание» у Вас очень уж усложнено антропоцентризмом.
AlexeyR Автор
Просто недавно на семинаре сообщества AGI была озвучена эта формулировка и все с ней согласились. Она понравилась и мне, отчего я ее позаимствовал. Но у вас может быть свое мнение.
ni-co
Для того, чтобы связать разбитую вазу с котом не обязательно знать язык и быть человеком.
А в Вашей статье это чуть не признак «понимания». Существуют на данный момент нейросети, способные по видеоряду пояснять, что происходит на экране. Примитивным пока образом, но дайте им ресурсов. Вот я о чем.
AlexeyR Автор
«Дайте им ресурсов» — это и есть шаги по пути, ведущему в комбинаторный взрыв.
ni-co
Напомните, когда человек начал проигрывать компьютеру в шахматы?
goth
Понимание происходящего вне шахматной доски у компьютера от этого не появилось.
ni-co
Тут, ниже очень хорошо написано, что понимание это системный процесс. Человек и бот или китайская комната. Вы никогда достоверно не узнаете, что у вашего собеседника в голове. Есть только Ваш субъективный вывод, мысли. Я не согласен с трактовкой автора понятия «понимание». И как правильно он заметил это мое личное мнение. Уже зарекся дискутировать на эту тему. Единственное, что меня заставило вклиниться в беседу так это знак равенства, поставленный автором между GPT3 и китайской комнатой(о понимании), что далеко не так.
leventov
MuZero кое-что "понимает вне доски".
Halt
Если вы намекаете на обуздание комбинаторики методами альфа-бета отсечения, Монте-Карло и deep learning, то тут речь не об этом. Пространство решений игры — ничто по сравнению комбинаторикой реального мира.
В вашем примере правила игры, как и размерность игрового мира, ограничены, известны заранее и не меняются, пусть даже модель их не знает (AlphaZero). Поэтому в статье и отмечено, что сравнительно легко написать специализированный ИИ, который уделает человека на своем поле. Но все становится плохо, как только приходится иметь дело с открытым миром.
ni-co
Странно, что инфузория туфелька до сих пор не вымерла в ОТКРЫТОМ мире.
Halt
Зря вы иронизируете. Вашей инфузории, на минуточку, потребовались миллиарды лет эволюции, сложнейшая биохимия и сама жизнь в придачу, чтобы выжить в открытом мире. И все это чтобы «бесцельно» плавать в лужице. А так да, все кажется простым, пока отбрасываешь «незначительные детали».
То же и в ML. А потом оказывается, что велосипеды могут ездить боком по шоссе со скоростью 100 миль в час.
ni-co
А теперь масштабируйте время теоретических и практических работ в области генетических алгоритмов и нейросетей с временем эволюции инфузории
Sabbone
Скорее всего у гпт-3 вся проблема в памяти и обучении, она запоминает все что показывают и делит на объекты, представьте ребенку или любому пустому разуму показывают набор картинок — это почти сферический ребенок в ваккуме, не считая картинок. Или ГО, или ионтесуме. Конечно сеть не умеет ничего другого, потому что ее не учили. Ей нужен огромный объем памяти и возможность тусить в окружающем мире, например бостон динамикс, ну и облака огромной мощности для обработки инфы, целые ангары видюх от майнеров тоже подойдут. Или вместо реального мира его симуляции на огромной скорости, но это будет разум во снах, ему надо будет действовать в реальном мире иначе он погрязнет в этих снах. Потребуются время и мощности довольно большие и в тоже время очень малые, чтобы двигать не только персонажами в игре, а процессами в мире который ты видишь через камеры и щупаешь манипуляторами
AlexeyR Автор
Статья как раз о том, что так не сделать.
Sabbone
Вот вот, одна и таже сеть играет в разные игра, оперирует со словами слаборазвитый человек. Ее с рождения держат в темной коробке показывая мельком куски реальности. Хз откуда но она что-то делает а значит у нее есть мотивация.
Пифагор жил в бочке потому что, у него были руки и ноги и бочка, и глаза и он рос с младенчества длительное время, его воспитали и научили.
А разные инстансы нейросети тоже в итоге разные
Написал максимально просто.
Halt
В бочке жил Диоген )
Sabbone
кто знает может и пифагор временами жил в бочке. На самом деле я просто перепутал, это смешно)
Sabbone
в первом предложении я наделал кучу ошибок, правильно — Вот вот, одна и та же сеть играет в разные игры, оперирует со словами как слаборазвитый человек…
demon416nds
Очень рекомендую почитать технокосм Лазаревича и вообще нф литературу, вы удивитесь сколько разных потенциально рабочих идей там описано.
ZuOverture
У Лазаревича нет идей, направленных на создание ИИ. Если вы про переводчика и Примечание переводчика, то там не поясняется связь между текстом и семантикой текста, ключевая для работы этой системы.
demon416nds
Вполне себе объясняется (если конечно меня склероз не подводит ибо читал давно), правда полноценная реализация пока за пределом возможностей современной техники. Но упрощённую уже создать можно хоть и потребуется для работы с вменяемой скоростью приличный датацентр.
ZuOverture
Вопрос реализации не стоит, потому как объяснения там всё-таки нет. Читал недавно, сейчас даже специально порылся ради цитаты:
Разумеется, ответ «не очень». Кружок просто ловко превратился в сову.Pavel_Zak
«Лучшее, что есть — тест Тьюринга»… Мда.
Тест Т., — это игра в имитацию, к сожалению.
А в том, что определения нет (пока нет) — согласен.
Но как насчет вот такого:
Интеллект Объекта — это набор способностей Объекта, которые используются:
(1) При идентификации, формализации и запоминании законов состояния и/или поведения:
(1.1) Окружающей среды Объекта, и
(1.2) Внутренней среды Объекта
на основе законов эволюции.
(2) При опережающем моделировании состояний и/или вариантов реального поведения Объекта:
(2.1) По отношению к Окружающей среде, и
(2.2) По отношению ко Внутренней среде
на основе законов эволюции.
(3) При создании описания состояния и/или реального поведения Объекта, адаптированного:
(3.1) По отношению к Окружающей среде, и
(3.2) По отношению ко Внутренней среде
при условии максимизации отношения «(Реальное поведение Объекта)/(Затраты на реальное поведение Объекта)» с целью сохранения (существования, дления, бытия, жизни) Объекта по отношению к Окружающей и Внутренней средам Объекта.
AlexeyR Автор
«Но как насчет вот такого?». Сама статья ответ на ваш вопрос.
Tzimie
А если все отдать на самотек? Вот писали алгоритмы, они работали так себе, а в итоге оказалось что надо сетки тренировать.
Что если эмулировать некий мир с законами выживания, и надолго "запустить" туда нейросетки?
demon416nds
1 нейросети начисто сливают алгоритмам по "КПД" — на одинаковый результат алгоритм тратит меньше ресурсов чем нейросеть.
Проблема в том что для некоторых задач алгоритмов банально не придумали, тут то и вылезли нейросети которые можно обучить.
2 современные нейросети на многие порядки примитивнее даже куриного мозга, а большинство примитивнее нервной системы какого нибудь червяка. И это не потому что достаточно или нет желания, а потому что нет достаточно производительных компьютеров. На осуществление вашего же предложения скорее всего не хватит производительности всех компьютеров в мире вместе взятых.
AlexeyR Автор
Наоборот, контекстная модель во многом получается менее прожорливой чем нейросети.
Tzimie
И тем не менее, оно заманчивое, правда?
Что касается мощности, то когда то биткоин безумие кончится, и будет море дешёвых видеокарт
Alex_ME
Оффтоп: есть работы по аппроксимации физической симуляции нейронными сетями с целью увеличения производительности.
Sabbone
Сложно сказать что это действительно так. На самом деле современные нейросети делают много вещей которые червяки не умеют, например распознавание места на земле по фотографии, или замена лица на видео, и еще много чего. С другой стороны, нейросеть не умеет как червяк ползать под земелей или нести яйца как курица. Летать как курица и в чем то лучше ( на дронах ) он уже умеет, и на компютерных моделях учится ходить, так что в итоге часто похоже на походку реальных животных или человека. По идее при достаточном количестве нейронов можно управлять биологическим телом с кучей нервов. Главное найти способ совместить кремнивые мозги и нервы
Sabbone
Сделай нас единым!
eternal_why
Мммм… А управлять синтезом белков и прочей выполняющейся в ядре живой клетки несущественной ерундой нейросеть может, для начала?.. Митоз там всякый… :)
Sabbone
да есть принтеры синтетических днк, которые сначала моделируются на компьютере, а потом печатаются на принтере, тот же проект организма с минимальным геномом.
Но опять же нейросети надо учить понимать как работает днк, и она уже находит новые закономерности, и новые варианты белков по заданным параметрам.
Все упирается в обучение
Sabbone
Например если люди не будут знать о радиации, то и нейросеть тоже не будет знать пока не станет настолько умной чтобы найти радиацию самой.
michael108
Шутка понимается в результате нескольких шагов:
1. Картинка обмена чего-то (бензопилы) на что-то.
2. Предполагаемая ситуация — что-то является объектом с примерно равноценным бензопиле функционалом (например, надувная лодка или молоток — т.е. то, что может использоваться в работе/быту/на отдыхе). В любом случае предполагается, что предмет обмена обладает примерно такой же универсальностью, как и бензопила.
3. Нестыковка: протез — не тот объект, который является в достаточной мере универсальным. Включается анализ.
4. Возникает новая картинка: Человек без ноги протягивает бензопилу и хочет получить взамен протез.
5. Возникает осознание причины данной ситуации — человек отпилил себе ногу и теперь меняет уже ненужный ему объект на объект, ранее совершенно не нужный, но теперь ставший нужным.
6. Противоречие между ожидаемой ситуацией (обмен на равноценно «полезный в быту» объект) и фактической (обмен «уже ненужного» объекта на «ставший нужным» протез) вызывает улыбку.
Обычно описанные выше процессы протекают в течение долей секунды, поэтому нетренированный человек их не осознает.
Собственно, юмор очень часто строится на таком противоречии между ожидаемой ситуацией и фактической, например:
— Продам проигрыватеь.
— Срочно куплю выигрыватель!
AlexeyR Автор
Я именно об этом. Вы рассудили вполне логично. И правильно подметили, что юмор часто содержит противоречие. Из этого вы сделали вывод, что противоречие и есть причина смешного. Но это не так. Просто противоречие не смешит. Природа юмора глубже. Когда-то я написал об этом книгу www.aboutbrain.ru/%d1%81%d0%ba%d0%b0%d1%87%d0%b0%d1%82%d1%8c. Там есть разгадка.
michael108
Не противоречие как таковое, а несовпадение ожидаемого с наблюдаемым. Например, если в темной комнате вдруг раздался какой-то пугающий звук, как будто от большого животного, а потом оказалось, что это был маленький котенок.
Разумеется, подобные нестыковки — лишь один из методов создания юмористического эффекта. По-моему, существуют достаточно подробные перечисления этих методов. Но читать их скучно )))
Я же лишь хотел указать на то, что нетренированный человек, не осознающий процессы в своем сознании, зачастую неспособен отследить всю цепочку событий, приведших его к тому или иному состоянию.
AlexeyR Автор
«один из методов создания юмористического эффекта». Дело в том, что нельзя подменять суть внешним проявлением. Попытка создать юмор по «методу» никогда не дает результата.
Politura
Смешно это не когда нестыковки, а когда кому-нибудь другому плохо, или этот кто-то другой попадает в нелепую ситуацию.
Большой звук от маленького котенка не смешно, а если кто-то повел себя глупо в связи с этим звуком, то будет смешно.
Причем, привести к тому, что кому-то плохо должны были действия самого персонажа, если кому-то просто плохо, а он в этом не виноват, то вместо смеха будет сопереживание.
Sabbone
Ну просто испуг даже внутренний, от тени котенка, переживаешь потом как глупость с облегчением, отсюда и смех. Кстати смех от протеза и бензопилы именно в том, что обдумывая объявление ты понимаешь что была страшная угроза, она воплотилась но больше ее не стоит бояться( пилу меняют )
, становится понятно причем тут протез, и самое главное вся эта история просто так, она не является информацией об угрозе, и ее не сложно обработать.
Ты чувствуешь угрозу и она сразу проходит. Не обязательно юмор именно такой, он многогранен. Есть тот который понимаю люди кошки и собаки. Шимпанзе слоны и дельфины. И тот который понимают только люди или только дельфины например
Politura
Ну, умение посмеяться над собой не всем дано, как-бы там ни было, в вашем примере как-раз и есть объект которому было плохо во время испуга.
Вы сможете привести пример юмора, чтоб было смешно и никому не было плохо?
Плохо в общем смысле, не обязательно увечья: кто-то попал в нелепую ситуацию, повел себя глупо и т.д.
ZuOverture
Девочка в поле нашла пулемёт
И по деревне открыла пальбу.
Что же девчонку никто не уймёт?
В ужасе прячутся люди в избу.
Пули везде настигают несчастных,
Без перерыва строчит пулемёт.
Люди погибли в муках ужасных,
Больше в деревне никто не живёт.
Не очень смешно, всё разжёвано. А если так:
Девочка в поле нашла пулемёт,
Больше в деревне никто не живёт.
AlexeyR Автор
Вы на правильном пути, но все еще интереснее. У меня в книге (ссылка выше) есть подробный разбор и смешного, и юмора. Главное было не просто понять, когда смешно, а докопаться до причин почему в эти моменты смешно. Собственно, об этом и книга.
Politura
Спасибо, почитал раздел про юмор, интересно, довольно подробно расписано. Пока читал где-то на заднем фоне висело непонимание, почему-же смех считается чем-то хорошим, в отличии от злорадства, когда дошел до описания про нарушение норм пришла такая мысль: смех как реакция на неожиданное наказание нарушителя. В таком ракурсе в нем нет того негатива, как если рассматривать его с точки зрения принижения чьего-либо статуса.
saboteur_kiev
Юмор строится не столько на противоречии, сколько на противоречивом тождестве.
Суть в том, что тождество можно заметить на высоком уровне абстракции, когда какие-то два понятия, каждое из которых имеет пласт ассоциаций, внезапно оказываются схожими под углом, который ты раньше не замечал. Связывание этих двух понятий (и всех их ассоциаций) и вызывает реакцию смеха.
При этом, если шутку повторять, в мозгу возникнут устойчивые ассоциативные соединения, через некоторое количество повторов, она перестанет вызывать смех, будет вызывать «утомление», поскольку триггерится большое ассоациативных связей, активируя множество аксонов…
Обратная реакция — горе. У тебя есть куча ассоциаций с каким-то понятием. И тут это понятия пропадает, становится бессмысленным, ненужным. Разорвать все ассоциации и привычки мозг просто так не может, а появление чувства утраты и ненужности этого вызывает практически физическую боль. Память у нас чистится в основном за счет того, что ты ее не используешь, а на это нужно не только время, но и собственно не активировать эти ассоциации, чтобы они «атрофировались».
Собственно поэтому мы смеемся над новыми шутками недолго, а плачем над старыми горестями гораздо дольше.
AlexeyR Автор
Вы плохо представляете природу эмоций. Они часть механизма обучения с подкреплением. Их роль — оценка текущего качества ситуации. Но эта оценка строится, исходя из прогноза будущего. Смешное и юмор хорошо объяснимы, но если вы хотите их понять, то не обойтись без понимания механизма появления эмоций.
zim32
Проблемы не могут быть решены на том же уровне мышления, который создал их.
Альберт Эйнштейн
mad_god
Смысл слова в модели.
Я вижу вазу, когда есть модель "я", модель "видеть", модель "вазы". Фотоны, отражаясь от вазы формируют в голове "Зазеркалье", такой же мир, как и снаружи, только упрощённый, свёрнутый, но с особенностями, например, возможностью пройтись вбок по ассоциациям, в глубь по подробностям моделей, рассмотреть прошлое модели, возможные будущие, скомбинировать несколько моделей.
Без физического мира и наблюдения за ним, сложно получить такие модели.
Например, программа "видит" объект в своём внутреннем информационном поле. Это не отражённый объект, программа вызвала его для каких-то промежуточных целей, найти, на что похож наблюдаемый объект или тот, который станет возможно наблюдаем в будущий момент.
Целая ваза и разбитая ваза как-то связаны. Но мы не можем наперёд знать форму, количество и расположение осколков, поэтому наша модель схематична, неточна.
Но когда мозг видит прыгающий футбольный мяч, я верю, что внутри мозга мяч тоже прыгает, синхронно с настоящим, мы ожидаем удара, отскока, ожидаем промах или попадание, достраиваем траекторию во время матча, по положению ног игроков.
mad_god
Поразительная невидимость.
На вход нейронной сети нужно что-то подавать.
Но вот мы закрыли глаза, заткнули уши, отрезали себя насколько возможно от сенсорной информации и мы всё равно производим работу мозгом.
Да и даже наблюдая мир, мы можем отрешиться от него и полностью погрузиться в то, что видим только мы, внутри себя.
То есть, кроме тех моделей, которые мы наблюдаем, существуют и те модели, которые мы создаём и которыми пользуемся.
Динамические модели. Мы видим внутренние модели, которые представляют собой не трёхмерные объекты, а четырехмерные, объекты с историей жизни, в динамике, мы можем «промотать» яблоко от семечка, до съеденого или сгнившего, до дерева, в которое прорастёт семечко или какой-то мебели, в которое превратиться это дерево.
Динамическая модель перечисляет свои кадры так, как нам удобно, чтобы мы могли вовремя предсказать, что произойдёт в нашей комнате (или что нас интересует в данный момент), до того, как это произойдёт и произведёт какой-нибудь разрушительный эффект.
Нас чаще всего интересует опасность, те явления в мире, которые могут нам навредит. Если мы видим что-то похожее на кошку или на утку, обычно, это не имитация кошки, это именно кошка. Именно поэтому мы часто ошибаемся, когда видим в темноте монстров, созданных одеждой на стуле или тень, брошенная деревом на стену. Поэтому мы находим лица и животных в различных узорах. Нас интересуют хищники, нам нужно найти их как можно быстрее. Если что-то быстро движется, нам нужно испугаться, потому что если мы ошибёмся, это может стоить нам жизни.
Динамические модели действуют постоянно, пока мы мыслим. Если я вижу кошку, я должен понимать, что такое кошка, у меня должна быть модель кошки внутри меня.
Могут ли кошки летать? Ну, если пнуть…
Могут ли кошки быть большими? Некоторые могут быть довольно большими.
Могут ли кошки быть на полу?
Может ли кошка быть в квартире, в которую до этого принесли кошку?
Могу ли я, увидев кошку и закрыв глаза, быть уверен, что кошка всё ещё в комнате или рядом? Если кто-то мяукнет за спиной, может ли это быть кошкой?
Конечно, после того, как люди начали создавать различные вещи, становится труднее отличать кошку, от тех многих вещей, которые созданы быть какими-то признаками быть похожими на кошку: изображение кошки, видеозапись кошки, звукозапись кошки, игрушка в виде кошки, кошачьи ушки на голову, кошачий костюм и т.д.
Мир был опасен для человека. Как отличить, можно ли ступать на ту или иную поверхность? Может, там яма, острые колья, хищник.
Человек нашёл решение. Человек стал сооружать для себя более предсказуемый мир.
Если ты не уверен в окружающем мире, создай себе простой, надёжный мир, с твёрдыми стенами, полом и потолком, в котором пол не провалится просто так, стены не упадут, ничего не упадёт на голову. Построй себе дороги, выгони хищников, выруби леса, отведи воду, контролируй её уровень.
Маленький ребёнок изучает окружающий мир. В основном, в этом мире почти нет опасностей. Горит огонь, нужно узнать, что такое огонь, больше я туда не буду лезть. Нужно узнать, что такое электрический ток, больше в розетку пальцы не суём. Нужно узнать, что такое вода. Больше я под водой не могу пробыть, нужно всплывать. Нож, оказывается острый, больше я не хочу резать пальцы. Ножка стола, оказывается, сильно твёрдая и не сдвигается ударом ноги. А что такое прищемить пальцы закрывающейся дверью? Подобные вещи мы не стараемся повторить.
Боль, участие в мире, изучение его свойств на практике — дают достаточно полное представление о мире.
После нескольких повторений негативных опытов, мы сразу же вспоминаем боль и контекст, в котором боль появилась. Проигрывается динамическая запись, как я подхожу к двери, сую туда пальцы и дверь закрывается. Мы практически видим это воспоминание. Мы видим дверь, видим себя, видим пальцы, видим процесс закрытия и даже чувствуем подобие боли в итоге.
AlexeyR Автор
Я не очень понял, как ваши рассуждения связаны со статьей.
mad_god
Но я лишь продолжаю ваши рассуждения, я с вами на одной волне и вы этого не видите?
Я-то ваши рассуждения понял, почему вы не поняли мои?
uhf
Жаркие споры разгораются на тему того, что называть искусственным интеллектом, и как определить, что он достаточно сильный.
Как будто его потенциальные создатели боятся, что переусердствуют в своих трудах, и сделают лишнего, либо создадут ИИ раньше других, но этого никто не заметит.
vasiaplaton
Нет, тест Тьюринга, по правде, ужасен. Он позволяет найти Китайскую комнату, а не сознание
AlexeyR Автор
Не стоит добавлять разговор о сознании. Это другая сущность. Китайская же комната — это некая нелепость. Серл сказал, что можно записать все варианты ответов в книгу и все поверили. Этого сделать нельзя, очень быстро число записей превысит число атомов во вселенной, а требуемое количество будет не достигнуто даже на видимые доли процента.
michael_v89
Да нет, вполне можно представить такие же инструкции обработки данных, как в вашей программе например. Правильный ответ на китайскую комнату — это то, что понимание возникает на уровне системы, а не на уровне человека. Если при активации информационных элементов системы, хранящих понятия, будут активироваться соответствующие нейроны человека, тогда и он будет понимать китайский язык.
AlexeyR Автор
Нет, не будет. У нас во вселенной нет столько нейронов.
michael_v89
Как это нет? Людей, которые знают китайский язык со всеми нужными понятиями, больше миллиарда.
При чем тут вообще количество? В описании Китайской комнаты ничего не говорится про задание всех возможных сочетаний иероглифов. Там говорится про некие инструкции для манипуляции иероглифами. Это то же самое, что и машинные команды в программе, которая представляет собой сильный ИИ. Вы же не сомневаетесь, что такую программу можно написать? Вот если человек будет выполнять машинные команды вместо процессора и вычислять значения на бумажке, это и будет Китайская комната.
AlexeyR Автор
Вся статья именно о том, что «нормальную» программу, которая, по сути, пройдет тест Тьюринга, а в этом и есть суть разговора с китайской комнатой, нельзя написать через перечисление инструкций.
michael_v89
Ну как это нельзя, любая программа это перечисление машинных инструкций.
Вы почему-то считаете, что там инструкции вида "Если пришел иероглиф X, надо вернуть иероглиф Y" для всех возможных сочетаний конкретных иероглифов. Ничего такого в описании эксперимента нет.
AlexeyR Автор
Ничего, кроме комбинаторного взрыва, если захотите перебрать все ответы.
michael_v89
Про перебор ответов там тоже ничего нет. Китайская комната она про то, можно ли назвать ее понимание настоящим пониманием, а не про то, можно или нельзя сделать искусственный интеллект. Это именно некомпьютерная имитация ИИ, существующий и работающий ИИ тут изначальное условие.
Вот описание из Википедии.
Suppose that artificial intelligence research has succeeded in constructing a computer that behaves as if it understands Chinese
The question Searle wants to answer is this: does the machine literally "understand" Chinese?
Searle then supposes that he is in a closed room and has a book with an English version of the computer program, along with sufficient papers, pencils, erasers, and filing cabinets.
AlexeyR Автор
Серл допустил логическую ошибку. Он сказал, что можно задать набором правил адекватное общение. Из этого он сделал вывод, что, если можно, то значит компьютер может быть адекватным и при этом не понимать смысла. Ошибка Серла в самом первом допущении. Нельзя адекватное общение задать перечислением правил. И вина тому комбинаторный взрыв. Серл, как философ полагал, что много — это не бесконечность, а значит можно сделать. Но тут появляется такое много, которое превышает возможности вселенной и с этим много приходится считаться. Если же делать упрощение в наборе правил, то общение перестанет быть адекватным и не пройдет тест Тьюринга.
buriy
Алексей, кажется, вас спрашивают другое:
А если обобщить утверждение Сёрла с «перечисления правил», как в 192х-195х понимали компьютерный интеллект (через онтологии), до просто «современной компьютерной программы, с памятью и графическими ускорителями», тогда всё равно будет комбинаторный взрыв и те же проблемы?
michael_v89
Вы считаете, что написать ИИ на компьютере невозможно? Компьютерная программа это ведь и есть перечисление правил. Серл говорил именно о понимании компьютерной программы.
Halt
Возможно, и мы этим занимаемся. Но есть фундаментальная разница между набором семантических правил и пространством контекстов с контекстными преобразованиями. В случае контекстной модели способность к выделению смысла является продуктом опыта системы и не раскладывается на тривиальные утверждения «если-то».
qw1
Нет фундаментальной разницы. Программа так или иначе будет исполняться на конечном автомате, а он работает по набору правил «если текущее состояние X и вход A, то перейди в состояние Y». Ничего другого быть не может.
Halt
Вопрос в том, где провести границу абстракции. Так то можно заявить, что и комьютер и биологический мозг состоят из атомов и молекул, а стало быть, возможно привести первое ко второму.
Разница в том, с какими сущностями оперирует этот конечный автомат. В нашем случае битовые манипуляции это еще не смысл.
qw1
Я вас понял. Утверждение «невозможно построить ИИ по набору правил» равносильно «невозможно построить стол из атомов». Последнее формально неверное, поэтому и вызывает возражения: из чего же, как не из атомов, построен стол. Вас надо понимать так, что строить стол из атомов — плохая идея, потому что не тот уровень абстракции…
Halt
Попробую пояснить. С нашей точки зрения, ИИ невозможно построить на базе системы формальных правил. То есть так, как пытаются работать экспертные системы или любые другие, исходящие из соображения, что явление однозначно определяется набором признаков.
Мы утверждаем, что одного этого недостаточно. Да, разумеется, системы, опирающиеся на признаки работают. И, к сожалению, работают слишком хорошо. Но всегда существует возможность дать такой пример, когда все формальные признаки явления присутствуют, но самого явления нет. И наоборот, когда ни одного признака нет, но явление однозначно присутствует. Причем для человека не вызывает трудности разрешить эти ситуации «на интуитивном уровне», тогда как формальная система заходит в тупик.
Если же пытаться решить эту проблему экстенсивным путем, то есть, через уточнение модели, расширение набора признаков и т.п., то это неминуемо ведет в комбинаторный ад. Улучение на 1% требует десятикратного увеличения мощностей.
Мы пытаемся показать альтернативный подход, который не сводится к наборам формальных правил. В контекстной модели работа с исключениями ведется совсем иным образом. Формальные правила существуют только на уровне контекстных преобразований понятий. Реальным же мерилом являтся опыт модели, то есть ее событийная память. В этом случае исключениям можно научить и они не будут конфликтовать с остальным багажом знаний. Сам опыт опять же, не выражается в виде строгих правил «если-то». Существует пространство контекстов, по реакции которого на вход можно судить о возможных интерпретациях поступившей информации. Но, подобно человеку, сама эта модель «не знает» почему так. Вернее, интерпретируемость есть, но она происходит на другом уровне, нежели позволяет описать семантика. Грубо говоря, правила модели не описываются в семантичеких терминах.
Впрочем, там уже возникают задачи другого рода. Основная сложность не просто запомнить что-то и действовать в соответствии, а распознать, что новая ситуация является похожей на нечто уже известное. И вот тут без контекстов и нашего способа кодирования задача оказывается соврешенно нерешаемой. Но, боюсь, это уже на коленке не опишешь.
qw1
Не вижу принципиальной разницы. Описываемая вами система контекстов — такая же формальная система. Ввод нового контекста ничем не лучше и не хуже ввода нового правила.
У вас же будут инструкции на случай, если понятие подходит под несколько контекстов — какая-то приоретизация, или параллельная обработка вариантов. Всё то же самое можно формализовать и для правил, описать что делать при обнаружении противоречий. Формальные системы намного богаче, чем Аристотелевская логика. Возможно, вы настроены против логики, но не нужно тогда ставить крест на всех rule-based подходах.
AlexeyR Автор
Есть много отличий. Поясню только пару. В любой входной информации любое понятие изначально многозначно. Будь то слово в тексте или фича на картинке. До применения правил надо эту многозначность как-то разрешить. Плохо если выбрать одно наиболее вероятное значение, можно потерять истинное толкование. Нельзя перебрать комбинации всех вариантов, так уже в предложении из 10 слов начинается космос. Для контекстов многозначность естественна и проблем не возникает.
Часто во входной информации что-то пропущено. Слово недосказано, линия не дорисована. Система на основе правил требует увеличения числа правил, чтобы покрыть такие случаи. В контекстном подходе недостающие сущности «всплывают» сами.
И это малая толика.
qw1
Тут сложно что-то прокомментировать, потому что используется неопределённое понятие «контекст».
Как записывается «контекст»? Вероятно, текстом, то бишь предикатами, перечисляющими факты (смеркалось, жаркий день бледнел неуловимо, над озером туман тянулся полосой). И как тут понять, что дорисованная линия и недорисованная — это один и тот же контекст, если у них разная запись.В википедии есть два определения контекста — вербальный и ситуативный. Вероятно, у вас контекст ситуативный. То есть,
AlexeyR Автор
Ближе всего к нашему — это определение из анализа формальных понятий.
qw1
Ещё немного, и придём к гонимому Определению (Явление имеет место, когда оно попадает в Контекст, т.е. для множеств G,M,I выполняются соотношения ...)
AlexeyR Автор
СИИ можно создать на алгоритмическом компьютере. Но алгоритм контекста, соответствующего понятию, будет отличен от алгоритма определения понятия через его признаки. И один алгоритм несводим к другому.
qw1
AlexeyR Автор
Так о цене и разговор. Когда сложность растет экспоненциально от числа параметров, не способные с этим бороться, алгоритмы становятся нереализуемыми, так как требуемое время начинает превышать время жизни вселенной.
qw1
Если вы хотите, чтобы выпускники ВУЗов вас читали без фейспалмов, осторожнее с терминами. Потому что математики понимают несводимость как принципиальную несводимость, время жизни вселенной всего лишь конечное число, хоть и большое.
AlexeyR Автор
Все было корректно. Алгоритм «смысла» дает один результат, алгоритм определения «другой». Алгоритм «определения» не может воспроизвести точный результат «смысла». Не путайте это с тем, что оба они могут запускаться на машине Тьюринга. Так можно договориться о том, что все алгоритмы одинаковы.
qw1
Мне кажется, все исследователи ходят вокруг одной проблемы. Если вы полагаете, что ваш метод асимптотически быстрее, аналогию можно провести с сортировкой пузырьком и быстрой сортировкой.
michael_v89
Так в китайской комнате не говорится про "если-то". Там говорится просто о неком наборе инструкций для человека по манипуляции данными в шкафах, так же как компьютерная программа это набор инструкций для процессора по манипуляции данными в оперативной памяти. Это полная аналогия, описанная самим Серлом.
a1111exe
Компьютерная программа это набор инструкций. В мысленном эксперименте "врукопашную" выполняются инструкции программы по общению на китайском (ввод на китайском и вывод на китайском) человеком, который не знает китайского. Этим демонстрируется, что для настоящего понимания (а не сколь угодно правдоподобной его имитации) недостаточно компьютерной программы, сколь бы изощрённой она ни была. По сути, китайская комната это современная разновидность мельницы Лейбница.
Сам мысленный эксперимент не содержит ошибки т.к. форма "если допустим, что Х, то получим У" не является утверждением, что Х. В данном случае "Х" утверждают те, кто уверен в том, что с какого-то момента времени машины смогут обеспечить неотличимое от человеческого общение. И если Вы уверены в возможности создания "сильного ИИ", то тоже, по идее, должны это утверждать.
eternal_why
Вы меня простите. В интернете опять кто-то неправ, и я вынужден ещё раз помахать своим дилетантизмом. Я ничего не знаю про интеллект, нейросети и китайский язык, но:
1. Википедия, к примеру, говорит, что «Интелле?кт — качество психики, состоящее из способности осознавать...». Лично мне кажется, что «качество» есть свойство чего-то другого. Такое же свойство, как, скажем, температура, скорость… Невозможно набрать ведёрко качества, горстку температуры или упаковку скорости. Также мне кажется, что создать температуру или скорость в отрыве от объекта тоже невозможно, но почему-то создавать качество психики (которое, вообще-то, само по себе есть свойство чего-то, если что :)) считается возможным, и, более того, выполнимым. Да, можно создать математические функции, оперирующие абстрактными свойствами, но какое это отношение будет иметь к реальному миру? В математике, как показывает практика, вообще возможно всё, что угодно, даже корень квадратный из отрицательного числа и бесконечность делить на ноль, наверное, тоже можно. Но ведь мы же вроде тут за «смысл» бьёмся? Какой же смысл в интеллекте без сознания?.. Качество свойства сущности в отрыве от самой сущности?..
2. Потом Вы хотите, чтобы мы все поверили, что число атомов во вселенной меньше числа вариантов китайских иероглифов. Первая ссылка из поисковика дала мне 85 568 иероглифов в каком-то словаре. 85568 ^ 85568 мой комп посчитал секунд за 5 или 7, получилось очень длинное число, но оно в любом случае конечно. А вселенная, как нам говорят — бесконечна, и число звёзд в ней, говорят, — бесконечно (я, конечно, не проверял), и в каждой очень много атомов, и очень много между ними, так что я, пожалуй, не поверю: моя диванная логика говорит, что конечное число меньше бесконечного по определению. Математическому определению.
3. Ну и тест Тьюринга, прикопались все к нему, прям молятся все на него. Когда комп скажет: «Пошли вы нафик со своими вопросами, мне ребёнка кормить надо», или «Завтра экзамен, а в интернете опять кто-то неправ» — вот тогда и поговорим, наверно, об интеллекте, как мне кажется. А пока — ну функция от функции, ну и чо?.. Когда комп начнёт себе задачи ставить — вот попомните тогда Скайнет добрым словом :))
И да, всё вышеизложенное есть Моё Личное МегаДиванное УльтраДилетантистическое Мнение в отрыве от действительной академии наук. Пятница сегодня, всем добра. :)
leventov
В википедии висит достаточно "романтическое" определение интеллекта из психологии. В области разработчиков ИИ оперируют определением intelligence которое привел michael_v89 ниже.
eternal_why
Да кто б спорил-то. Я не могу отделаться от мысли, что ИИшники не на тот слой абстракций нацелились. К примеру, давайте попросим информационную систему построить модель персонального компьютера (как части окружающей среды) на основе входящей информации. Про комп нам известно, грубо говоря, всё. Какую информацию будем кормить системе?
— Точный атомарный состав компонентов?
— Типономиналы компонентов?
— Принципиальную схему?
— Логическую схему узлов?
— Эпюры и диаграммы напряжений на шинах?
— Низкоуровневые инструкции, исполняемые процессором?
— Байт-код какой-нибудь?
— Инструкции высокоуровнего языка?
— Набор установленных программ (включая ОС)?
— Возложенные на этот экземпляр задачи?
Для нас, людей, всё вышеперечисленное может иметь смысл в одних случаях, и не иметь в других; сам анализ задачи, на каком уровне абстракций мы рассматриваем этот комп — имеет для нас, людей, смысл: покупаем ли мы новый, поднимаем упавшую ОСь, чиним материнку или сдаём в металлолом. Более того, в большинстве случаев все перечисленные действия для нас, людей, есть способ достижения целей, отличных от этого экземпляра вычислительной техники: чаще всего заработок, бывает помощь или даже гламурные дела, профессиональный рост или убить время.
Что из этого будет смыслом для ИИ? Ничего, просто тупое следование алгоритму. Пусть даже сложному алгоритму, с миллиардом параметров — человеку не осилить, а машине пофигу, что будет на выходе — она в любом случае не будет отличаться от арифмометра. Дррррынц/дзынь — результат. Зачем? Низачем, просто потому, что меня этого и создали.
shabanovd
85568^62 = 6.357782e+305, а 85568^63 мой компьютер уже отказался считать )
отсюдаeternal_why
Автор говорит «во вселенной», а не «в наблюдаемой вселенной», если за точность формулировок — логически, это всё-таки разные вещи. Но ну да бог с ним, опаснее не это, а то, что автор количество комбинаций штук сравнивает с количеством штук. Для чего? Чтобы помахать красивыми цифрами? Сравнивать литры с часами, оно так себе, знаете ли…
Сравнивать — так уж подобное с подобным. Комбинации с комбинациями, штуки со штуками:
10^80 >> 85568;
(10^80) ^ (10^80) >> 85568^85568;
Как если по мне…
AlexeyR Автор
Если вы хотите запомнить варианты чего-либо, вам понадобится столько физических ячеек памяти сколько есть вариантов.
eternal_why
Т.е., для того, чтобы перебрать 256 вариантов целого числа (от 0 до 255), потребуется 256 байт?
AlexeyR Автор
Чтобы сохранить эти 256 значений понадобится 256 байт.
eternal_why
Пичалько. У Вас при таком раскладе ресурсов не хватит даже на простейший ряд натуральных чисел, который сверху ограничен бесконечностью.
Что-то я сомневаюсь, что кто-то занимается такой ерундой, как хранить все значения всех мыслимых функций. Ок, сливаюсь, Вам успехов.
qw1
По вашему, никакая китайская комната не справится с сортировкой массива в 1000 байт, потому что число возможных входов 1000^256 превышает любые мыслимые возможности, чтобы их все «сохранить»?
Alex_ME
Чем тот же GPT-3 не китайская комната?
ni-co
Не хотелось бы повторяться, но большинство людей ближе к китайской комнате, чем gpt-3
AlexeyR Автор
Во вселенной приблизительно 10 в 90 степени частиц, имеющих массу. В русском языке порядка трех миллионов словоформ. Предложение из шестнадцати слов может иметь порядка 10 в 103 степени вариантов.
Carburn
А с чего ты взял, что мозг это не китайская комната?
vasiaplaton
Не знаю как вы, но когда мне говорят туман — я не 5 букв в голове представляю, у меня в голове возникает образ тумана. Несомненно все мы понимаем слова по-разному(привет Вавилонская башня), но понимаем. К тому же, когда человек думает, он оперирует не словами, а образами, как и остальные животные.
Carburn
Все мысленные эксперименты это чушь в любом случае, так как это демагогия и софизм.
Хранить изображение тумана вместе со словом, проблемы нет.
michael_v89
Интеллект — это способность информационной системы строить модель окружающей среды на основе входящей информации. Чем подробнее модель она может построить, тем больше у нее интеллекта. Модель состоит из информационных объектов, объект это то, что определяется как "одно и то же" в разные моменты времени. Вот эта способность определять "одно и то же", это самое важное.
AlexeyR Автор
Интеллект можно определить и так. Но в таком определении ИИ и СИИ одно и то же и вопрос только в «мощности». Я объясняю, что есть еще и смысл.
michael_v89
Нет. Вы пишете "Простой ИИ строится на использовании сущностей, заданных определениями. Отсюда классы, кластеры, тезаурусы". Классы и кластеры — это модель, заложенная программистом. Сильный ИИ должен строить эту модель сам по входящей информации.
Собака не сможет пройти тест Тьюринга, но у нее вполне себе сильный И. А некоторые боты проходят некоторые вариации теста Тьюринга, но смысла они не понимают. Смысл это собственно и есть активация некоторого элемента модели. Ну или вернее сказать, они понимают только в рамках того смысла, который в них заложен извне разработчиком.
AlexeyR Автор
Собака не проходит, а человек проходит. В том и суть. Вариации не считаются. Смысл теста в том и состоит, чтобы пройти его без «вариаций».
michael_v89
Ну так если собака не проходит, значит тест неправильный, у собаки сильный интеллект, а тест говорит, что нет.
qw1
Тест не критерий. То есть его прохождение — достаточное условие, а не необходимое и достаточное.
michael_v89
В том виде, в котором он обычно понимается, и не достаточное. То есть можно построить беседу так, что его пройдет программа, не являющаяся сильным ИИ. Просто любая беседа не подойдет, вопросы должны иметь определенную направленность. Вот примерно как вы выше пишете про придуманную игру. В исходном описании теста таких критериев нет. А в целом эту направленность можно описать фразой "расскажите своими словами", что придумали задолго до Тьюринга.
Pavel_Zak
А какую цель преследует Объект (или, по-вашему, Система), строя модели? Для чего все это?
michael_v89
А какая разница? Никто же не доказал, что в определении интеллекта обязательно должна быть цель.
a1111exe
Интересный аргумент. Кто-то доказал, что интеллект, вообще, есть? :)
michael_v89
Да. Мы наблюдаем некоторые явления, которые называем словом "интеллект", это просто факт. Наша цель сделать такие же явления с участием компьютера. Часть процесса достижения этой цели это дать формальное определение этому термину.
a1111exe
Мы наблюдаем некоторые явления, которые называем словом "квалиа", это просто факт. И ещё обо многом можно сказать то же самое. А разве нельзя сказать, что в явлениях интеллекта мы всегда наблюдаем какую-то цель?
michael_v89
Ну да, это и есть доказательство, что все эти многие вещи "вообще есть". Слово "есть" и придумали для того, чтобы обозначать существование независимо от желания или особенностей восприятия конкретного наблюдателя.
Ну вот если вы это докажете, без подмены понятий (в частности понятия "цель") и прочих логических уловок, тогда я соглашусь, что мое определение интеллекта, где нет понятия цели построения модели, неверное.
Я так сказать не могу. Если на улице залаяла собака, я понимаю, что на улице есть собака, и что она залаяла, хотя никакой цели в построении этой модели у меня нет. Я занимался другими делами, и цели у меня были другие. А вот компьютер тоже занимался своими делами, у него была какая-то цель, заложенная конструкторами, но информационную модель собаки на улице он почему-то не построил, хотя к нему подключены наушники с микрофоном.
a1111exe
Выше Ваш аргумент звучал как "никто же не доказал". При этом, похоже, некоторые чисто субъективные штуки, которые невозможно доказать объективно, Вы считаете подпадающими под "кто-то доказал". Почему?
Ну то есть я, например, не считаю существование квалиа объективно доказуемым. Я знаю о них из своего непосредственного опыта, а название подобрал из литературы, использующей для примеров слова, прямо отсылающие к таким элементам субъективного опыта, как цвета и звуки. При этом я не могу иметь знание, что Ваши (или чьи-то ещё) квалиа похожи на мои или вообще есть. Могу только иметь убеждение, что у организмов, структурно и поведенчески относительно похожих на меня, имеется и похожая структура субъективного. Плюс этический момент. Это даже не эмпирическая индукция, а экстраполяция одного случая на всех людей. Мне трудно называть такие убеждения знанием и считать, что они кем-то доказаны.
Вы сами сказали "моё определение". Множество названий у каждого ложится на собственную субъективность достаточно по-своему. Да и на внешнюю реальность, хоть и в меньших масштабах. Мы можем понимать друг друга в той мере, в которой наша терминология ложится на явления одинаково. Явления субъективного характера (одним из которых является интеллект) традиционно наиболее сложны для достижения консенсуса, т.к. невозможно ткнуть пальцем в чью-то субъективность и сказать "Видишь эту штуку? Это понимание. А вот это, смотри, смысл побежал. А это интеллект, присмотрись — там как раз абстрактное мышление заработало, вот как оно выглядит." Из-за этих трудностей и на фоне впечатляющих достижений наук и технологий как раз в тех областях, в которых гораздо проще договориться, у многих возникает непреодолимый соблазн вообще исключить субъективное из уравнения. Только при таком подходе структуру субъективного априори не пытаются воспроизводить, фиксируясь на поверхности, о которой есть консенсус — но как при этом можно ожидать, что в итоге получится аутентичный интеллект с настоящим пониманием, а не имитация?
Простите, немного отвлёкся. Как Вы предлагаете доказать? Вынуть и положить на стол? В ситуации с субъективным каждый сам вынужден подбирать определения — и тут либо пытаться изучать литературу вместе с занятиями рефлексией и интроспекцией, либо поднимать на знамя первое понравившееся, либо немного оттуда и оттуда. А насчёт того, чтобы что-то кому-то убедительно коммуницировать — просто процитирую блестящее высказывание Уайтхеда: "Weakness of insight and deficiencies of language stand in the way inexorably. Words and phrases must be stretched towards a generality foreign to their ordinary usage; and however such elements of language be stabilized as technicalities, they remain metaphors mutely appealing for an imaginative leap." Наконец, ввиду, опять-таки, субъективности предмета (цель, кстати, штука тоже субъективная) зыбкость терминологического консенсуса позволяет легко переводить разговор на рельсы обвинений в подмене понятий.
Поэтому доказать, конечно, не могу. Тем более, что роль определений часто (если не всегда) заключается не в детальной характеристике реального явления, а в выхватывании всего-лишь некоторых его свойств для какой-то конкретной задачи. Доказывать, что в определении интеллекта должна быть цель, некорректно, если для роли определения это иррелевантно.
Тем не менее.
Я вижу эту ситуацию иначе. Не знаю, как у Вас, но когда я сосредоточен на каком-то деле (т.е., не отвлекаюсь), то я не пойму, даже если собака на улице заблеет. :) Я понимаю, что происходит на улице только тогда, когда я отвлекаюсь, чтобы обратить на это внимание — даже если это происходит какую-то долю секунды. Как может быть нецеленаправленным привлечение внимания? Как может быть понимание без внимания?
michael_v89
Вы подменяете понятия.
Во-первых, никто не доказал, что квалиа невозможно доказать объективно. Это в общем-то один из главных вопросов о квалиа.
Во-вторых, объективное доказательство существования квалиа и объективное доказательство существования термина "квалиа", которым люди обозначают некие наблюдаемые явления, это разные доказательства. Я говорю про второе. Термин "квлаиа" существует, и люди подразумевают под ним некие наблюдаемые явления, это факт. Термин "интеллект" существует, и люди подразумевают под ним некие наблюдаемые явления, это факт. И то, что оба эти термина формально не определены это тоже факт. Я попытался дать формальное определение термина "интеллект". А вот то, что оно должно содержать какую-то цель, это не факт, и никто это не доказал посредством логических выводов из других фактов.
Любые наблюдения любого явления субъективны. Но мы можем делиться информацией о своих наблюдениях, и совпадение информации из разных источников дает достоверность.
Никто не доказал, что это невозможно.
Возможность ткнуть пальцем это вообще какое-то странный критерий существоввания. В обратную сторону Луны мы тоже не можем ткнуть пальцем, только на изображение, которое нам передал какой-то космический аппарат.
В водород не можем ткнуть пальцем, потому что водород как таковой в природе не существует, существует много молекул водорода.
Если возможность ткнуть пальцем в данные аппарата это для вас достаточное доказательство, то нет, теориетически можно ткнуть пальцем в интерфейс отладчика и сказать "смотри, ИИ понимает".
Я? Я ничего не предлагаю доказать. Я дал формальное определение интеллекта, если вы считаете, что там должна быть цель, это вам надо доказывать, почему она должна там быть.
Откуда вдруг взялась сосредоточенность и "не отвлекаюсь"? В моем примере ничего про это нет. Опять у вас какая-то подмена понятий.
Вы меня пытаетесь убедить, что не услышите взрыва на улице, который вам окно выбъет, так как были сосредоточены на ккаком-то деле и не отвлекались?
И что никогда не просыпались от шума, или шум не мешал вам заснуть?
И что при работе вам совершенно никак не мешает шум людей в комнате или перфоратор соседа?
И что вы не замечаете человека, который к вам подошел и что-то спрашивает, пока вы не решите отвлечься от работы и проверить "а где же мой коллега — а вот он, рядом стоит"?
Я в этом сомневаюсь. Ну может быть у вас это так, а у других людей это не так, и происходящие события их отвлекают совершенно без их желания. И между прочим, использование собак для охраны напрямую связано с этой особенностью людей.
Я не говорил, что понимание может быть без внимания. Я сказал, что понимание может быть без цели использования этого понимания. Опять вы понятия подменяете. Разговор же был про цель получения результата, а не про механизм получения. Внимание это одна из составляющих этого механизма.
a1111exe
Вы подменяете понятия. Достаточно громкий шум сразу вызовет цель отвлечься и разобраться, что происходит. :)
michael_v89
А, ну в таком случае у интеллекта цель построить модель окружающей среды)
leventov
Цель все-таки есть: выживание. Но это цель на уровне автоматики нервной системы, а не логики. Например, невозможно не сфокусироваться на объекте который быстро занимает большую часть поля зрения (приближается).
Сильный ИИ вполне может включать "концентрацию" и переставать реагировать на входные данные и запросы когда делает некоторый сложный расчет, например планирует наперед. При этом он знает, что его безопасность обеспечена. Подавляющее большинство людей не владеют своей нервной системой (т. е. интеллектом) на таком уровне.
DGN
Ну во первых можно не фокусироваться. Водители и пилоты это подтвердят. Во вторых можно перестать реагировать, вопрос вовлеченности. Всякие анекдоты на эту тему вполне ходят, из серии «как хорошо что вы остановились, потому что мы не могли». Плюс есть еще такое понятие как ступор.
tsukanov-as
Люди строят модели не только у себя в голове. Например, они рисуют на бумаге карты местности. Зачем нужны карты мы же понимаем. Модель в голове строится по тем же причинам. Грубо говоря, чтобы эффективно решать возникающие задачи.
Ну а общая цель — выживание популяции.
tsukanov-as
А если модель прошита в геноме, то интеллекта быть не может? :)
qw1
Если модель прошита намертво и не расширяется, то это не интеллект.
tsukanov-as
А что это тогда? Берем взрослого умного человека и отключаем ему возможность менять модель. Интеллект исчез?
qw1
Да, исчез. Человек превратился в автомат.
tsukanov-as
Будто он до этого не был автоматом. :)
qw1
:)
michael_v89
Да. Самый простой пример — обычные программы. В них модель заложена в программном коде и не меняется. Они могут заменять человека в рамках этой модели, но мы не считаем, что у них есть интеллект.
tsukanov-as
Тогда получается, что в конкретный момент времени интеллекта нет ни у кого.
Или даже иначе. Представим себе божественное всезнающее существо. Получается у него нет интеллекта.
michael_v89
Есть. Потому что способность строить модель есть. Но вообще я не уверен, что понятие "интеллект" можно оценивать в конкретный момент времени. Оно подразумевает процессы обработки информации, которые длятся ненулевое время.
tsukanov-as
Вот я сомневаюсь как раз в том, что способность строить модель имеет хоть какое-то отношение к интеллекту. Модели то мы строим конечно, но почему мы их строим — большой вопрос. Опять же непонятно где изменение модели, а где просто запоминание.
AlexeyR Автор
В статье я пытаюсь показать, что умение строить модель мира — это свойство интеллекта. Это делает и ИИ и СИИ, но делают они это по разному.
tsukanov-as
Дело в том, что «умение строить» — это только потенция. Значит наличие у кого либо интеллекта можно определить только через то, что потенциально произойдет в будущем (изменится модель). Нет будущего — нет интеллекта. Так что ли?
Мне кажется что-то тут не так.
Можно ведь зайти с другой стороны и задаться вопросом: «Почему нам приходится учиться и строить модели?». На этот вопрос нет однозначного ответа. Например, одна из причин — ограничения на размер генома. Большую часть информации приходится передавать из поколения в поколение другим способом (не репликацией ДНК).
Есть и другие причины — изменчивость среды. Геном просто не успевает корректироваться.
Но ведь проявление интеллекта мы видим здесь и сейчас. Даем человеку интеллектуальную задачу и он ее решает. Без обучения, без перестроения модели. Отключаем человеку возможность менять модель. Опять даем интеллектуальную задачу. Он ее решает. Что изменилось? Ничего ведь. Хитроумный механизм, который решил задачу, не зависит от способности менять модель среды. Но тут конечно надо еще разбираться что считать построением модели, а что нет. Обезьяна, чтобы достать банан, ставит ящики один на другой. Это построение модели или решение в рамках фиксированной модели?
qw1
tsukanov-as
А вот это не очевидно. Возможно что интеллект как раз остался, и к навыкам он не сводится. Допустим, это какой-то механизм логического вывода, который ищет последовательность действий для достижения результата. Процесс долгий и не обязательно успешный. Буквально надо сидеть и думать. Это явно не решение по шаблону (навыки). Может быть оно и есть интеллект как раз?
qw1
Без примера конкретной задачи говорить нечего.
Если взять задачку из учебника физики, там надо уметь строить модель. Если взять задачку например на дифференцирование/интегрирование из матана, модель строить не надо, применяй правила и всё, с этим справляются математические пакеты.
tsukanov-as
Думаю надо различать модель-фундамент интеллекта, и модель-продукт интеллектуальной деятельности.
qw1
Я думаю, нет принципиальных различий между моделями, которыми мозг пользуется постоянно и они уже «вросли» в интеллект и моделями, созданными только что под решение конкретной задачи. Просто если вторыми пользоваться очень часто и много, их приоритет повышается, и они становятся первыми.
michael_v89
Да нет, при чем тут будущее. Вы умеете писать на русском языке? Вот вы написали фразу и доказали умение. Написанная фраза это уже прошлое, совершившийся факт. Пока вы не написали, да, неизвестно, умеете ли вы писать.
Это уже не другая сторона, а совсем другой вопрос, не связанный с тем, как определить уровень интеллекта системы. У вас уже есть система, и у нее есть некий уровень интеллекта, возможно нулевой, это просто факт, которые не меняется от того, знаете ли вы почему система именно такая.
Почему вы так решили? Даже тот факт, что вы хотите, чтобы он решил задачу, это построение модели окружающей среды. Даем компьютеру интеллектуальную задачу (в виде например текста) — и он ничего не делает, потому что не понимает, что написано в тексте, и даже что от него требуется что-то решить.
Не решает. Даем человеку интеллектуальную задачу, он на вас никак не реагирует, потому что не понимает, что вы стоите рядом с ним и просите что-то сделать.
Это построение модели, так как ящики это окружающая среда, и чтобы с ней целенаправленно взаимодействовать, сначала надо чтобы появились соответствующие информационные сущности. Это можно выразить в виде мысли "вон там стоят вон те штуки". Причем "стоят" и "вон там" это тоже информационные сущности.
tsukanov-as
Погодите, вы не поняли о чем я говорил. Я говорил не про потенцию доказательства, а про потенцию «построить модель». Другими словами, по вашему определению интеллектом обладает тот, кто может научиться говорить на русском, а не умеет сейчас (хотя язык в целом плохой пример). Будто существо интеллектуально только исходя из того, что оно способно чему-то научиться в будущем, а текущие умения значения не умеют. Получается интеллект — это неэффективный костыль, из-за того, что знания и умения не влезают в геном. Я конечно допускаю, что по вашим представлениям проверкой на интеллект может быть именно способность научиться говорить на русском. Но это довольно специфичный взгляд. Мы все таки интеллект проверяем на таких задачах, которые существо уже может решить, а не на тех, которые оно может потенциально научиться решать.
Не понял, что вы хотели сказать.
Если в нем нет соответствующего ПО, то конечно ничего не делает. Но я ведь совсем о другой ситуации говорил. Вот у меня, допустим, есть компьютер, который умеет все то же самое, что и я в данный момент времени. Тест IQ он проходит с тем же результатом. Мы идентичны по способностям. Но я могу еще чему-то научиться, а компьютер нет. По вашему определению получается, что у меня интеллект есть, а у компьютера нет. Странно, не находите? :)
То есть вы хотите сказать, что человек в этом случае перестает функционировать? Интересный взгляд. Получается у вас «построение моделей» == «мышление». Для меня это все таки разные процессы.
Представьте что модель среды у обезьяны уже есть от рождения. И ящики и бананы. От этого задача перестает быть интеллектуальной?
michael_v89
В целом да, это один из примеров.
Вы неправильно понимаете, что такое модель. Модель это условно говоря вообще всё, любая информационная сущность. Это не только обучение новым навыкам. Любое применение текущих умений тоже требует построение модели окружающей среды. Принесли мастеру радиоприемник починить, интеллект мастера это информационная система, в ней появляются новые информационные сущности, соответствующие реальным — конкретно вот этот радиоприемник, отвертка, открученные шурупы, элементы на плате, информация "ага, вон тот элемент перегорел". Это все построение модели текущей ситуации, то есть модели окружающей среды. И это как раз то, что на данным момент имеет сложности при реализации в компьютере.
При этом все эти сущности узнаются как "одно и то же" в разные моменты времени. Если мастер передвинул шуруп, он не считает, что это какой-то новый шуруп, он знает, что это тот же шуруп, который был.
Нет, по моему определению это не получается, см. выше.
А мышление по-вашему из чего состоит? Вот приходят нам на вход пиксели и звуковые колебания, как из этого дойти до мышления?
Конкретно вот такое расположение конкретно вот таких ящиков и бананов? Да, перестает, потому что с другим расположением ящиков она не справится. Это ничем не отличается от компьютерной программы.
tsukanov-as
Так вот в чем дело. Нет, для меня модель текущей ситуации и модель среды — это разные вещи. Вы почему то решили, что все понимают «модель среды» так как вы. Это не так :)
Я неправильно понимал только вашу интерпретацию. Теперь понял.
У меня есть две статьи на эту тему, можете посмотреть.
Нет, любое расположение. Модель с переменными, если угодно.
michael_v89
Я пояснил, что означает это слово, в исходном комментарии. Но вообще насколько я знаю, практически все понимают модель окружающей среды именно так. Модель окружающей среды должна отражать изменения окружающей среды, иначе какая же это модель.
Так это было предложение задуматься, как связаны мышление и построение моделей. Статья у меня и самого есть.
Мышление это фактически и есть работа с моделями, можно сказать, что мышление это процесс работы интеллекта.
Как вы "любое" расположение зададите? Чтобы взять ящик, надо точно знать, где он стоит. Либо вы задаете в геноме, что такого-то числа ящик будет стоять там-то, либо нужна обработка входящей информации, чтобы определить, где он стоит. "Определить, где он стоит" это в данном случае и есть построение модели.
tsukanov-as
Для этого есть глаза же. :)
Это какое-то ваше личное представление о процессе. В моем представлении определение координат — это определение значений переменных в рамках модели. Наполнение модели, фиксация текущей ситуации, снимок, образ. Что угодно, но не построение модели.
Некрасиво :)
michael_v89
Ну так значит нельзя задать расположение через геном.
Ну вот поставили мы камеру на компьютер, и дальше что? Почему он ящик не распознает? Эту информацию надо обработать и получить информацию вида "вон там стоит вот такая квадратная штуковина". До этой обработки у вас этой информации нет, значит нет и информационной модели конкретного этого ящика.
Не, вы не понимаете. Основная особенность модели это отображение, маппинг. Реальному объекту соответствует информационный объект. Реальный объект поменял характеристики (например положение) — поменялись характеристики и информационного объекта. Этот информационный объект это модель реального объекта. Совокупность таких объектов это модель окружающей среды. Это самое прямое значение слова "модель", модель она что-то моделирует, а не описывает.
В программировании между прочим то же самое. Объекты и классы это не одно и то же, они моделируют разные аспекты. Конкретный объект класса User с конкретными значениями переменных моделирует конкретного пользователя системы. Причем класс один, а объектов много. Это не совсем "определение значений переменных в рамках модели". Если бы у вас был один класс User со статическими полями, а в рантайме вы определяли их значения, тогда да, это можно было бы так описать.
В биологических системах никто заранее модель не закладывает, чтобы потом определять значения переменных. Любая структура это абстракция над наблюдением экземпляров. Сначала наблюдаются конкретные экземпляры (строятся информационные модели, которые их моделируют), а уже потом в них выделяются общие признаки.
tsukanov-as
Ну вы же поняли о чем я говорю, к чему этот спор о терминах? Пусть это не модель, без разницы вообще. Пусть это будет класс. Класс хранится в геноме. А координаты (переменные) экземпляра класса получаются с помощью глаз и других сенсоров.
Вы вот на полном серьезе решили поспорить о таких мелочах? Мне без разницы как это называть. Предлагайте, буду называть вашими терминами, раз для вас это так важно.
Класс и экземпляр класса устраивают? :)
Вы считаете так, я считаю иначе.
Теперь понял. Вы используете слово модель в самом простом бытовом смысле. Ваше право. Мне опять же без разницы.
michael_v89
Я говорю о том, что от класса, хранящегося в геноме, пользы нет никакой. Вам все равно нужны интеллектуальные алгоритмы, которые будут обрабатывать входящую информацию.
Я уже предложил — модель. Пример с классом User был о том, что и в программировании это слово используется в таком же смысле. Модель в виде классов называется "модель предметной области", а не "модель окружающей среды".
tsukanov-as
Во-первых, класс предполагает и алгоритмы. Во-вторых, совсем не факт что входящую информацию обрабатывают какие-то шибко интеллектуальные алгоритмы. Все животные прекрасно обрабатывают входящую информацию независимо от наличия интеллекта.
Как угодно.
michael_v89
Во-первых, нет, не предполагает.
Во-вторых, модель это результат работы этих алгоритмов в рантайме. Без работы их в рантайме ничего распознать не получится. Вот результат их работы это и есть модель окружающей среды, и в данном примере через геном она не задается.
Ага, мы приближаемся к сути. Я говорю о том, что у всех животных (по крайней мере млекопитающих) сильный интеллект. А под наличием интеллекта на самом деле понимается уровень интеллекта, аналогичный человеку. То есть нельзя сказать, что у собаки нет интеллекта, просто у нее интеллект не настолько развитый, как у человека. Тем не менее в плане распознавания объектов окружающей среды и ориентирования в пространстве у нее интеллект гораздо сильнее всех существующих нейросетей.
tsukanov-as
Интересно.
А зачем тогда эти классы нужны вообще? :)
То есть там совсем не так как в программировании? Класса в исходном коде нету и он программируется на лету неким алгоритмом? Получается в геноме лежит алгоритм, который программирует класс, по которому затем создается модель объекта? Я все правильно понял? Или сам алгоритм тоже на лету создается? Что тогда в геноме лежит?
Так много вопросов, так мало ответов :)
С этим кто-то спорил?
А у насекомых?
michael_v89
Низачем, в геноме их и нет. Классы появляются как результат обобщения наблюдений за экземплярами.
В программировании классы без алгоритмов это например всякие DTO и другие структуры для группирования и передачи данных.
Какой класс, класс появляется как обобщение наблюдаемых объектов. Информационная модель объекта получается из обработки входной информации. В этом и отличие от обычных программ, где классы и создание из них объектов закладывается извне программистом. Поэтому программы узкоспециализированны, они не могут создать непредусмотренные ранее информационные объекты.
Алгоритмы построения нейронной сети.
Вы спорили, когда сказали, что модель окружающей среды задана полностью в геноме, и обезьяна может использовать ящики, пользуясь только ей.
У насекомых скорее всего тоже есть, они распознают некоторые объекты окружающей среды и могут с ними целенаправленно взаимодействовать. Но тут уже размывается грань между интеллектом и заложенной программой, какое-то поведение является проявлением интеллекта, какое-то сформировалось эволюционно. Точнее можно определить только просканировав каждый нейрон и проследив движение информации, на данный момент таких технологий нет.
tsukanov-as
Ладно, вижу что мы друг друга тотально не понимаем.
odins1970
нет. Иначе бы афферентный блок безусловного рефлекса был бы не возможен. А это нет так
michael_v89
Да. В моей теории возможности афферентного блока безусловного рефлекса ничто не противоречит.
odins1970
противоречит и вот ваш текст "… В биологических системах никто заранее модель не закладывает, чтобы потом определять значения переменных. Любая структура это абстракция над наблюдением экземпляров. Сначала наблюдаются конкретные экземпляры (строятся информационные модели, которые их моделируют), а уже потом в них выделяются общие признаки." Безусловный рефлекс не требует преднастройки. Т.е паттерн или набор опознавательных признаков врожден.
michael_v89
Я не говорил ничего про преднастройку. Я наоборот сказал, что преднастраивать нечего.
Ну да, врожден. Со всеми значениями переменных, а не так, как это было написано в утверждении, на которое я отвечал.
И к формированию информации "в сторону моего лица летит теннисный мячик", которая является моделью окружающей среды, это не имеет отношения. Даже если вы будете точно знать, что мячик пролетит мимо, вы все равно моргнете. Да, это какая-то упрощенная модель, которая сформировалась эволюционно, но работает она независимо от интеллекта. А разговор был про работу интеллекта.
leventov
На мой взгляд, интеллект — это паттерн во времени. Так как будущего мы не можем "наблюдать", имеет смысл только говорить о том, что те или иные объекты на каких-то промежутках времени (или вплоть до текущего момента) проявляли интеллект. Может ли это оборваться сию секунду? Конечно может, например, человек внезапно умирает, ИИ программа вырубается из сети. Ну, или если хотите, человек резко сходит с ума (= сложная система сваливается в хаотическое состояние).
Но мы конечно может прогнозировать, что те или иные объекты будут по прежнему проявлять интеллект вплоть до определенного времени в будущем с некоторой вероятностью.
teology
Стопэ, человек не строит никакую модель мира. Это все выдумки.
michael_v89
Возможно вы неправильно понимаете, что такое модель. Интеллект связан с обработкой информации, надеюсь в этом вы не сомневаетесь. Так вот модель это практически любые информационные сущности, выделяемые в этой информации. То есть это практически все, с чем работает интеллект. Многие информационные сущности обозначаются словами, то есть информационная сущность это значение слова.
Чтобы что-то запомнить, надо уже разложить входные пиксели и звуковые колебания на информационные сущности. Простой пример — попробуйте запомнить какую-нибудь сложную фразу на незнакомом вам языке. Скорее всего вы даже звуки не все правильно запомните, не то что слова или смысл, который вам неизвестен.
tsukanov-as
О том и речь, что все эти сущности можно заложить в геном, например.
Ровно так это происходит у животных. У паука модель мухи есть от рождения.
Убираем модель из генома и закладываем способность построить ее при жизни. Это интеллект? :)
Мы можем все сущности и все языки мира заложить в геном. И дальше уже будет работать тупая память.
michael_v89
Нельзя. Модель это не какое-то обобщенное понятие, любая (абсолютно любая) информация об окружающей среде это часть какого-то элемента модели. Вы не сможете заложить в геном, в каком углу клетки и в какой позиции будет стоять ящик такого-то числа.
Нет, теоретически это можно сделать, если договориться о точной последовательности всех событий за всю жизнь существа, фактически это будет не распознавание входной информации, а проигрывание заложенной в геном ситуации синхронно с реальностью. И да, это не будет интеллектом, потому что в любой другой ситуации такая программа работать не будет. Передвинули ящик в другой угол, а обезьяна идет в прежний, потому что считает, что ящик стоит там.
Нет, не будет. В компьютеры вы можете заложить это уже сейчас, только интеллекта они почему-то не проявляют.
Все сущности и все языки мира это только часть модели. Моделировать надо так же все динамические события, происходящие в окружающей среде. Нет модели — значит информационная система не наблюдает объект или явление, его для нее вообще нет.
Вот идете вы ночью по квартире и запнулись за тумбочку — потому что у вас не было информационной модели этой ситуации, по которой вы могли бы получить информацию о расстоянии между вашей ногой и тумбочкой. Вы считали, что тумбочка находится дальше от вас, чем на самом деле, у вас была неправильная информационная модель ситуации. А если свет включить, информационная модель обновится, и вы можете сказать "ой блин, чуть об тумбочку не запнулся". А если вы в компьютере эту ситуацию закодируете, то у него и после включения света информационная модель не обновится, потому что у него нет нужных алгоритмов анализа входной информации. Хотя если его в правильную изначальную позицию поставить, он тумбочку объедет.
tsukanov-as
Мне кажется вы путаете модель, и переменные модели.
То же самое. У вас конкретные значения переменных почему то стали частью модели. Но мы ведь даже в программировании делаем функции с параметрами и переменными. Не понимаю о чем спор :)
michael_v89
Потому что информация не берется из ниоткуда. Чтобы взять ящик, надо внутри информационной системы иметь информацию о том, где снаружи информационной системы находится этот физический объект.
В биологических организмах никто ничего не программирует и переменных не объявляет, там есть входная информация в виде пикселей и звуков, и обработка этой информации в нейронах.
Правильные переменные не помогут вашему работу взять ящик, если в них не будет правильных значений.
qw1
michael_v89
Такая модель не будет позволять ловить мух. Все равно надо в реалтайме получать визуальную информацию или еще какую-то другую, типа того какая нитка паутины дергается, и обрабатывать ее определенными алгоритмами. Эти алгоритмы и будут строить информационную модель окружающей среды.
qw1
У вас любая входная информация — это изменение модели. В вашей картине мира нет места пользованию построенными готовыми моделями.
michael_v89
Я же объяснил это уже. Не бывает построенных готовых моделей. Они теоретически возможны, но практически в природе не реализуемы, так как в геном надо закодировать все события, которые будут происходить с существом.
Построенная готовая модель — это когда у обезьяны есть точное врожденное знание, что ящик стоит вон в том углу, она может подойти его и взять, не получая на вход никакой дополнительной информации. И такая модель будет работать только если ящик действительно стоит в том углу. Так работают какие-то промышленные роботы например, которым всю последовательность действий задали заранее. А если ящик передвинуть, они будут манипулятором в воздухе махать.
Какие-то базовые структуры это конечно тоже часть модели, но это не является моделью окружающей среды. Модель окружающей среды внутри информационной системы содержит информацию о том, что происходит вне информационной системы.
qw1
Почему не может быть такой модели, в которой ящик опознаётся зрением (есть такие обученные свёрточные сети). Распознаём ящик, подходим к нему и хватаем.
michael_v89
А почему не может-то?) Я же про нее и говорю. Информация "вон там стоит квадратная штуковина", полученная из зрительной информации, это и есть информационная модель конкретного ящика. Но она не задана генетически, как вы говорите, а построена по входной информации.
Вы видимо подразумеваете модель как набор классов, как в программировании. Набор классов это модель предметной области, а не модель окружающей среды. Моделью окружающей среды она становится когда создаются объекты этих классов с конкретными значениями полей. Объекты моделируют сущности реального мира, например пользователя с конкретным id, который в данный момент взаимодействует с системой.
Разница между биологическим интеллектом и программами в том, что у биологического интеллекта классы выделяются по наблюдениям за объектами и выделением у них общего. В программе первичны классы, в биологическом интеллекте объекты.
Даже если вы каким-то образом генетически закодируете классы, без конкретных значений переменных (создания объектов) существо все равно не сможет взаимодействовать с окружающей средой. Вам будет нужен источник информации об окружающей среде, который даст эти значения, например зрение со сверточными сетями, который вы предложили. Модель окружающей среды это набор объектов, а не набор классов.
tsukanov-as
Позволю себе небольшое замечание. То, как вы интерпретируете слово «модель» имеет право на жизнь. Но вообще инженеры под этим словом по умолчанию подразумевают математическую модель:
ru.wikipedia.org/wiki/%D0%9C%D0%B0%D1%82%D0%B5%D0%BC%D0%B0%D1%82%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B0%D1%8F_%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D1%8C
Например, меня ровно так учили в университете. То, что вы пишете (ваша интерпретация) понятно. Попробуйте и вы понять собеседников.
Там вроде явно написали «обученные свёрточные сети».
Любую обученную нейросеть можно прошить в геноме. Так собственно природа и поступает в большинстве случаев. Обучать сети при жизни — это относительно недавнее и ограниченное нововведение, имхо.
michael_v89
Я не использую какую-то особую интерпретацию. Моя интерпретация соответствует стандартному определению слова "модель".
Модель — система, исследование которой служит средством для получения информации о другой системе; представление некоторого реального процесса, устройства или концепции.
Модель есть абстрактное представление реальности в какой-либо форме (например, в математической, физической, символической, графической или дескриптивной), предназначенное для представления определённых аспектов этой реальности и позволяющее получить ответы на изучаемые вопросы.
Чего это вдруг?) Я инженер, и для меня модель по умолчанию информационная. Нас учили, что умолчания зависят от предметной области и от контекста.
И независимо от того, что подразумевается по умолчанию, тип модели я указал явно — это информационная модель.
Информационная модель — модель объекта, представленная в виде информации, описывающей существенные для данного рассмотрения параметры и переменные величины объекта, связи между ними, входы и выходы объекта и позволяющая путём подачи на модель информации об изменениях входных величин моделировать возможные состояния объекта.
Информационная модель (в широком, общенаучном смысле) — совокупность информации, характеризующая существенные свойства и состояния объекта, процесса, явления, а также взаимосвязь с внешним миром.
Вы так говорите, как будто я кого-то обидел тем, что объяснил свой термин. Я изложил свою, назовем это теорией, мне задали вопросы по поводу непонятного термина, я на них ответил. Зачем мне понимать чью-то интерпретацию терминов, если моя интерпретация от этого не поменяется?
Если кто-то считает, что моделью можно называть только набор классов без конкретных значений полей, значит он должен в рамках своей теории предложить другой термин для объектов этих классов с конкретными значениями. Тогда я смогу сказать "то, что вы называете <термин>, я называю модель окружающей среды".
Да, любую сверточную сеть можно прошить в геноме, и чтобы она заработала, надо подавать ей на вход зрительную инфомацию. С конкретными значениями цвета пикселей, которые она свернет в конкретные значения других характеристик, которые в геноме не прошиты. Эти значения (вернее их совокупности) и есть информационная модель того, что окружает информационную систему в данный момент (окружающей среды). Если вы считаете, что это нельзя называть моделью, предлагайте свой термин.
tsukanov-as
Не, вы совершенно точно никого не обидели.
Позвольте сделаю акцента немного:
Другими словами, по вашей же ссылке то, что вам пытались объяснить. Это в общем то не отличается от математической модели. Чуть менее формально то же самое сказано.
Чтобы понимать, что вам пишут. Ваша интерпретация — она ведь только для вас.
С этим проблем нет. Проблема в том, что вы не хотите понимать что вам пишут, зациклившись на слове «модель». Оставьте это слово себе. Вам пишут про математическую модель, которая может быть прошита в геноме. У паука от рождения есть математическая модель мухи (скорее всего). Именно она позволяет ему распознавать мух и успешно ловить. Паук от рождения знает как они выглядят, пахнут, звучат, двигаются. Весь его «интеллект» находится в геноме, насколько бы сложным не было его поведение (пауки кстати весьма не просты). То что происходит в реалтайме — это, грубо говоря, просто подача чисел на параметры математической модели. Никакие математические модели при жизни паук не создает. И изначальный вопрос к вам был в следующем: если содержимое головы (математическую модель) взрослого умного человека прошить в геноме, то это перестанет быть интеллектом?
ps То, что модель в вашей интерпретации нельзя прошить в геноме — это понятно, очевидно и не интересно.
pps Но вообще, если честно, я уже перестал понимать, что вы имели ввиду в исходном комментарии:
После того, как вы вскрыли слово «модель», у меня даже идей нет о чем тут говорится.
michael_v89
Ну да, там написано "моделировать возможные состояния объекта". Это как раз то, о чем я говорю. Значит использовать слово "модель" здесь совершенно корректно. Просто в биологических системах переменные величины и связи (аналог классов) выделяется по наблюдению объектов, а не закладывается программистом заранее. Объекты первичны, информационная модель состоит из них.
Также хочу обратить внимание, что я конкретно указал, что я подразумеваю именно модель окружающей среды. Невозможно смоделировать конкретное окружение системы в конкретный момент времени, используя только классы и не создавая объектов.
Так мне писали вопросы по поводу моего термина "модель окружающей среды" и моего определения термина "интеллект". Никто свое определение термина "интеллект" не предлагал, соответственно, и чьей-то другой интерпретации, которую я мог бы понять, тут нет. Любые другие определения термина "модель", которые не участвуют в определении термина "интеллект" к разговору не относятся (в том числе такие, как фигурка в уменьшенном масштабе, или человек, показывающий одежду).
Вот что мне пишут:
"У вас конкретные значения переменных почему то стали частью модели."
"Почему не может быть такой модели, в которой ящик опознаётся зрением (есть такие обученные свёрточные сети)"
В первой фразе вы выражаете непонимание относительно содержания моего определения. В ответ на это я объяснил, почему они у меня стали частью модели.
Во второй фразе собеседник задает мне вопрос, который связан с моим определением. Я ответил, что я именно об этом и говорю.
По-вашему, я должен был проигнорировать эти вопросы? Или как вы представляете ответ на них?
И обратите внимание, во второй фразе подразумевается такая модель, в которую входят значения переменных. То есть "мне пишут" и про такие модели в том числе.
Ну да, пишут, и я говорю о том, что интеллект заключается не в этом.
Нет. Никто пауку не подает на вход информацию вида "это размер мухи 1, это положение мухи 1, это размер мухи 2, это положение мухи 2". В реалтайме единственные числа, которые подаются на вход — это информация с датчиков, например значения цветов пикселей и звуковых колебаний. Далее происходит обработка этих чисел и превращение их в конкретные объекты типа "одна муха вон там, вторая здесь", которые уже могут быть связаны с тем, что прошито в геноме. Именно эта обработка и составляет интеллект. И именно эта обработка на данный момент составляет трудность при реализации в компьютере.
Создает. Ну просто потому что информация вида "вон в том участке паутины сейчас есть муха" не может быть закодирована в геноме, а значит она появляется в реалтайме. Только более корректный термин не математические, а информационные, в виде реакции нейронов.
И я на него ответил уже несколько раз. В моем определении интеллекта используется термин "информационная модель окружающей среды". В "содержимое головы взрослого умного человека" входит информация о том, что его окружает в каждый конкретный момент времени, и эта информация постоянно меняется. Это и есть "информационная модель окружающей среды". Если вы это содержимое для каждого момента времени прошьете в геноме, то это будет выглядеть как интелектуальное поведение только пока реальные события совпадают с запрограммированными. Это то, как работают промышленные роботы. Если же вы не будете эту динамическую часть прошивать в геноме, значит интеллект будет в реалтайме, а не в геноме.
Вы под словами "математическая модель" видимо подразумеваете какой-то другой набор информации. И в соответствии с моим определением это не является интеллектом ни в реалтайме, ни в геноме. У меня в определении используется динамическая информация об окружении. Мне непонятно, почему вы спрашиваете меня про какие-то другие термины, которые не являются обозначением динамической информации об окружении.
Мне непонятно, почему вы считаете, что модель это только аналог классов из программирования, и ничем другим быть не может. Объект с конкретными значениями полей класса это тоже модель.
ni-co
Господи! Нет у паука никаких датчиков и никакими числами он не оперирует. Есть нейроны и импульсы, порядок обработки заложен в геноме
tsukanov-as
Видимо диалога таки не получится. Спасибо за ответ.
michael_v89
Подождите, я не понимаю. Ко мне были вопросы касательно моего определения термин "модель окружающей среды". Я на них ответил. Почему вы теперь обвиняете меня в каком-то нежелании диалога с моей стороны?
В моем определении термина "интеллект" используется только тот термин "модель", который я описал. Если вы замените его на свой, который означает что-то другое (например "модель — человек, показывающий одежду"), то конечно же в моем определении интеллекта получится ерунда. И я серьезно не понимаю, зачем надо это делать, и что вы хотите этим доказать.
Как я уже сказал, вы можете предложить свой термин для динамической информации об окружающих объектах в реалтайме. Тогда я смогу изложить мое определение интеллекта в ваших терминах. Я совершенно не против диалога, предлагайте.
tsukanov-as
Вас никто ни в чем не обвинял. Это ваша интерпретация.
Пожалуйста, переформулируйте ваше определение в терминах «математическая модель» и «текущая ситуация».
Я уточню термины на простейшем примере:
Математическая модель: y = x*2, где x — сенсор
Текущая ситуация: 4 = 2*2
michael_v89
Ваше высказывание подразумевает негативное отношение к моим действиям, что означает, что вы считаете, что я сделал что-то неправильно и должен был действовать как-то по-другому. Это и есть смысл слова "обвинение".
Обвинение
Упреки, укоры
Приписывание кому-н. какой-н. вины
Вина
Проступок
Причина, источник чего-н.(неблагоприятного)
Что значит "текущая ситуация" — ситуация вне информационной системы или информация о ней внутри? В бытовом смысле это выражение означает текущую ситуацию в реальности, то есть вне информационной системы. Вы видимо используете его в каком-то другом смысле.
Если вы подразумеваете под ним набор информации внутри информационной системы, тогда нужен другой термин для обозначения текущего состояния окружающей среды, чтобы не путаться. Вы его не уточнили, поэтому предположим, что реальное текущее состояние окружающей среды входит в понятие "окружающая среда", а термин "текущая ситуация" означает информацию о нем. Тогда определение будет таким.
Интеллект — это способность информационной системы строить текущую ситуацию окружающей среды на основе входящей информации. Чем подробнее текущую ситуацию она может построить, тем больше у нее интеллекта. Текущая ситуация состоит из информационных объектов, объект это то, что определяется как "одно и то же" в разные моменты времени. Вот эта способность определять "одно и то же", это самое важное.
tsukanov-as
Это ваша интерпретация. Спорить на эту тем нет желания. Вы можете еще раз посмотреть на мой комментарий. Там нет никаких обвинений.
А давайте внимательно посмотрим:
Тут уточнять больше нечего.
Ваша попытка уйти в неформальное русло не интересна, извините.
Смотрим на определение в контексте моей просьбы:
Спасибо. Что под ваше определение не попадает? Любой агент, основанный на модели мира подходит, как кажется. Подход давно известный и описанный в классических учебниках. Почему это интеллект?
michael_v89
Давайте. Посмотрите внимательно на то, что я писал:
"Если вы подразумеваете под ним набор информации, тогда нужен другой термин для обозначения [реального] текущего состояния окружающей среды, чтобы не путаться. Вы его не уточнили".
У вас после термина "Текущая ситуация" находится информация, которая появляется внутри информационной системы, а я говорил про термин для того, что находится вне. Тут 2 понятия — реальное состояние реальных молекул вне информационной системы, задающее характеристики реальных физических объектов, и информация об этих характеристиках объектов внутри информационной системы. Если вы хотите разобраться, не надо их путать.
Каким образом просьба уточнить термины является неформальной? Это наоборот усиление формализации.
Кроме того, я не делал попытку куда-то уйти, а предположил наиболее вероятный смысл ваших слов, и изложил определение в соответствии с этим.
Да. Пока реальная ситуация соответствует этой заложенной математической модели мира (использовал ваш термин, а не мой). Как только реальная текущая ситуация в окружающей среде перестает соответствовать тому, что в него заложено, информационную текущую ситуацию агент построить не сможет. Поэтому у него крайне узкоспециализированный интеллект.
То есть например имеем ситуацию — на изображении кошка, а агент говорит собака, или ящика в углу нет, а агент пытается его взять, действуя в полном соответствии с заложенной (математической) моделью. Это интеллектуальное поведение? Мне кажется нет.
И как видите, из-за предложенной вами неточной бытовой формулировки "текущая ситуация" приходится добавлять к ней характеристики "реальная" и "информационная", чтобы было понятно, о чем идет речь.
Из моего определения следует, что нет какого-то фиксированного критерия "есть интеллект/нет интеллекта". Можно говорить только о том, есть ли нужный уровень интеллекта. Эмпирически мы считаем, что у человека больше интеллекта, чем у собаки, а у собаки больше интеллекта, чем у нейросети.
Поэтому когда агент берет ящик правильно независимо от его местоположения (правильно строит "текущую ситуацию"), это более интеллектуальное поведение, чем когда агент машет манипулятором в пустом углу потому что ящик передвинули. А когда вместо ящика лежит воздушный шарик, и агент выдает ошибку "что за фигня", это более интеллектуальное поведение, чем использование его вместо ящика как ни в чем не бывало, даже если агент берет шарик независимо от его местоположения.
tsukanov-as
Серьезно? Теперь вы об этом хотите поспорить?
Не, я пас.
С таким определением термин «интеллект» просто бесполезен, имхо. Но это мое личное малоценное мнение.
Некрасиво.
michael_v89
Нет какого-то фиксированного критерия «есть скорость/нет скорости». С таким определением термин "скорость" просто бесполезен.
То есть вы хотите сказать, что абсолютно у всех людей абсолютно одинаковый интеллект, и интеллекту двух разных людей нельзя дать характеристику в виде больше/меньше? Потому что если можно, то "меньше" может уменьшаться хоть до нуля. Только надо определить, в чем измерять это "меньше".
Также отсутствие у интеллекта характеристики больше/меньше приводит к разным непонятным вопросам. У собаки есть интеллект? А у обезьяны? А у человека? А у первобытного человека? А почему только у человека есть, по каким критериям это определяется? По владению речью? А у немого человека есть интеллект? И т.д.
tsukanov-as
Нет, не хочу. Что такое интеллект я не знаю. Есть только интуитивная догадка, что обезьяна, которая строит пирамиду из ящиков ради банана, использует для этого интеллект. От обычного навыка это отличается тем, что обезьяна думает перед этим. Скорее всего время уходит на перебор вариантов в рамках модели. Другими словами, это какой-то логический вывод (перебор, рекурсивный поиск). Причем перебор скорее всего тупой в лоб. Мне кажется, что вот этот решатель имеет смысл называть интеллектом. Все остальное — инстинкт (приобретенные навыки сюда же). Но это все не важно. Повторюсь, я не знаю что такое интеллект.
saboteur_kiev
Простите что влез в беседу, но
Это просто бред.
Что такое скорость — известно.
Ее можно измерить, причем относительно разных систем.
Дать различную классификацию.
Если скорость равна 0, это означает что скорости нет., и это точное определение, которое работает.
А вот относительно чего мерять интеллект, чтобы понять что он вообще есть, просто очень маленький, или есть и большой. У пока что есть просто человек и не человек, и даже в пределах человека, нет четких и явных градаций, кроме невнятного IQ теста.
michael_v89
А вот именно для этого и нужно формальное определение интеллекта. Я предложил свою версию и показал, что нужно считать.
Равна нулю относительно чего? Если скорость относительно Земли 0, а относительно Солнца не 0, скорость есть или нет? Не может же она одновременно быть и не быть. Значит оно не совсем точное, и надо уточнить.
А еще можно сказать, что нулевая скорость это частный случай скорости. Как же это может быть частный случай X, если X нет?
Ну ок, такой фиксированный критерий можно придумать и для моего определения. Если интеллект равен 0, это означает, что интеллекта нет. Если для скорости такой критерий означает небесполезность, значит и для интеллекта тоже должен.
Только это все равно означает, что и для скорости, и для интеллекта значения не бинарные есть/нет, а числовые, их можно сравнивать на равенство (например с нулем) и на больше/меньше.
AlexeyR Автор
Вы хорошо показали, что задание определения для понятий приводит к их строгим трактовкам и однозначным формулировкам и выводам. Но есть другой подход. Понятие может определяться смыслом, который в зависимости от контекста превращается в то или иное «определение». Контекстно-смысловой подход и описывает, как формируются контексты, и как в них происходит трактовка информации. Но это другая парадигма. Где-то выгодно и необходимо применять строгую формализацию. Но нельзя загнать в нее весь мир.
Гибкость смыслов и их адаптивность под ситуацию позволяет выйти за рамки строгих правил и покрыть те ситуации на которые изначально правила не распространялись. То есть контексты позволяют переносить знания из одного контекста в другой. Опыт полученный в одном контексте оказывается применим во всех остальных. Это делает такую систему на порядки мощнее классических.
michael_v89
Понятие и есть смысл слова. Слово это термин, понятие это его значение.
Формализация — она для конкретного термина в конкретном контексте (контекст в общепринятом смысле). Ваш контекстно-смысловой подход показывает, как из входного слова получить его смысл. А формальные определения даются уже для уточнения этого смысла, для определения его границ. Формализация работает для результата работы вашего подхода, после учета языка, ситуации и известных знаний. Слово "бой" может означать разное в разных контекстах и на разных языках, и для каждого значения формальное определение будет разным. То о чем вы говорите, это способ выбрать значение.
У вас какое-то другое значение слова смысл. Один отдельный смысл (понятие, представление о чем-то) всегда один и тот же, просто их много, мы лишь можем выбирать, с каким из известных нам смыслов связать входное слово. Именно поэтому мы можем обсудить что-то на одном языке, запомнить смысл того, что мы обсуждали, и продолжить обсуждение на другом языке. Слова используются другие, но ведут они к тому же самому смыслу.
qw1
Это можно назвать специализацией модели. Как подстановка в систему уравнений части значений переменных также оставляет её системой уравнений, но более определённой.
Проблема вашего определения в том, что в его рамках слишком легко создаются модели. Вот есть уже обученная свёрточная сеть, которая распознаёт котиков. Дальнейшее обучение не предусмотрено. Когда на неё подают изображение, она (по вашему определению) создаёт модель мира, в которой котик находится в координатах X,Y. То есть, создание модели — совершенно тривиальная вешь, не требующая интеллекта.
В нашем определении новая модель не создаётся, она была создана в момент обучения сети.
У вашего подхода есть один неясный момент. Модель предназначена для того, чтобы играясь с ней, предсказывать поведение реального мира. Построение модели заканчивается, когда применены все фактические данные из реального мира. А умозрительные параметры — это уже работа с моделью, ради чего она создавалась. Поясню на примере. В поле зрения появился хищник, но мы не знаем, что он дальше будет делать. Мы построили модель и начинаем в ней прокручивать варианты — если я побегу, хищник меня догонит. Если я стою, а он приближается, надо замереть. И т.д. Но вот хищник сделал реальный шаг. Мы перестроили модель и дальнейшие умозрительные шаги рассматриваем в новой модели. А в нашем подходе, умозрительные шаги и реальные одинаково обновляют (доопределяют) модель. Так же намного проще реализовывать модели. По всем правилами хорошего кода всё, что можно обощить, надо обобщить.
michael_v89
Ну как же это не требующая, когда она обученная) У вас нейросеть обучилась создавать модели окружающей среды — видит котика и говорит, что котик находится в координатах X,Y. Это проявление интеллекта, да. Только вот проблема в том, что информационные модели других окружающих объектов она создавать не умеет, а значит интеллекта у нее не так уж много.
В таком случае вы должны опеределить термин, который будет описывать информацию "котик находится в координатах X,Y". Если это не модель конкретного котика на конкретной картинке, тогда что?
Опять же, а какая разница, как вы определяете слово "модель"? У меня-то в определении слова "интеллект" используется вполне конкретное определение модели. Если вы замените его на какое-то другое, то естественно получится ерунда, так же как если использовать определение "модель — человек, показывающий одежду".
Интеллект — это способность информационной системы строить человека, показывающего одежду, на основе входящей информации.
Ну ерунда же, нет?
Ну вот результат применения данных из реального мира это информационная модель этого мира в конкретный момент времени.
Эм, нет, модель просто представляет некий другой объект, а делаться это может с разными целями. В биологических системах это в первую очередь получение информации о текущем состоянии окружающей среды. Для примера попробуйте пройтись с закрытыми глазами по квартире. Поведение стен и мебели вам и так известно, они будут неподвижными, но информация об их положении относительно вас вам все равно нужна.
Нет. В поле зрения изменились какие-то пиксели. И преобразование этого изменения в информацию "это хищник" это и есть построение модели. Это интеллектуальная обработка. Применение результата этой обработки это уже отдельный вопрос.
Я не понял, в чем тут противоречие с моими словами. Я вообще про использование модели ничего не говорил, только про построение.
Использование полученной на каком-то шаге модели как входной информации для следующего блока или цикла обработки тоже возможно, определению это не противоречит. Любой блок обработки информации можно рассматривать как информационную систему со своим входом и выходом.
AlexeyR Автор
Возможно, поможет пример. У мыши вомероназальный орган реагирует на феромоны порядка двухсот хищников. Это зашито генетически. Генетически зашита и реакция, где-то бежать, где-то затаиться. При встрече с «запахом» мышь запоминает образ носителя. После этого она становится способна реагировать на образ носителя даже в отсутствии запаха. Такой принцип кодирования распространен у животных, у человека вомероназальный орган атрофирован.
qw1
Интересно, это какое-то гибридное решение. Ключ к обучению зашит генетически, и этот ключ запускает обучение образу.
AlexeyR Автор
Да, именно гибридное. Это решение обусловлено необходимостью быстро войти в этот мир. Когда появилась возможность длительного обучения, как у человеческих детей, многие врожденные знания отпали. Предопределенность сужает возможность адаптации.
leventov
"Способность" это понятие само по себе включающее время, потому что в физике нет моментальных взаимодействий. Поэтому "в моменте" нет ни интеллекта, ни персоны.
Вообще, говорить о "моменте", наверное, вообще некорректно с физической точки зрения, а может и с философской.
leventov
Интеллект и человеческая персона — это паттерны, которые проявляются в процессе течения времени. В моменте их нет.
leventov
По-моему, в геноме прошита не модель, а код модели. Модель возникает (строится) в процессе. Например, даже когда инфузория "оценивает" концентрацию сахара (или чем она там питается) в жидкости и движется туда где его больше, она строит модель, то есть проявляет интеллект.
Так же как и компьютерная программа которая моделирует что-то проявляет интеллект.
michael_v89
Интеллект был у того, кто заложил в нее модель, задал нужные информационные сущности.
leventov
Согласно моей системе определений, "тот кто заложил" (т. е. эволюция) проявил креативность, более высокоранговую вещь чем интеллект. Практически у всех живых клеток есть интеллект (а может быть, некоторую меру интеллекта можно приписать вообще всему, вплоть до молекул), но, возможно, только у человека как отдельной особи среди живых организмов на Земле есть креативность.
Другими словами: интеллект — это расчет модели в смысле построения, а не создания.
michael_v89
Ну мы все-таки не говорим, что у отдельных клеток есть интеллект. Определение надо давать такое, чтобы отражать эти особенности, хотя бы обозначить, как считать уровень интеллекта.
leventov
Вы не говорите, я говорю.
Я слишком слаб в математике чтобы хотя бы предложить метрику. Даже не уверен, что это можно сделать. Более словесное определение вы сами дали выше и оно меня полностью устраивает. И мне кажется, что под него попадают и некоторые одноклеточные организмы, и деревья, и экосистемы, и компании, и некоторые компьютерные программы (далекие от "сильного ИИ", впрочем), и много других интересных сущностей.
tsukanov-as
Все таки какой-то сломанный телефон. Иметь модель и строить — разные вещи.
С моей точки зрения инфузория имеет модель, а не строит. Построена она миллионами лет эволюции в геноме.
Есть замечательный пример модели среды, о котором можно говорить предметно. Это карты местности. Составить (построить) карту и пользоваться ей — разные процессы не так ли?
leventov
Да, телефон сломанный. Я попытался уточнить определения выше.
Пример с картой мне не нравится. Возьмем человека. Если он всего лишь "имеет" модель из генома, мы вынуждены признать, что он не обладает "интеллектом". Но это просто не соответствует тому, что мы называем интеллектом на интуитивном уровне. На мой взгляд, давать определения, которые противоречат самой базовой интуиции нет смысла, это противоречит целям и науки, и философии.
Эволюция, инфузория, дерево, человек, и ИИ — проявляют интеллект.
Эволюция, человек, и ИИ — проявляют креативность (= создают новые модели).
tsukanov-as
Кто такие «мы»? :)
То что это противоречит лично вашим представлениям — нормально. Но говорить за всех — это перебор. Общепринятых представлений тут просто нет.
leventov
Интеллект можно определять по-разному, но с тем, что человек им обладает, так или иначе согласно подавляющее большинство людей. Я даже не знаю, кто не согласен, кроме вас.
tsukanov-as
Опять какой-то сломанный телефон. Я не утверждал что человек не обладает интеллектом. И вообще интеллект не определял.
Мое замечание было к этому:
«мы вынуждены», «мы называем».
Нет, «мы» не вынуждены и не называем. На мой взгляд человек обладает интеллектом безотносительно того, заложено что-то в геноме или нет. В этом вся суть моих комментариев.
leventov
Очень длинный поток сознания, что хотели сказать — так до конца и не понятно.
Вы вроде бы верно говорите, что философы не определились (и вряд ли определятся), что такое "смысл", но потом излагаете одну определенную теорию смысла из множества (какую именно, често не скажу — сам не осилил статью), как будто там вообще не о чем спорить.
Я согласен с этим только если выставить исключительно высокую планку для того, что есть "понимание". Такую высокую, что сама ваша статья (и заодно этот мой комментарий) ее не проходят, а по сути являются "сгенерированным бредом". Я бы сказал, что 80% людей в мире в принципе не способны ни к какому "пониманию" выше даже GPT-3, еще 19% иногда говорят и пишут что-то на уровне GPT-4/GPT-5 (условно, я бы занес нас и наши тут рассуждения в эту категорию), и не более 1-2% действительно могут создавать новые смыслы (или находить их в Платоновском мире — как хотите).
Ваш подход к сильному ИИ выглядит слишком зацикленным на языке. Самые сильные ученые и инженеры всегда задействуют "визуальную прошивку" также известную как правое полушарие.
Но у меня есть подозрение, что самый простой путь к сильному ИИ — это снести язык и дать ИИ прийти к полностью собственной системе паттернов. Учить сильный ИИ языку, — наверное, можно, но это все еще в духе Deep Blue, а не Alpha Zero. Горький урок в том, что весь наш язык сильному ИИ будет не нужен, и даже мешать.
Но мы вряд ли пойдем по этому пути, во-первых, потому что такой удар будет действительно слишком болезненным для нас, во-вторых, потому что у такого ИИ (возможно) будут проблемы со взаимодействием с человеком, и, в целом, с explainability.
eternal_why
Вот да, я про в эту сторону ходить, да и то, наверное, не выйдет, потому что у машины нет
цветовой дифференциации штановцели, ей всё это незачем. Ей ни жрать, ни любить не надо, ни от хищников спасаться. Ей даже пофигу, если её выключат. Более того, она даже не догадывается, что ей пофигу. Да и догадываться она тоже не умеет. :)saipr
Насколько я знаю тест Тьюринга давно опровергнут. Эксперимент проводился в больнице. В качестве врача выступала программа, которая через телетайп общалась в больными. Так вот практически все больные ответили, что такого внимательного, хорошего доктора они не встречали. И ларчик здесь открывается просто. Например. вопрос: — Больной, что вас беспокоит или болит. Ответ: доктор у меня болит голова. Доктор: а как давно болит голова? и т.д. Выделены ключевые слова, ответы разбавлены словами внимания и т.д. На выходе идеальный, с точки зрения больного, доктор. Хотя с точки медицины машина ничего и не предлагала. Так что же такое СИС — сильный искусственный интеллект? С чем сравнивать?
qw1
eternal_why
‹offtop›, но туда же: лично у меня участились звонки из банков с хорошо поставленными диалогами, мне задают вопросы, выдерживают паузы, продолжают рассказывать и рекламировать. Либо я тихо говорю (вряд ли) или мало говорю (ещё врядлее), но меня эти товарищи не слушают, и продолжают, как ни в чём ни бывало, даже если я на них ору. Я сделал вывод, что мне звонит робот и тупо проигрывает начитанную заранее запись с выдержанными паузами и т.п. Т.е., даже не робот, а вообще опустились. ‹/offtop›
AlexeyR Автор
qw1 ответил исчерпывающе
saipr
Речь идет не об единичном звонке. а о продолжительной беседе больного с врачом. И больные не смогли в ходе ОБЩЕНИЯ с "врачом" разоблачить его!!!!
qw1
Это интересно, но не подкрепляет справедливость вашего утверждения «Тьюринга давно опровергнут». Такая беседа — что угодно, но не тест Тьюринга.
saipr
Приведите ваш пример теста Тьюринга
qw1
Тест, проведённый по всем правилам. habr.com/en/company/ashmanov_net/blog/434712
saipr
Ну нет же там ни какого теста!!!!
qw1
Последнее видео отвечает на вопрос «кто виноват» (конечно же, определение, убившее смысл), но не отвечает на вопрос «что делать».
Я этот ролик воспринимаю пораженьческим, потому что любое программирование, и, в более широком смысле, любая инженерия, это работа с формальными системами. По тону ролика, ничего хорошего из этого не выйдет, истина только в философском словоблудии.
Где-то в середине статьи автор сам бросается в программирование трактовок и моделирование ситуаций в контекстах. Разве тут он сам не создаёт убийственное определение?
AlexeyR Автор
Ролик показывает часть проблемы. Конечно, определения важны. И сила в гармоничном сочетании смысла и определений. Но это отдельная тема.
teology
Понимание — это не свечение внутренней неонки, отражаемое в глазах, а просто адекватное поведение, вызубренное поведение. Другого не бывает. У человека нет никакой антикитайской комнаты. Все просто. Гипотеза о существовании антикитайской (некитайской) комнаты у человека в голове ложна.
Автору не хватает знаний в анализе данных, хотя бы про обобщающую способность (генерализацию) прочитал бы. Философня все это, смешанная с ложными умозрительными концепциями.
NumLock
Осталось только узнать кто это адекватное поведение вложил в человека.
Креационизм получается однако.
teology
Еще раз: у меня исключительно прагматика, никакого креационизма: понимание — это вызубренное поведение. Научили тебя (родители, школа, университет, самообучение), умеешь повторять — значит понимаешь.
Тонкость в том, что есть такая штука как обобщение (генерализация), когда по одним обучающим примером закрывается ряд похожих примеров. Нет необходимости обучать сложению чисел, прогоняя через сумматор все возможные комбинации чисел. Достаточно показать несколько, а лучше тысячу примеров. Но автор статьи несет ахинею по этому поводу, он некомпетентен.
С генерализацией работают искусственные нейросети и биологические нейросети, никакой принципиальной разницы тут нет.
Представление о том, что понимание — это некоторое свечение внутренней неонки, связано с ложным умозрением следующего характера: когда мы выполняем некоторое простое вызубренное действие, мы можем потенциально выполнить ряд более сложных действий (анализ, синтез и т.п.). Однако достаточным и необходимым условием наличия понимания является вызубренное действие, а более сложные действия — это понимание более сложных вещей. И тут надо определиться, а оценку понимания чего вы хотите сделать. Если GPT-3 неадекватно генерирует текст, то она просто не понимает данную тему, но это не означает, что она не разбирается в других темах. Нельзя понимание оценивать глобально, нужно смотреть конкретные выхлопы, как на экзамене. Но вы можете оценить точечно много раз и вывести среднюю оценку. Но сказать, что GPT-3 не понимает — нельзя, она отлично справляется во многих случаях, т.е. она что-то понимает.
michael_v89
Да никто не говорит, что понимание это некоторое свечение внутренней неонки. Вы спорите с тем, что сами придумали.
michael_v89
А разве кто-то говорит, что она истинна? Ни в статье, ни в комментариях никто не говорит про подобную гипотезу.
И как, простите, можно вызубрить обобщающую способность?
Раз вы не поняли, то объясняю — разговор идет именно про то, как устроен этот механизм. Как сделать такую обобщающую способность, которая есть у человека.
И снова, разговор о том, как из входной информации в виде пикселей и звуковых колебаний получить то, что можно вызубрить. Чтобы при повторном наблюдении тех же пикселей или звуковых колебаний возникло — что? — понимание того, что они означают.
Нет, понимание в данном случае возникает в конце процесса "научили". Факт понимания человеком для себя и факт получения этой информации другим человеком это не одно и то же. Первый можно описать словами "Я понял X", второй "Я понял, что он понял X".
Можно. Вы путаете знание и понимание. Экзамен в первую очередь проверяет как раз знание, потому и возникает ситуация, когда вопросы на экзамен можно зазубрить, не понимая, как пользоваться этой информацией на практике.
teology
Михаил, уважаю ваше мнение. Но вы можете бесконечно носиться с этим флагом "понимание" и еще с родственным ему флагом "смысл", а ведь эти вещи субъективные, то есть оцениваются снаружи, в частном случае, в результате самоанализа, но это не меняет ситуацию.
Вы можете насколько угодно баллов оценивать свое понимание тематики искусственного интеллекта и когнитивных процессов, но я вам такой оценки не дам, ибо понимания, по моему мнению, у вас нет, поведение неадекватно научным достижениям.
Ибо вы не сверяете свое понимание на адекватных тестах, а просто высказываете популярные умозрительные гипотезы.
michael_v89
Почему это не меняет? Оно делает неверным ваше определение "умеешь повторять — значит понимаешь". Повторение и понимание это вообще разные и в общем случае несвязанные процессы — можно не повторять, но понимать, или повторять, но не понимать. В том случае, когда они все-таки связаны, правильное повторение это следствие правильного понимания.
Давайте сверим, приводите тесты, которые вы считаете правильными.
teology
Можно в качестве тестов проводить мысленные эксперименты. Но только не китайскую комнату.))) Нужны эксперименты, которые выявляют когнитивные искажения.
Итак, понимание, как складывать числа столбиком. Пятиклассник правильно использует правило сложения столбиков и правильно решил 100 примеров. Он вызубрил правило. Понимает ли он, как складывать? Еще можно выделить понимание сложения в двоичной, восьмеричной системах исчисления. Но это другое понимание, другие правила. Когнитивное искажение заключается в том, что мы считаем, что понимание отличается от зубрежки тем, что понимание — это способность объяснить, откуда взялось правило.
Однако на самом деле зубрежка — это понимание, а понимание — это зубрежка. Просто есть правила частные, а есть более общие и все они выучиваются, а не понимаются. Если выучить более общее правило — сложение столбиком в n-ичной системе исчисления и тогда подстановкой n=10 получается понимание сложения в десятичной системе. Однако математик-алгебраист скажет, что вы все равно ничего не понимаете в сложении чисел, так как он знает более общие правила (коммутационные, ассоциативные, изоморфизмы, гомоморфизмы и т.п.). И когда остановиться? Ответ: а не надо начинать! Если вы оцениваете понимание сложения столбиком, то дайте соответствующие примеры, и не колупайте мозг другими смыслами и пониманиями. Понимание — это зубрежка конкретного правила, и если на проверку эта зубрежка оказывается адекватной, то понимание есть.
Возьмем тот же GPT-3, есть случаи, когда видно, что GPT чему-то научена, а когда-то тупит по-детски. Все просто! В первом случае она понимает, а во втором случае не понимает. Мое определение понимания отлично работает! И у человека такое бывает.
А с вашей неонкой что делать? Куда ее спрятать в компьютере и где ее найти у человека? Почему понимание понимается не по отдельным правилам, а в целом? Почему вы вдруг решили, что если компьютер плохо общается на тему секса, то он ничего не понимает в общении?
Короче, примеров мысленных экспериментов множество, однако вы гоняете свои гипотезы только через призму своего искаженного восприятия фактов.
michael_v89
В контексте сложения в столбик двух произвольно взятых чисел — да, понимает. И разговор о том, как сделать так, чтобы компьютер тоже понимал, как складывать числа, прочитав текст правил.
А, ясно. Мы говорим не про это понимание. Мы говорим про понимание текста правила, а не про понимание, откуда это правило взялось. Вот есть текст из 100 символов, человек его понимает, а компьютер нет. Человек может его прочитать и понять, как складывать числа в столбик, а компьютер нет.
Да откуда вы постоянно берете какую-то неонку?) Повторю еще раз — никто из здесь присутствующих, кроме вас, не говорит ни про какую неонку или ее аналогию.
Если вам кажется, что кто-то говорит, приводите конкретные цитаты, вам объяснят, что они означают.
Кто решил? Про GPT-3 сказали, что она вообще ничего не понимает ни в каких темах.
teology
Вот тут-то я вас ловлю на некомпетентности! Дело в том, что информация передается не только в текстовом виде и не только на русском языке, и нет никакого основания понимание оценивать в зависимости от канала распространения информации, в конце концов информация может быть зашифрована. Подача информации не является основанием для оценки, основанием для оценки является результативное поведение. И только на основании поведения вы можете оценить, понял ли компьютер 100 символов или нет. А он (компьютер) может понять. И никакую неонку после прочтения 100 символов вы не увидите ни в глазах человека, ни в «глазах» компьютера.
Неужели так сложно понять простые вещи??? Когнитив давит на мозги.
P.S. Когнитив не дает вам понять, что есть неонка в ваших утверждениях. А ведь это НЕЧТО (что вы сами не знаете), сокрыто у человека и чего нет в компьютере. Сколько раз еще повторять простейшие очевидные вещи??? Одно только ваше «нет!!!» означает, что существует неонка.
michael_v89
Я разве где-то говорил, что я оцениваю понимание в зависимости от канала распространения информации? "Вот есть текст из 100 символов" это пример для пояснения. Один из возможных.
Верно. И я не говорил, что является.
Неверно. Я могу прочитать текст и понять, как это делается, но для этого понимания мне совершенно необязательно кому-то показывать фактическое сложение в столбик конкретных чисел, пусть даже и самому себе.
Слушайте, может вам по-английски написать, раз вы по-русски не понимаете? Я не говорю ни про какую магическую неонку, и никто не говорит, если вам кажется, что говорит, значит вы что-то понимаете неправильно.
Несложно. Все, что вы написали в этом комментарии, я знаю, и ничего противоречащего этому не говорил. Это вы почему-то не можете понять простую вещь, что никто не говорит про магические неонки.
Я вам про это уже писал. Приводите конкретные цитаты, в которых вам кажется неонка, и логические цепочки, почему вы считаете какое-то мое утверждение неонкой, я вам объясню, что они означают, и покажу, где ошибка в ваших логических цепочках.
А то я так тоже могу — это вы говорите про неонку, только называете ее по-другому, а как я вам не скажу, а никаких неонок нету, неужели так сложно понять простые вещи??? Одно ваше "Неужели" означает, что существует неонка.
Если ваша фраза (в частности поэтическое слово "сокрыто") означает, что я говорил о том, что в компьютере в принципе нельзя реализовать ИИ с пониманием, потому что у комьпютера нет какой-то магической непознаваемой сущности, которая есть у человека, и быть не может — то нет, ничего подобного я не говорил. Да, в компьютере можно реализовать понимание и искусственный интеллект, нет, пока что понимание на уровне человека никто не реализовал.
С чего вы взяли, что я "не знаю"? Определяющий критерий я написал в первом же своем комментарии к этой статье, где дал формальное определение интеллекта.
teology
Я не понимаю, почему то вася, то не вася. У вас человек 100 символов прочитал и понял, как складывать, а компьютер нет. Спорный момент, ну ок. Для прочтения и понимания 100 символов нужно развитие соответствующих навыков, а именно: чтение, анализ, построение модели и т.п. Однако для обучения складыванию столбиком нет необходимости в прохождении столь длинного пути, так как можно просто показывать обучающие примеры. Более того, по длинному пути могут быть проблемы, может просто не получиться понимание. Если в школе пропустить сложение столбиком, то 100 символов практически гарантированно не приведут к желаемому результату, ибо для понимания чего-то сложного по небольшому тексту нужна некоторая релевантная образовательная база. Эта база включает в себя показывание простых примеров, а также показывание сложных примеров — примеров самостоятельного прочтения 100 символов с анализом и выработкой навыков (понимание 100 символов).
Вам самим решать: подготовить примерчики сложения столбиком или учить самостоятельному анализу.
Нету никаких преград в обучении компьютера пониманию, просто подготовить такой датасет будет непросто, и учить долго. Вот и вся неонка.
michael_v89
Ну пожалуйста — человек может посмотреть примеры и понять, как складывать числа в столбик, а компьютер нет. Вообще никакой разницы.
Понимание человека присутствует в обоих случаях.
Вот как раз именно про этот механизм понимания вам и говорят. Когда есть некоторая релевантная образовательная база, и человек понимает написанный текст. То что человек понял правила сложения в столбик это исходное условие этого примера. Мы не рассматриваем пример, когда он не понял, мы говорим про понимание, а не про непонимание.
А почему для человека не надо такой сложный датасет подготавливать? Сложение в столбик проходят в возрасте 6-7 лет. 6 лет сырого аудио занимают не так много. Нет, зрительная информация не нужна, попробуйте сами догадаться почему.
Человек может обучиться по сырому аудио без всяких сложных датасетов. Почему компьютер так не может? Может потому что нет нужных алгоритмов, которые обеспечивают понимание?
Опять у вас какая-то неонка. Извините, мне неинтересно обсуждать ваши фантазии. На всякий случай еще раз поясню — здесь все говорят про конкретные алгоритмы обработки, конкретные способы подготовки того, что вы называете "датасеты", конкретное их содержание, и нужны ли они вообще и в каком виде. Если у вас есть конкретные предложения, как достичь у компьютера понимания на уровне человека, предлагайте. А то что это непросто и долго, и без вас все знают. Я не знаю, почему вы решили, что не знают, и рассказываете об этом с умным видом.
teology
Михаил, когда вы говорите: «человек может понять, а компьютер нет», автоматически становитесь адептом неонки. Вы можете вывернуться как-то и понять это? Если вы начнете понимать меня, станет даже очень интересно общаться.
Вы начали про сырые аудиоданные говорить и я понимаю, что вы не до конца осознаете, что такое релевантная образовательная база, как происходит обучение человека и машины.
Релевантная образовательная база — это больше, чем вы думаете. Чтобы научить человека понимать 100 символов, нужно учить понимать 100 символов, тренировать сложение столбиком и так далее. За этим «и так далее» кроется айсберг, который включает в себя обучение распознаванию сырых аудиоданных и даже тренировку нейрона бабушки.
При обучении машины можно пройти тот же путь обучения, что и у человека, принципиально это возможно, но технически сложно. Вспомните, педагогика тоже долго готовила своего рода обучающие датасеты. В общем существует проблема повторения или точнее имитации сенсомоторного опыта человека.
Такой подход гораздо более близок к научному нежели гипотеза про неонку (к гипотезам о существовании неонки относится гипотеза о существовании неких прорывных ненейросетевых алгоритмов AGI).
michael_v89
Ну давайте еще раз повторю. Я не говорю про принципиальную невозможность реализовать понимание в комьпютере. Я не говорю про то, что у человека есть какая-то магическая сущность, которая позволяет ему понимать, и которую невозможно сделать в компьютере. Я говорю про конкретные существующие факты на данный момент. На данный момент развития техники человек может понимать тексты, а компьютер на таком же уровне, как человек, их понимать не может. Не принципиально не может, а конкретно вот прямо сейчас. На данный момент не существует компьютеров, которые общаются так же, как человек, и понимают речь или текст так же, как человек. Это просто факт, я не понимаю, почему вы с ним спорите.
Повторю еще раз — я не говорил про принципиальную невозможность. И никто здесь не говорил. Я вам это уже несколько раз написал, что ж вы никак понять это не можете.
Технически на данный момент это невозможно. Нет таких алгоритмов, которые за 6 или даже за 18 лет обучили бы компьютер понимать текст на уровне 6-летнего ребенка.
И на всякий случай поясню — я уверен, что это возможно, и через несколько лет такие алгоритмы будут найдены.
И это всё, представьте себе, укладывается в 6 лет непрерывных аудиоданных. А если учесть сон, то еще меньше получается.
Бинго. Вот мы здесь говорим как раз про механизм такого обучения.
Откуда вдруг взялись ненейросетевые алгоритмы? Давайте я и с этим словом напишу — никто не говорил про магические ненейросетевые алгоритмы. Все здесь говорили исключительно про алгоритмы, которые можно применить к искусственной нейронной сети. И говорили о том, что алгоритмы, которые бы обеспечили понимание компьютера на уровне человека, пока не найдены.
ni-co
Странное заявление про не существует компьютеров с пониманием на уровне шестилетнего ребенка. Про nlp, работающие на уровне студента вуза Вы не слышали? Или антропоцентризм зашкаливает? "Понимание" это лишь функция человеческого мозга?
michael_v89
Нет, не слышал. Их не существует. Если вы считаете, что существует, значит вы что-то не так поняли из описания этих nlp, или из обсуждения здесь в комментариях.
Нет. Критерии понимания я описал в других комментариях. На данный момент развития техники понимания на уровне человека в компьютерах нет. Тем не менее оно возможно, только пока никто не знает как это сделать.
ni-co
https://ru.m.wikipedia.org/wiki/IBM_Watson
michael_v89
Там не написано, что он общается или понимает текст на уровне студента вуза.
Особенно вот эта фраза интересна:
"Система имела доступ к 200 млн страниц структурированной и неструктурированной информации объёмом в 4 терабайта, включая полный текст Википедии."
Нормальный такой студент)
ni-co
Меня просто удивляет, что Вы не знаете или делаете вид, что не слышали про этот проект.
Такое ощущение, что если «сильный ИИ» случится Вы просто его не заметите.
ПЫСЫ: система понимает(!) вопросы на естественном языке вузовского уровня
michael_v89
Я знаю про этот проект, и утверждаю, что он не обладает пониманием на уровне студента вуза. Ни один студент вуза не знает полный текст Википедии, но тем не менее понимает текст из учебника.
ПЫСЫ: Понять текст и выдать правильный ответ из базы это не одно и то же.
Простой пример службы диалога Уотсона в Bluemix
Что-то не похоже на автоматическое понимание текста на естественном языке.
AlexeyR Автор
Гугл часто выдает релевантные ответы на запросы, но из этого не следует, что он их понимает. Ватсон тоже часто угадывает ответы. Он умеет парсить естественную речь. Используя грамматику языка он определяет роль слов в предложении и затем ищет что-то подходящее. Это далеко от СИИ.
Кстати IBM закрыла Ватсон-доктор из-за полной неадекватности последнего.
ni-co
Мне нет желания бесконечно продолжать дискуссию с вами на тему сильного, слабого ИИ. Сами понятия «интеллект», «понимание» весьма субъективны. Даже сами комментарии к этой статье тому пример, вместе с многострадальным тестом Тьюринга. Который, по моему мнению архаичен. Я ни разу не классифицировал IBM проект как сильный интеллект. Разговор начался с «понимания шестилетнего ребенка». Собственно, разочарован и самой статьей и куда скатилась дискуссия. Прямо человеческий шовинизм. :) И мне, кстати интересно почему смакуя свою мантру про комбинаторный взрыв, не помянули всуе про эвристические алгоритмы?
a1111exe
Шедеврально.
AlexeyR Автор
Тонкость в том, что когда доходит до практики механизм «заучить все» перестает работать. Кроме того непонятно, как определять одни и то же мы видим или разное. Ведь, чтобы обобщить надо понимать, что похоже друг на друга. Иногда одна маленькая деталь делает ситуацию обратной, при условии, что 99% признаков говорят о схожести.
AlexeyR Автор
О том и разговор в статье. Можно делать обобщение через задание прототипа, метрики и границ вокруг прототипа, а можно, создав контекст. И я показываю разницу этих подходов. И утверждаю, что второе подводит нас к понятию смысла.
buriy
Так контекст и есть прототип и границы вокруг прототипа. Только записанные не в виде текста, чтобы можно было 1000 границ сразу написать или даже миллион. Правда передать их кому-то так не получится. Ведь у определения есть ещё одна функция — быстрой передачи данных, именно поэтому мы стремимся к его компактности.
Halt
У контекстов нет ни прототипов ни границ. Есть точка зрения на всю память субъекта и ассоциированные с ней правила несемантических преобразований информации. Соответственно, контекст сам не «знает», где пределы его срабатывания. Потенциально — они простираются на всю имеющуюся память. Другое дело, что пользы от такого контекста тогда будет немного.
qw1
Вы просто сложную проблему переложили в другое место.
В традиционном подходе надо применить критерий к явлению, чтобы понять, подходит ли оно под определение или нет.
В вашем подходе надо «поместить явление в контекст», чтобы понять, уместно ли оно там, или нет. И тут, бинго, нужно снова сформулировать и применить критерий — подошло явление в контекст, или не подошло. Магическим образом эта булевская функция не появится, её надо писать.
И как вы с этим собираетесь бороться?
Halt
Здесь ни с чем не надо бороться. Критерий попадания в контекст банален — если информация после контекстного преобразования согласуется с тем что есть в памяти воспоминаний.
Вспомните пример с энигмой. Взяли информацию «fyddh rhoda», зарядили в пространство контекстов, у каждого из которых есть свое правило преобразования (своя таблица замен), но при этом у всех у них общая память. В одном из контекстов с преобразованием {f>h, y>e, d>l …} мы получим трактовку «hello world». Критерий осмысленности — получаются последовательности, согласующиеся с памятью.
Обратите внимание, здесь нет никаких формальных границ. Грубо говоря, в свое время, любой из контекстов может дать жизнеспособную трактовку. Каждое новое воспоминание приводит к тому что все N контекстов приобретают возможность опознать это воспоминание без каких-либо телодвижений.
qw1
Вы не видите тут проблему?
Функция «согласуется с тем что есть в памяти воспоминаний», её так просто не напишешь, это и есть ИИ.
Пример с энигмой это полное текстовое совпадение. Но на явлениях реального мира, что с чем вы будете сравнивать? Попробуйте найти контекст для явлений «равенство» или «сержант», и скажите, какой «hello world» должен быть в памяти для них.
Halt
Вы задаете правильные вопросы :) Разгадка кроется в способе кодирования информации и в организации пространства контекстов.
qw1
А смысл тогда писать статью? Научная статья тем и отличается от псевдонаучной, что содержит воспроизводимый результат. Чтобы любой желающий взял и повторил, хоть програмно, хоть в уме. Или хотя бы понял, как это сделать. Если статья не отвечает этому критерию, ей место у торсионщиков и плоскоземельщиков.
AlexeyR Автор
Когда есть нерешенные вопросы, а СИИ — один из них, то полезны бывают и обсуждения, и обмен идеями.
qw1
Тогда Halt'у не надо писать в тоне «разгадка кроется в...», как будто он тут воспитатель детского сада, а все вокруг дети, разгадывающие его загадку.
Он пишет, как будто проблема решена. А на самом деле, не решена.
Halt
Она решена, но еще не опубликована. Данная статья и не претендует на научность. Это популярное изложение концепций и сравнение подходов. Если вас интересует научное изложение — можете обратиться сюда http://truebraincomputing.com/en/articles-2/ или почитать страницу с концепцией там же. К сожалению, полноценная публикация отнимает много сил и времени, которое я сейчас предпочитаю тратить на доводку программ, без которых все равно никуда.
qw1
Популярному изложению не хватает примеров, как это всё спустить с небес на землю. Я не прошу сложных примеров явлений, как выше «равенство» или «сержант». Но любое, самое простое, можно описать и продемонстрировать, как оно будет узнаваться?
По ссылке на английские статьи — пейволл (хотя я не думаю, что там что-то принципиально отличное от русских текстов), а русские тексты это как мануал по рисованию совы
Halt
Понимаете в чем дело, любое короткое объяснение будет провоцировать вас на реплику «а чем это отличается от байесовского классификатора/сверточных сетей?». Они действительно похожи. Подробное же и последовательное изложение потянет на полноценную статью, но и оно не уберет эти вопросы. Поэтому я сейчас занимаюсь решением задачи зрения на знакомых примерах. Против кода уже, как говорится, не попрешь и даже «смотрите — оно работает!» будет достаточно.
Из доступного на данный момент могу посоветовать статьи:
https://habr.com/ru/post/309626/
https://habr.com/ru/post/310960/
https://habr.com/ru/post/321256/
qw1
Наверное, надо всё-таки дочитать. С публикацией серии я пробовал это всё осилить, но бросил где-то на 1/3.
AlexeyR Автор
Компактность — это хорошо. Диоген выбросил свою единственную миску, когда увидел, как мальчик пьет из рук.
a1111exe
Будьте последовательны. Если Вы правы, гипотез не бывает.
Нет. Понимание это одно из фундаментальных явлений человеческой психики, детальным разбором которого занялись относительно недавно в рамках презираемой Вами философии. Оно связано со знанием, истинностью, убеждением, символьными системами и кучей других явлений, с зазубриванием, наверное, тоже — но ничем из них не исчерпывается. Впрочем, согласно Вашему подходу нет никакого умозрения, так что о чём мы вообще...
Т.е., можно что-то вызубрить, предварительно не имея никакого понимания? Так, может, вообще нет никакого понимания? Да и зубрёжки тоже нет, оно само всё работает. Смотрите, как просто получается. :)
teology
Не надо возвеличивать философню. Это наука времен Канта и Маркса и тогда же умерла. Сейчас под этим знаменем ходят антиученые, лжеученые и прочий идеологический сброд. Фу!
То, что недавно философеры начали изучать понимание, никому не нужно, ибо это не неонка внутри, а всего лишь внешняя оценка по поведению.
Я и говорю, что внутри нет никакого понимания, нет неонки внутри, есть только результат зубрежки — сформированные нейроны. Понимание — это оценка со стороны. Нужно немножко усилия по преодолению когнитивного искажения, чтобы понять это. А еще некоторым нужно преодолеть когнитивное искажение относительно философни.
a1111exe
См. басню про дуб и желуди.
Сразу три лжи в одном коротком предложении, браво! Не наука, не времён, не умерла.
Лжеучёные тоже любят ходить под знаменем науки. Как и вообще — шарлатаны предпочитают ходить под знаменем чего-то легитимного. Современная философия, если вычесть псевдофилософскую ерунду, любимую неразборчивой публикой, очень тесно связана с математикой и науками (хотя не есть ни то, ни другое). Мнение о том, что философии не существует вне эпохи Канта и Маркса, свидетельствует только об ограничениях личного кругозора.
Оценка со стороны это оценка посторонним человеком изнутри, как Вы выражаетесь, его неонки. Вы продолжаете характеризовать субъективное психическое явление (понимание) через термины, относящие к другим субъективным психическим явлениям (теперь это оценка). Не получается быть последовательным. И не получится, т.к. Вы запутались в онтологической иерархии. Так бывает, когда пытаешься философствовать, презирая философию и пренебрегая логикой. :)
Определённо, путём продолжительного изучения специальной литературы по предмету. Успеха!
teology
Логика вам ничего не даст, ибо вы руководствуетесь умозрительными данными, полными когнитивных искажений :)
Философня, что сказать!
a1111exe
А Вы руководствуетесь данными, недоступными уму, да? Вы способны оценить, что с этим не так? А, постойте, у Вас же нет этой, как её, "неонки", нет внутреннего понимания (Ваши слова) — т.е., получается и требовать с Вас нечего. Наверное, хорошо живётся в мире иллюзий, где можно отождествлять неотождествляемое и отрицать факты. Продолжайте в том же духе.
odins1970
если по вашему нет «оценки внутри», то какую природу имеет волна ЭЭГ N50 и N100 в ВП ?? и почему дорсальная область гиппокампа определяется в нейрофизиологии как " компаратор нейронной модели стимула"?? источник Sokolov E.N., Vinogradova O.S. Neuronal Mechanisms of the Orienting Mechanism. — John Wiley & Sons Inc, 1976. 312 p//Sokolov E.N., Spinks Y.A., Naatanen R., Lyytinen H. The Orienting Response in Information Processing. — Mahwah, NJ: Lawrence Erlbaum Ass., 2002. 384 p
trueMoRoZ
То, что для одного бред, для другого может иметь смысл, ведь ключи дешифровки в голове у всех разные. Есть лишь общий шаблон ключа, который помогает нам всем удерживаться в одном контексте. Или вдруг для той же Энигмы есть два ключа, которые дают человекочитаемый текст?
AlexeyR Автор
Если у Энигмы ключ один, то со смыслами все все неоднозначно. Одно и то же может иметь несколько смыслов.
debagger
Меня всегда удивляет, когда сравнивают ИИ и человеческий разум. На минуточку, чтобы получился «естественный интеллект» понадобились сотни тысяч поколений работы генетического алгоритма с огромными популяциями, где каждый агент в популяции имеет сложность, которая и не снилась современной вычислительной технике. Чтобы сформировать сознание человеку нужно 20 лет непрерывного 24/7 обучения на бесконечно разнообразном датасете, который есть реальный мир.
Прямо сейчас обучается почти 8 млрд. агентов, нейронная сеть каждого из которых многократно сложнее, чем все, что может дать современный датасайнс. Это ответ эволюции на «комбинаторный взрыв».
Меня знатно бомбит, когда кто-то критикует современные достижения в области ИИ. Голосовые ассистенты ошибаются? GPT-3 несет бред? Автопилот теслы попал в аварию? Пару десятков лет ничего этого не было вообще.
Я просто в восторге от того, чего удалось достичь за последние годы в области ИИ! И с каждым годом этот восторг только растет. То, что можно просто задать вопрос смартфону голосом и получить ответ, это так естественно, но расскажи об этом мне, 15-летнему школьнику, который потратил 2 недели, пытаясь обучить Dragon Dictate распознавать мой голос (безуспешно), и я тогда бы не поверил.
Для меня это просто невероятно круто, что все это появилось при моей жизни, я и с восторгом и замиранием сердца смотрю в будущее не в силах представить, что же будет дальше!
anonymous
Присоединяюсь! Более того, уверен, что подход, реализованный open ai в GPT, приведет к созданию AGI через 3-4 итерации. Т.е. грубо говоря GPT-6,7 будет разумна в человеческом понимании
AlexeyR Автор
И я в восторге от успехов нейросетей. Но такому подходу есть предел. И настал момент переходить к новой парадигме, безусловно, используя весь накопленный опыт. Как бы не совершенствовался бензиновый двигатель в какой-то момент электромобили вытеснят его.
brom_portret
Стало интересно для себя сформулировать как я понимаю смысл и сознание.
Есть значит некая нейросеточка, типа она умеет парсить объекты в граф, где узел это объект, а связи различные типа ассоциации между объектами. Если граф получился непротиворечивым, то в сознание возникает ощущение смысла. То есть смысл это просто результат работы некой оценочной функции, которую мы воспринимаем сознанием. Язык для этого не обязателен, животные тоже вполне способны построить этот граф отношений, найти нужные перестановки в нём, применить их в реальности и добыть еду или открыть клетку. Вопрос ощущают ли они какое-то субъективное переживание смысла остается открытым, но он не принципиален. Да и сознание может быть не обязательно, но это типа эволюция, сначало выросло одно, а потом к этому пришлось прикручивать другое, старое-то legacy не выкинишь. Вот и получилось что сознанием мы воспринимаем непосредственно активность других нейросетей и это вероятно дает нам способность к ретроспективному осознаванию. Допустим я подумал щас о смерти и ощутил страх (типа активация отдельного нейрона вызвала активацию чего-то там еще что привело к активации эмоции страха. При этом я также могу кстати испытать глубокий смысл, это зависит от моего личного опыта и исходных нюансов конфигурации. Дальше я могу ретроспективно понять что когда я думаю о смерти, я ощущаю страх или смысл и скормить эту инфу своей GPT чтобы она подумала что это может значит…
michael_v89
Вряд ли это является критерием. Мы вполне можем определить противоречие в чьих-то словах, но это не значит, что мы не поняли их смысла.
brom_portret
Наверное правильнее будет так, что ощущение смысла возникает когда этот граф в принципе можно составит. Расмотрим на примере Garden-path sentence (недавно статья была отличная на хабре, кстати). The complex houses married and single soldiers and their families
Если тут полагать что «The complex houses» это один узел графа, «married» другой, а «soldiers and their families», то «and» ни с чем не связано, и от этого возникает ощущение отсутствия смысла.
А если парсить как «The complex», «houses», «married and singe soldiers and their families», то все узлы связаны с друг другом, что ощущается как наличие смысла. Заменим soldiers на donkeys и снова отсутствие смысла, но уже меньшее, посольку семантически корректно, но who are those fucking single donkeys and why they live in the complex… Но тут мы уже получается что смысл потерялся от того что single donkeys не сматчились ни с чем о чем мы знаем, то есть опять видимо получился слабо связанный графф. Получается что если смысл это результат оценочной функции, то она может смотреть на свяазанность графа в общем и на наличие orphaned nodes, или типа того.
buriy
1) Есть хороший термин — «объём понятия». Объём понятия — это совокупность всех объектов, которые считаются заданными данным понятием, описываются им. То есть, смысл понятия — это объём понятия, а определение — это попытка этот объём задать через какие-то ограничительные линии и прототипы. При этом есть понятия объективно (однозначно) понимаемые через определения (например, «дифференциируемость» или «линия»), а есть те, где объём понятий и границы настолько зыбки, что их никак не свести к определению (например, «любовь»).
2) контекст, конечно, важен, но в общем виде распознавание с учётом контекста в нейросетях сводится всего лишь к заданию функции от двух аргументов: f(X, context). При этом надо понимать, что человек тоже не работает с произвольными контекстами в произвольный момент времени, грубо говоря, что он не пытается понять, видя кошку, с какой именно стороны она кошка: он её не вращает, не обходит со всех сторой (без явной такой цеели). Или распознавание произошло — и тогда мозг не знает, какой был контекст, или же не произошло — и тогда мозг тоже не знает, какой был контекст. В этом смысле ваша теория не права, и тем более, нельзя её рассказывать в таком общем виде, как это делаете вы.
Вы можете придумать контекст (а можете не придумать) — и это уже отдельная мыслительная задачка для мозга по придумыванию этого контекста.
(По моделированию на нейросетях, опять же, знание контекста не является полезной информацией, если нужно, нейросеть начинает его продуцировать, если не нужен — не начинает)
И уж тем более доказывать пользой энигмы пользу от контекстов — совсем натягивание совы на глобус. Хотелось бы всё же реальной пользы контекстов. И кстати, с вами даже Джефф Хокинс несогласен: в своей последней книге он говорит, что в основном нейроны хранят информацию для обработки других зон коры, а не собственные различные контексты. То есть это намного ближе к иерархии из логистических сумматоров, нежели к энигме.
3) Про признаковое описание и «курс нейронных сетей» — опять же, всё немного не так.
Признаковое описание в описанном виде — это лишь один из способов сделать обработку с помощью нейронных сетей, которое в таком виде показывает лишь ущербность, но не нейросетей, а подобного способа обработки — поэтому им и не пользуются на практике.
4) Несмотря на всё это, «нейроны бабушки», несмотря на всё высмеивание непрофессионаламии, действительно существуют у человека, правда, всё же в виде совокупной активации нескольких нейронов, иначе бы нейралинк не работал на шимпанзе и свинье в ролике: neuralink.com/blog. Отдельные нейроны тоже активируются, но лишь в части случаев (не могут работать долго и срабатывать часто), а вот их сумма уже правильно работают (то есть мы поставили логистический нейрон на выходе, чтобы это надёжно работалоо).
Теперь, когда мы из смысла (3) поняли, что
кузнецконтекст нам не нужен, мы можем вернуться к изначальным «объёму понятия» и «определению», и оставить за понятием «смысл» изначальное его значение: смысл — это то, что обусловливает употребление или понимание той или иной фразы, а именно, совокупность семантики (общего значения понятия) и прагматики (контекстуально-зависимого значения понятия). Проще говоря, смысл — это значение слова в контексте. И в таком виде, сети типа BERT именно это и получают в своих эмбеддингах (в своих активациях нейронов внутренних слоёв), а значит, компьютер именно что понимает смысл высказывания.Особенно ярко это демонстрируют CLIP и DAL*E, демонстрируя не только визуальные нейроны бабушки, но и комбинированые текстово-визуальные.
AlexeyR Автор
В геометрии у линии нет определения — это базово аксиоматическое понятие. Прямая линия является неопределяемым понятием в системе аксиом Гильберта. Дифференцируемость очень быстро приводит к понятию числа у которого тоже нет опредления.
Я показываю, что контекст можно использовать не только для распознавания с учетом контекста (важно что увидели), а и для собственно для распознавания (важно откуда увидели).
В нейрофизиологии слово «нейрон бабушки» ругательное. То что по групповой активности можно делать определенные заключения говорит о том, что есть «код бабушки», который возникает на этих нейронах. При этом один и тот же нейрон может участвовать в совершенно разных кодах (это, кстати, и подтверждается экспериментально и часто привносит путаницу).
Вообще же никто не говорит, что смысл нельзя воспроизвести на компьютере, но важна используемая модель. В статье я объясняю, где лежит водораздел.
buriy
>В геометрии у линии нет определения
Тут нужно объяснить, почему мы не считаем возможными текстовые определения через другие более сложные или наоборот более простые сущности (точка, пространство, направление, луч). И почему для определения через объём понятия считаем такое же использование других сущностей возможным.
Логики в этом нет, поэтому так и хочется спросить, нет ли здесь снобизма :)
> Я показываю, что контекст можно использовать не только для распознавания с учетом контекста (важно что увидели), а и для собственно для распознавания (важно откуда увидели).
Да, но я как раз и не понимаю, кому и зачем важно это «откуда увидели». И зачем про это говорить.
А вторая гипотеза, которая ставится под сомнение — широкий перебор *контекстов*. Большой набор фильтров, которые ловят какие-то корреляции между сигналами и контекстами — это нормально. А вот большой набор фильтров, которые изучают один и тот же сигнал в большом числе контекстов — это опять же кому нужно? Вот возьмём словарь биграмм слов с частотностью > 1e-9 (..., «и вот», «зелёный кедр», «он бриллиант», «весёлый клоун», «был клад», ...). Такой словарь запомнить реально, и человек это делает, но вот хранить второе слово в виде перебора из миллиона вариантов… прошлых слов? следующих ожидаемых слов? когда реально эти контексты будут встречаться лишь сотни и тысячи раз за жизнь и контекстов на слово будет всего несколько десятков или сотен штук — очень странная идея.
Зачем нужны миллионы контекстов на каждое слово?
>В нейрофизиологии слово «нейрон бабушки» ругательное. То что по групповой активности можно делать определенные заключения говорит о том, что есть «код бабушки», который возникает на этих нейронах.
Потому что конечно не один нейрон, за исключением момента движения мышц — тогда конкретной мышцей управляет один нервный узел, куда идёт сигнал от конкретных моторных нейронов. А вот когда говорим про ИНС — там понятно это модельные нейроны, которые могут соответствовать десяткам, сотням и тысячам реальных.
Ну и тогда всё же не код бабушки, а некая активность нейронов бабушки — см. видео по ссылке, что я дал выше: neuralink.com/blog
Был бы код, был бы и один нейрон (или последовательность нейронов), что активировалась бы каждый раз. (Кстати, тут возникает вопрос: а сколько нейронов управляет одной мышцей и как именно они друг с другом объединяются для управления?)
VDG
Halt
Здесь на Хабре у Алексея есть циклы «логика мышления» и «логика сознания» от 2013-2016 годов. Там подробно описаны коды и их свойства.
VDG
То, что написано у Алексея, я знаю наизусть. Это не те коды.
Halt
В нашем случае коды описаний образуются как хеш от кодов понятий на базе широких детекторов. И у тех и у других критически важным свойством является близость. Это позволяет работать с памятью, обучасть пространство контекстов и производить свертку активации контекстов для выделения главного.
Убираем любой из элементов и все, головоломка уже не будет складываться.
VDG
Жаль, конечно, что ваш проект закрытый, и о технической реализации можно судить только по таким случайным комментариям. Ваш комментарий единственное, что хоть как-то проливает свет на то, чем вы реально занимаетесь и чем пользуетесь, в отличие от общих рассказов Алексея. Но это конечно ваше право держать всё в секрете.
Замечу, если почитать мой проект, то там можно обнаружить аналогичный набор инструментов: и коды и хеши от кодов и мою собственную метрику близости и «свертку для выделения главного» и много чего ещё, не ограничивающегося распознаванием образов.
Halt
Он не то что бы закрытый. Просто говорить о деталях реализации, пока нет внятного представления, это моветон. По мере доводки частей будем публиковать статьи с пояснениями. Я практически довел зрительную историю до состояния, когда это можно показывать сообществу.
a1111exe
В понятии объём определяется содержанием (по сути, характеристическим предикатом) и объективной реальностью (если объекты понятия в ней существуют). Например, количество существующих белых ворон это объём понятия "белая ворона". Если объекты понятия в нашей объективной реальности не существуют, то в ней объём этого понятия ноль. В области вне нашей реальности, при этом, объём может быть и бесконечностью, как с числами.
Лично мне непонятно, как объём понятия — количественная характеристика, производная от содержания — может быть смыслом. Ещё мне непонятно, как автор статьи, посвящённой смыслу, ни слова не сказал о Фреге, который наделил термин "смысл" довольно конкретным содержанием.
В философии Фреге у любого имени есть значение и смысл. Значение имени — это референт (или денотат, в зависимости от философского контекста) имени, т.е., объект, на который указывает имя. Смысл имени — это способ, которым имя восстанавливает референцию к объекту. Классический пример — имена "утренняя звезда", "вечерняя звезда" и "Венера". Они отсылают к одному реальному объекту — планете Венера, но делают это разными способами, используя разный смысл. Применительно к понятию смысл в этом случае совпадает с формой его содержания. Если содержание понятия "Венера" это, скажем, характеристика орбиты планеты, то её формулировка будет представлять и определённый смысл, указывающий на объект "Венера". Т.е., содержание понятия это тот смысл, который наиболее точно позволяет выделить объекты понятия из произвольного набора объектов.
Хотя, имхо, автор напрасно концентрируется на понятии. В поисках сильного ИИ, скорее, следует сосредоточиться на понимании. Это всё ещё непаханная целина, но уже есть кое-какие наработки. Мне пока импонирует подход Goodman и Elgin, концентрирующийся вокруг концепции рефлексивного равновесия, хотя я сам (пока) считаю, что фундаментом для формализации понимания следует делать интуитивную ясность.
AlexeyR Автор
В этой фразе сразу два подвоха.
Во-первых, она предполагает, что объект существует объективно и изначально выделен в окружающем мире. Но это не так. Объект, получивший имя, это уже следствие наблюдения мозга за миром.
Во-вторых, фраза не делает различий в способах, устанавливающих соответствие. Получается, что определение, данное по внешним признакам, то же способ. А «хорошее определение» и есть смысл.
Именно против такого толкования и написана статья.
a1111exe
Почти в любой фразе естественного языка можно закопаться в подвохах. Например:
Два подвоха: "существует" и "объективно". Оба понятия очень далеки от тривиальности и от консенсуса. Например, в моей картине мира объективное это подмножество субъективного — постольку, поскольку объективное должно быть наблюдаемым. Всё ненаблюдаемое не может быть объективным, т.к. его невозможно объективно наблюдать. С существованием, вообще, куча проблем. В литературе нередко вводятся дополнительные термины для различения качественно разных видов существования — например, "subsist" в противовес "exist".
Зависит от того, как понимать работу референции. В моём понимании референция это психическая функция, и её объект это объект психики.
Не вижу, как это логически следует из той фразы. Сначала на изменяющемся множестве восприятия стабилизируются психические объекты, возникая вместе с референциями к ним от паттернов восприятия. Потом в процессе осваивания языка субъект учит другие паттерны восприятия (токены), которые устанавливают референции к абстрактным словам, референции которых к объектам запоминаются по инструкции (родителей, учителей и т.д.). В процессе накопления жизненного опыта субъект накапливает также и разные способы референциального перехода к одним и тем же объектам. Разные смыслы, если по Фреге. Разные интенционалы, в альтернативной терминологии.
Кстати, во фразе "наблюдение мозга за миром" тоже есть подвохи. :)
Не понимаю суть претензии. Смысл это семантическая нагрузка на психику субъекта, которая координирует его внимание к некоторому объекту. Например, смысл может быть простым именем, фразой (причём, необязательно определённой дескрипцией), паттерном текущего восприятия, прямо ассоциируемым с объектом; контекстом при использовании индексальных слов и т.д. Если сказать, что смысл это контекст использования выражений языка, помогающий вниманию субъекта находить объект, так будет лучше?
phenik
Автору удачи в творчестве!
Halt
Миниколонки — контекстные процессоры, паттерны активации контекстов в зонах — механизмы выделения смысла.
Структура мозга эволюционно адаптирована к тому, чтобы работать со смыслом информации. Колоночная организация неокортекса, топология проекций, параметры зон, виды идентификаторов гиппокампа — все настроено так, чтобы задача решалась успешно.
Но это все не значит, что язык зашит в мозге. Зашит не сам язык, а способность найти смысл в информации, в том числе в речи.
phenik
ADD.
Про генетическую поддержку этого функционала, см. этот комент со ссылками на источники.
Изучение языка в таком представлении, см. эту публикацию.
tsukanov-as
Спасибо за ссылки!
AlexeyR Автор
Согласен. Добавлю, что можно сказать, что мозг своей архитектурой подготовлен и к появлению у него внутренних языков, и к восприятию внешней речи.
AlexeyR Автор
Спор о том, что врожденно, что приобретается — спор старый. И не для комментария. Структура коры — это и есть механизм, реализующий контексты.
phenik
Почему не для комментариев? Это, что табу такое? Если говорить о когнитивном ядре, то его гомологи присутствуют у млекопитающих и птиц. И в некоторой форме вплоть до насекомых. Поэтому это затрагивает и др. отделы мозга. Это особенно хорошо прослежено в исследованиях оценки численности. Приводил ссылки. Что касается миниколонок, то если заглянуть на вики, нашу и англ., то, что характерно, отсутствует обычный для таких случаев раздел функционального назначения. Не исключено, что это цитоархитектурное решение, этакие «суперклетки» имеющие функциональное назначение на более высоком уровне. Возможно такое моделирование будет полезным, как полезно обратное — рассматривать клетки, как сети, см. 1, 2, 3.
Упоминали в статье байесовский вывод, это в правильном направлении, в мейнстриме. Но если рассматривать его применение к развитию детей, то потребуются приоры, роль которых может играть функционал когнитивного ядра. Этот подход успешно разрабатывает команда из MIT возглавляемая известным специалистом по когнитивной психологии Д. Таненбаумом. Они используют его для разработки различных вычислительных моделей (1, 2, 3, 4), см. обзор подхода. Его работы можно найти в библиотеки MIT по автору.
Halt
И стриатум у врановых и гомологи у насекомых возникают, по нашему мнению, как ответ на потребность работы с полисемантической информацией. В первую очередь — задачи зрения и ориентирования в пространстве.
Мы утверждаем, что ввиду самой природы информации, конвергентная эволюция приводит к схожим решениям одной и той же информационной проблемы.
michael_v89
А когнитивисты не думали, что негативное отношение может быть из-за некорректной логики в исследованиях?) Почему-то самый вероятный вариант не рассмотрели. Тоже, кстати, часто встречающийся феномен.
phenik
michael_v89
Я вам в другом обсуждении указывал на некорректные выводы в этих исследованиях. Лично у меня например негативное отношение именно из-за этого.
odins1970
это ваше личное оценочное мнение. При том что вы дилетант в вопросах например нейронаук.Если вы не согласны, то достаточно опубликовать собственное исследование в академическом издании доказав рецензентам свои утверждения.
michael_v89
Это "достаточно" это вообще-то сложная работа, не вижу никаких причин, зачем мне ее делать для того чтобы опровергнуть чей-то коммент на Хабре, вместо того чтобы самому написать коммент на Хабре. Другим можно на Хабре писать на эту тему, а мне нельзя что ли?
odins1970
Извините, но вы опровергали не только «чей-то коммент на Хабре » но и «указывал на некорректные выводы в этих исследованиях », т.е. имеете достаточно компетенций, что бы опровергать исследователей имеющих специальную подготовку, опыт в своей области и которые прошли рецензирование в ходе публикаций тех исследований. Отсюда и возник вопрос к вам- что бы ваши утверждения не были голословны надо показать это исследованием эквивалентным тем, что вы опровергаете. Так это принято в научном сообществе. P.S. конечно с Энштейном или Ландау легко не соглашаться, но уверен что в Вузе вы сдавая экзамены такое вряд ли себе позволяли.
michael_v89
Апелляция к авторитету не является доказательством. Если есть ошибки в логике, значит любой может на них указать, они там есть независимо от того, кто на них указывает.
Нет не надо. Достаточно привести логические выводы. И да, так принято в научном сообществе. Эти выводы могут быть ошибочны, и опять же любой человек может на это указать, приведя свои выводы.
Если кто-то выпустит научную статью с доказательством, что pi = 3.2, это совершенно не значит, что эти выводы корректны до тех пор, пока кто-то не выпустит другую статью. Они некорректны всегда, и любой, кто на это укажет, будет прав.
odins1970
Ну ты рассмешил. Зачем что то публиковать когда есть «Фоменко-2.0»!!! а про логику и вывод в ней вот mover.uz/watch/2OFNmAGj
AlexeyR Автор
Именно на эту тему я написал целую книгу, где последовательно и доказательно все излагаю. Не хотелось бы запихивать ее текст в комментарии.
phenik
Функционал когнитивного ядра начал складываться с возникновением жизни. Например, оценка численности, в виде магнитуды непрерывной величины, судя по современным микроорганизмам могла иметься уже у самых древних, как оценка концентрации растворенных в воде хим. веществ, для управления хемотаксисом и поддержания чувства кворума. По этой причине нет специфических генов отвечающих за эти функции, они растворены в массе генов.
odins1970
Интересно, а Редозубов не повторяет своей гипотезой концепцию J.Fodora с его эндогенной структурой «ментализом» ???
AlexeyR Автор
Скорее наоборот, я многое повторяю вслед за Хомским, которого Фодор опровергал.
odins1970
Известен ответ Анохина П.К. на вопрос чего не может кибернетическая система — «Она не может захотеть». Т.е «смысл» имеет место лишь там где аппараты исчисления сигналов обслуживают какую либо функцию равновесия, например гомеостазис организма, гетеростазис для вида. А значит роль структур ствола мозга является фундаментальной в механизме «смыслообразования» поведения. и поэтому утверждать что только структура неокортекса создает смыслообразование в корне не верно. Ну и поэтому именно уже метаболические потребности и становятся основой для группировки регистрируемых анализаторами раздражитиелей -«явлений», которые опять же должны дробиться на атомарные признаки. Т.е от признакового описания не уйти.
AlexeyR Автор
Анохин играл словами. Все обучение с подкреплением построено на задании критериев оценки того, что хорошо, что плохо. Исходя из них агент строит свое поведение максимизируя вознаграждение. То есть он «хочет» получить больше «хорошо». У человека это подкрепление задается врожденными механизмами (боль, холод, голод и т.п.). Это не противоречит всему остальному, связанному со смыслом.
ZuOverture
Здесь слово «хотеть» видимо означает «проявлять инициативу», и этого нейросеть действительно не умеет, её активизация производится внешними воздействиями. Вы, конечно, можете её в цикле запустить, но каким образом может случиться, например, спонтанное дообучение модели?
odins1970
вот именно эти врожденными механизмы и позволяют клетке сохранять свою целостность, они же дают возможность ей иметь тропизм. Вы упустили в комменте то что "… на задании критериев оценки того, что хорошо, что плохо. " механизм этого задания имплицитен и имеет эндогенную природу даже у клетки. Как агент будет заимствовать этот механизм «ЗАДАНИЯ критерия из вне» ??? Какой именно для него фундаментально полезен а какой нет?? ведь об этом в принципе он не имеет никакой априорной информации, и не может иметь. Вот проблема.
Halt
Редозубов в своей книге «логика эмоций» убедительно показывает, что все сложные эмоции возникают на базе простых физиологических потребностей, которые ложатся в основу механизма обучения с подкреплением. По мере накопления опыта, подкрепление возникает уже на базе более абстрактных концепций. Но это не значит, что все эмоции программируются непосредственно. Эволюция порождает такую структуру мозга, в которой созданы все условия для возникновения этих сложных оценок. Но сами они — продукт опыта каждого конкретного субъекта.
odins1970
извините но эмоции и мотивация — имеют разную природу да и функцию. имеют ли эмоции насекомые? вряд ли. А потребности и мотивацию — определенно да. Т.е. по крайней мере в физиологии подкрепление определяется как сигнал удовлетворения метаболического отклонения. Но подкрепление не является ни сутью потребности ни его причиной.
Halt
Здесь вы вступаете на очень зыбкую почву. В этом деле вообще нужно очень осторожно относиться к «очевидным» вещам. С насекомыми тоже все сложно, они во многом hard wired, поэтому не совсем понятно, уместно ли применять к ним те же модели.
Но по нашим представлениям, в случае человека эмоции развиваются как абстракции над базовыми физиологическими примитивами.
odins1970
У меня ??!!! Да я тут вообще ни причем. Вообще то это азбука в биологии. И азбука построена на ЭКСПЕРИМЕНТАЛЬНОЙ проверке, а не умозрительных суждениях, какими бы умными они не выглядели.Вы конечно в праве отрицать что биология оперирует научным знанием. Но для начала ознакомтесь, например просто с учебниками для биологических специальностей
Батуев А. С. Высшая нервная деятельность. М.: Высшая школа, 1991. 396 с.
Воронин Л. Г., Физиология высшей нервной деятельности. М.: Высшая школа, 1979. 312с.
по новее?? вот www.ozon.ru/context/detail/id/24955090 Учебник создан в соответствии с Федеральным государственным образовательным стандартом по направлению подготовки «Биология».
Ну а по делу- какая морфологическая структура в ганглиях НС насекомого реализует то что вы понимаете как эмоция, хотя бы в принципе?? мы можем достоверно регистрировать там спайки или интенсификацию оксигенации? Но Мы точно знаем что если поместить насекомое в условие строгой пищевой депривации то зафиксируем электрический и нейрогуморальный следы мотивации в ядрах ганглий.
Для человека, по вашему — эмоции = чувства ??
AlexeyR Автор
Есть целая наука «эволюционная психология», которая построена на ошибочном утверждении о наследственном характере эмоциональных оценок. Ее существование не делает ошибку вернее.
odins1970
Алексей и в вашем ответе есть часть истины. я сознательно усиливал критику комментариев выше только для того, что бы подчеркнуть, что нейронная система мозга человека есть продукт и филогенеза /наследуемых механизмов переработки информации/ и онтогенеза / прижизненно формируемых /. И с одной стороны рассматривать одно в отрыве от другого не верно. А с другой — вывести свойства например психического из свойств генетического не получается и не получится, т.к у них разная природа происхождения. Например человек не может спонтанно использовать вилку для еды, иначе как под требованием социальной среды, и для мозга это уже задача выстроить такую организацию нейронной сети которая исходно не кодирована в генах. И вилка получает «смысл» только в Схеме «органическая потребность- мотив „орудия“- действие с ним- операция ». А для мозга каждый из элементов этой Схемы должен быть подобран и закреплен на конкретных анатомических структурах и связан алгоритмически. Схема сложится дифференциально вариативной даже у монозиготных близнецов, так как зависит и от моторной активности самого носителя мозга, требования и разметки среды и экспрессии генома для развертывания физиологических функций и их анат. структур. И в результате полностью сформированная подобная схема, будучи абстрагированной от своего материального носителя /знак/, свернутой и автоматизированной и будет тем что мы называем «психическое». Мы видим что это работает в дефектологии и нейрореабилитации. Значит доля правды тут есть
sklavit
Нету в определении СИИ требования «человекоподобности». Есть требование быть не хуже во всем. А насколько результут будет «человекоподобен» — не важно.
teology
Автор статьи пишет статьи, книги, но это все чешуя. Я не люблю людей, которые берутся за объяснение всего и всея, не понимая ничего в этом (философы).
Нужно быть ученым, а философия не есть наука. Философия на свалке истории. И неискушенные умом люди считают, что философия — это нечто очень важное, сложное, святое. На самом деле тут все очень плохо: из-за недоступности знаний в физике, математике, химии, нейрофизиологии философы постоянно несут бред, так как не имеют соответствующего специального образования. Можно получить специальное образование, но тогда непонятно, зачем философствовать ибо никакого смысла в этом нет. 400 лет назад философы могли быть на острие науки, а сегодня нет такой возможности. Философия умерла именно поэтому. Есть примеры, когда ученые-специалисты ударяются в философию, но это та еще бредятина, ибо этот отход от острия науки и никакой пользы это не приносит.
defuz
Опять безумцы на хабре? Бесконечное перетекание из пустого в порожнее, пустая онтология, намешанная с общеизвестными фактами и заигрыванием с трендами (ИИ).
Зачем так много громких слов, от древних цивилизаций до искуственного интеллекта? Каковы ваши результаты, кроме удовлетворения собственного эго? Куда несут деньги новообращенные?
ni-co
Хайпануть. Стопятисотые философские тёрки про "сильный" искусственный интеллект и "понимание смысла", конечно будут важнее реально действующих проектов, которые автор пытается не замечать
qw1
Реальные проекты это скучно и уныло. А тут что-то зудит в одном месте очень сильно, не даёт спать спокойно, требует в этом разобраться и получить объяснения.
ni-co
То, что "без эмоций невозможен "сильный" интелект "? С чего вдруг? Может классиков перечитать? Минского, Поспелова? Спуститься на землю
qw1
Это мнение, которое автор имеет право защищать аргументами.
Если у вас другое мнение, защищайте его своими аргументами, если вам это интересно.
Также можно подискутировать, должно ли быть самосознание у интеллекта. Я тут на хабре встречал мнение, что несомненно, а фантазии Питера Уоттса всего лишь фантазии.
ni-co
Очень интересная тема про самосознание у интеллекта. Но эта отдельная тема. Согласен с Вами, что право автора защищаться аргументами. Но в данном случае он не приводит аргументы, а постулирует свои убеждения.
qw1
Посыл «перечитать классиков» тоже довольно сомнительный. У них там что, создан СИИ без эмоций, или они построили математическое доказательство его возможности?
ni-co
Для того, чтобы хотя бы определиться с самим понятием ИИ. Не придумывать отсебятину. Сколько нас миллиардов жителей? Сколько человек волнует эта тема? Для чего нам нужен этот Искусственный интеллект? И нужен ли? Может старый способ — размножение более разумен? :) Тут тебе и эмоции и все остальное, чего не хватает автору.
Зачем наделять часы самосознанием, они ведь должны просто показывать время?
qw1
Как минимум, есть две причины создавать ИИ.
Первая — это автоматизация работы человека. Физический труд переложили на механизмы, а интеллектуальный нет.
Вторая — изучение самого человека. Что есть интеллект? Что есть сознание? Ответы на эти вопросы нужны всяким трансгуманистическим движениям, чтобы ответить на вопросы, какова максимально возможная киборгизация, можно сохранить или перенести сознание, личность и т.п.
mindcaster
Читал статью, а в конце статьи «смотрите видео»… Не надо пожалуйста так больше делать. Ну или сразу пишите что вся статья — предисловие к видео. Столько времени потрачено и такой облом в конце.
AlexeyR Автор
Статья содержит законченную мысль. Видео идут бонусом. Если тема заинтересовала, то они ее развивают. Но они уже о несколько другом.
Lepidozavr
Когда-то моё изучение нейронных сетей (как широкого понятия) началось с статьи о логике мышления одного чувака на хабре, который там очень всё разбирал по косточкам. Читая нынешнюю статью, вспомнил ту, и не зря =)
Много размышляю в таком же ключе, очень вкусно, спасибо.
Насчёт юмора заметил такое: чем дальше ассоциация, к которой приводит шутка, тем смешнее. Вот это «дальше», оперируя понятиями из статьи — степень изменения контекста и необходимость задействовать другую память. При этом должна присутствовать когнитивная лёгкость. Ведь если нужно много думать, то это уже не шуточки))
Может вас натолкнёт на какие-то мысли.
Мне очень нравится книга Майкла Газзанига «Кто за главного?» — научпоп от нейробиолога о том, как устроен у нас мозг (в какой-то степени и в плане смыслов) и как это всё связано с законодательством, культурой, политикой.
Интересный взгляд на мир имеет Джордан Питерсон. Особенно это раскрывается в его трёхчасовых дебатах со Славоем Жижеком. Я смотрел его за один присест и чуть не умер от потока информации и собственных ассоциаций)
Пришел в голову такой вопрос: в чём смысл смыслов?)
DoNotPanic
Не нужен смысл общему ИИ.
Вы вроде вполне знакомы с кантовскими феноменами и ноуменами и пишите о подобном, и про теорему Гёделя вроде бы знаете. Но так ведь очевидно в таком случае, что смысл ноумена, в значении полного его описания и контекста, сложнее самого ноумена. В нашей голове нет ни ноумена (то есть вещи самой по себе), ни, тем более смысла.
И признаков никаких нет. Признаки — это чёткие категории, это философы могут на разумном уже уровне разбить всё на признаки. А на бессознательном уровне имеется просто множество плотно связанной между собой информации. Которую можно трактовать, как признаки, но в действительности она в общем случае менее системна.
Например, у младенца есть игрушка, плюшевый медвежонок. Его можно осмотреть с разных сторон, пощупать, пожевать немного беззубым ртом — в голове сформируются определённые ассоциации, в том числе визуальные, тактильные и вкусовые образы, которые будут связаны между собой, с упомянутым сто раз контекстом (медвежонка дал папа поиграть) и, кроме того, ещё с кучей вещей, которые вы даже не осознаете, равно как не осознает и ребёнок, потому что это всё слишком низкоуровневое.
Наличие явления синестезии показывает, что мозг обращается с информацией, которую неправильно представлять именно в виде признаков. Просто потому что эти признаки запросто могут между собой смешаться, и проблем с разумной деятельностью от этого не возникнет, скорее даже наоборот. А ещё бывает чувство дежа вю. Когда у вас совершенно внезапно и необъяснимо возникает ассоциация на то, на что по идее она возникать не должна.
В общем, мозг — это система, запомнившая кучу информации и как-то неочевидно, но весьма плотно, связавшая эту информацию между собой. Как выше правильно сказали, при наличии ресурсов ИИ вполне можно обучить похожим образом, чтобы он также связал кучу информации. Я сторонник того, что если итоговый результат будет неотличим от сознания, то вероятно, сознанием он и будет. Другой вопрос, что ресурсов надо вроде как много (тоже отмечали), но не проще ли будет, если дать носителю ИИ органы чувств? В конце концов, именно свободная возможность исследования является одним из важнейших факторов обучения человека. Очевидно, что ИИ, запертый в маленькой коробке, обычно без камеры и микрофона, и обучающийся строго по выбранному алгоритму, не покажет чудес изобретательности. Наличие нескольких каналов информации и возможности мгновенно связывать информацию от них я полагаю важной и сильно всё упрощающей, в конце концов и человеки не все поголовно суперкомпьютеры.
А ещё неплохо бы иметь рандомизатор целей и задач, а не только рандомизатор алгоритмов (и даже не алгоритмов, а весов в алгоритмах) решения задач.
Ещё одна важная вещь, которая отличает чат-ботов от людей — процесс сознания у людей не прекращается с потерей собеседника. Внутренний диалог, прокрутка в голове образов (воспоминаний) — это важные высокоуровневые процессы, сопровождающие сознание, которые в том числе нужны для рефлексии (самоосознания). То есть в итоге цель не только и не столько в том, чтобы ИИ прошёл тест Тьюринга у людей — он сам себя должен проверить на тест Тьюринга и пройти его.
Хотя это, наверное, наименьшая проблема при создании нейросеток, всё же самообучение для них норма. Вопрос в том, как сделать это правильно, чтобы была «гибкость» мышления.
По тексту выше также видно, что я не сторонник ограничивать тренирующиеся нейросетки. Вещи в стиле законов робототехники Азимова (даже будь они технически реализуемыми), конечно, обезопасили бы человеков, но и общий ИИ так не создать (или задача невероятно усложнится). Зато, если общий ИИ, методом масштабной тренировки и дачи максимальной свободы воли, всё же создать, то нет никаких оснований полагать, что он будет отличаться от людей своим способом мышления, а не только лишь уровнем интеллекта. Илон Маск и многие другие, рассматривая этот гипотетический сценарий, сильно, конечно, паранойят, но причины не ясны. Человек разумный отлично уживается с теми, кто глупее его (причём именно человек разумный, и чем разумнее, тем лучше уживается), а общий ИИ, как ни крути, но именно люди могут тренировать. И дело тут не в жёстких свичах и ограничениях, систему ценностей можно вложить какую угодно — и вряд ли она сама собой деградирует в худшую сторону, ведь сильный ИИ на то и сильный, что подразумевается не глупее человеков.
Правда, есть риски, связанные со злонамеренными людьми. Так, создавать военный сильный ИИ очевидно критически опасно, так как такой ИИ просто в силу своей архитектуры не сможет быть к людям не агрессивным (а распределение на группы свои-чужие и военные-гражданские для высокоинтеллектуальной системы вряд ли будут работать хорошо, как ура-патриотические лозунги плохо работают на людей с образованием, потому как при полном знании эмпатия она либо отсутствует, либо распространяется максимально широко, выборочной она быть не может). Ну и можно представить себе какие-нибудь специально спроектированные вирусы, меняющие веса у коэффициентов. Но тут и в реальной жизни, подобные как бы «вирусы» в рамках социумов, кажется, бывали (речь о фашистских идеологиях, активно играющих на эмоциях для продавливания деструктивных идей), вопрос в том, не станет ли их проектирование и использование проще и опаснее, если предположить, что это можно будет делать софтварно.
Извините, но вот эта параноидальная часть в конце, она вообще всё портит. Давайте откровенно, иногда (то есть в 99,999% случаев) то, что написано — это именно то, что написано, не нужно приплетать тут рассуждения о занавесках. И ладно бы, ваши рассуждения о занавесках действительно были бы глубже того, что прямым текстом написано у авторов, но ведь это, мягко говоря, не так…
Вы похожи на советских учителей философии, которые в античном мире нашли себе кучу единомышленников (о, а вот этот материалист, о, а Демокрит ещё и атомы придумал), забывая о том, что если древний грек и мыслил сколь-нибудь схожим с советскими материалистами образом, то лишь по случайному совпадению. Ну а скорее всего, вы просто неправильно поняли контекст, вот и лезете со своим современным пониманием в античную философию, которая вообще не о том.
P.S. Вечерние разговоры за философию, эх…
P.P.S. Ничего себе я написал текста! Беда со мной.
AlexeyR Автор
«Связать между собой» можно, соединив некими связями. А можно обойтись вообще без связей. Контексты такой путь и показывают. Они позволяют не формировать «сцепление» и т.п., а получать нечто знакомое за счет правил трактовки и в этот момент говорить о появлении «ассоциации». Это совсем другая архитектура и я объясняю, что только она может побороть проклятие размерности.
Насчет философии.
Уверен, что вы не смотрели видео и не ходили по ссылкам. Поэтому не стоит писать исходя из общего предубеждения. Я не писал бы такого подставляющего меня материала, если бы не имел на руках 100% доказательств.
DoNotPanic
Ну так физически ведь в мозге нейроны связаны синапсами. Это не то же самое, что связи между информацией, конечно, но некую схожесть тут можно проследить. А вот контекст, о котором вы говорите, что он имеет некую структуру в виде более далёких/коротких связей между нейронами в мозгу (вертикальных областей? За эту информацию, кстати, спасибо, почему-то прошло мимо меня), в этом случае похож скорее на частный случай такой связи. Наверное, он упрощает структуру, да. Но возводить в абсолют тоже странно.
Просто потому что много примеров было, когда одни отделы мозга брали на себя функции других и мозговой деятельности глобально это не мешало (см. нейропластичность). Наводит на мысль, что сложившаяся структура мозга — результат оптимизации, а не жизненная необходимость. Всё равно что дефрагментация жёсткого диска — если записать на него блоки информации именно так, а не иначе, то работать будет быстрее, но если записать как попало, то тоже работать будет.
Во-первых, 100% доказательство возможно только если спросить напрямую у автора ;) Просто по определению, никакой трактовкой это получить невозможно. И даже если пообщаться с самим автором, это не будет 100%, в мировой истории всякие тролли бывали. Забыл уже фамилию человека, который десятки лет успешно притворялся схоластиком, а потом публично заявил, что всё это время был атеистом…
Видео не смотрел, так как недостаточно заинтересовался, а видео всё же требует много активного времени. По ссылкам, кстати, ходил! Но опять-таки, будучи представителем вида человека ленивого, не смог раскопать, где там доказательства находятся (непосредственно по ссылке выложены только лозунги). Хорошо бы выложить их здесь, ну или прямую ссылку именно на сабж.
/Хотя о чём я спорю вообще, хех.../
AlexeyR Автор
На сайте раздел так и называется «доказательства» meanings.farm/proofs
Там кроме всего прочего для приведенных доказательств приводится расчет их достоверности стандартными статистическими методами. Вероятность ошибки — 1/10^24.
sshmakov
AlexeyR
Поправьте меня, если я неправильно понял.
Но я не увидел в контексте важной части — действий субъекта, сделанных, делаемых им сейчас и предполагаемых делать им в будущем.
Вообще действия, на мой взгляд, являются равноправной частью сенсорного восприятия на входах ИИ.
Еще один момент, может я пропустил — контекст контекста. Чтобы создать и запомнить новый контекст, нужно делать его в связи с текущим контекстом. Получается такая цепочка контекстов во времени.
Причем контекст, который создается, может потом оказаться ошибочным. Думали роза, оказалась гвоздика. Это приводит к переоценке контекстов в прошлом, до ошибочного и после него. Видимо, мозг перепроверяет информацию. Но вопрос, какую информацию, в каком виде мозг ее хранит. Вряд ли это сырые данные с органов чувств, скорее предобработанные кусочки пазла.
AlexeyR Автор
В статье вершина айсберга. Действия, как и мысли — это результат обучения с подкреплением. Причем контекстно-смысловая модель дает не привычное Q-обучение, а близка по духу к адаптивным V-критикам. Подробнее есть у меня в статье www.aboutbrain.ru/download/6220.