image

Что можно назвать ИИ, а что нельзя – в некотором смысле зависит от определения. Нельзя отрицать, что AlphaGo – ИИ, играющий в го, разработанный командой Google DeepMind и обыгравший чемпиона мира – а также похожие системы с глубинным обучением за последние несколько лет смогли решить довольно сложные вычислительные проблемы. Но приведут ли они нас к настоящему, полному ИИ, к обобщённому интеллекту, или ОИ? Вряд ли – и вот, почему.

Одна из ключевых особенностей ОИ, с которой приходится иметь дело при его создании – он должен быть способен самостоятельно разобраться с окружающим миром и разработать своё, внутреннее понимание всего, с чем он встретится, что услышит, скажет или сделает. Иначе у вас на руках окажутся современные ИИ-программы, смысл которых был заложен разработчиком приложения. ИИ, по сути, не понимает, что происходит и его область специализации очень узка.

Проблема смысла – возможно, самая фундаментальная из задач ИИ, и она до сих пор не решена. Одним из первых выразивших её людей стал когнитивист Стеван Харнад, написавший в 1990 году работу «Задача сопоставления символов». Даже если вы не верите в то, что мы манипулируем именно символами, задача всё равно остаётся: сопоставление представления, существующего внутри системы, с реальным миром.

Для конкретики заметим, что задача осмысления приводит нас к четырём подзадачам:

1. Как структурировать информацию, которую личность (человек или ИИ) получает из окружающего мира?
2. Как связывать эту структурированную информацию с миром, то есть, как построить понимание мира личностью?
3. Как синхронизировать это осмысление с другими личностями? (В противном случае общение окажется невозможным, и интеллект получится необъяснимым и обособленным).
4. Почему личность что-то делает? Как запустить всё это движение?

Первая проблема, структурирование, хорошо решается через глубинное обучение и подобные обучающие алгоритмы, не требующие надзора – оно, к примеру, используется в AlphaGo. В этой области мы достигли значительных успехов, в частности благодаря недавнему росту вычислительных мощностей и использованию GPU, которые особенно хорошо распараллеливают обработку информации. Эти системы работают, принимая на вход чрезмерно избыточный сигнал, выраженный в многомерном пространстве, и сводят его к сигналам меньших измерений, минимизируя при этом потерю информации. Иначе говоря, они захватывают важную часть сигнала с точки зрения обработки информации.

Вторая проблема, проблема связи информации с реальным миром, то есть, создание «осмысления», непосредственно связана с роботизацией. Для взаимодействия с миром вам необходимо тело, а для построения этой связи вам необходимо взаимодействовать с миром. Поэтому я часто утверждаю, что без роботизации нет и ИИ (хотя бывают отличные роботы без ИИ, но это уже другая история). Это часто называют «проблемой воплощения», и большинство исследователей ИИ соглашаются, что интеллект и воплощение тесно связаны. В разных телах существуют разные формы интеллекта, что легко можно видеть по животным.

Всё начинается с таких простых вещей, как поиск смысла в ваших собственных частях тела и том, как их контролировать для достижения нужного эффекта в обозримом мире, как строится ощущение пространства, расстояния, цвета, и т.д. В этой области подробные исследования проводил такой учёный, как Дж. Кевин О'Реган, известный своей «сенсомоторной теорией сознания». Но это лишь первый шаг, поскольку затем необходимо будет строить всё больше и больше абстрактных концепций на базе этих приземлённых сенсомоторных структур. Мы пока ещё не добрались до этого, но исследования на эту тему уже ведутся.

Третья проблема – вопрос происхождения культуры. У некоторых животных прослеживаются простейшие формы культуры и даже передаваемые через поколения способности, но в очень ограниченном объёме, и лишь люди достигли того порога экспоненциального роста приобретённого знания, который мы зовём культурой. Культура – катализатор интеллекта, и ИИ, не обладающий возможностью культурного взаимодействия, будет представлять лишь академический интерес.

Но культуру нельзя вручную ввести в машину в виде кода. Она должна стать результатом процесса обучения. Лучший способ искать пути к пониманию этого процесса – психология развития. Работу на эту тему проделали Жан Пьяже [Jean Piaget] и Майкл Томасело [Michael Tomasello], изучавшие процесс приобретения культурологических знаний детьми. Этот подход породил новую дисциплину робототехники, «робототехническое развитие», берущую ребёнка в качестве модели (как в случае с роботом iCub на иллюстрации).

Также этот вопрос тесно связан с исследованием процесса обучения языку, а это одна из тем, которые изучаю и лично я. Работы таких людей, как Люк Стилс [Luc Steels] и др. показали, что процесс приобретения языка можно сравнить с эволюцией: личность создаёт новые понятия, взаимодействуя с миром, используя их для общения с другими личностями, и выбирает структуры, помогающие общаться успешнее других (в основном для достижения совместных целей). После сотен проб и ошибок, как и в случае биологической эволюции, система порождает наилучшее понятие и его синтаксический/грамматический перевод.

Этот процесс проверяли экспериментально, и он удивительно похож на то, как эволюционируют и растут естественные языки. Также он отвечает за мгновенное обучение, когда личность воспринимает концепцию сразу – такие вещи не способны объяснить такие основанные на статистике модели, как глубинное обучение. Сейчас несколько исследовательских лабораторий при помощи этого подхода пытаются пройти дальше по пути восприятия грамматики, жестов и более сложных культурных явлений. Конкретно это AI Lab, основанная мною во французской компании, занимающейся робототехникой Aldebaran. Сейчас она стала частью группы SoftBank Group – именно они создали роботов Nao, Romeo и Pepper (внизу).

image

И, наконец, четвёртая проблема сталкивается с «внутренней мотивацией». Почему личность вообще что-то делает, а не просто находится в покое. Требований к выживанию недостаточно для объяснения человеческого поведения. Даже если накормить и обеспечить безопасность человека, он не сидит в ожидании возвращения голода. Люди изучают окружения, пытаются что-то сделать, и движет ими какая-то форма присущего им любопытства. Исследователь Пьер-Ив Удейер [Pierre-Yves Oudeyer] показал, что простейшего математического выражения любопытства в виде стремления личности к максимизации скорости обучения достаточно для появления удивительно сложного и неожиданного поведения (см., к примеру, эксперимент с «игровой площадкой», проведённый в Sony CSL).

Судя по всему, нечто подобное необходимо системе, чтобы побудить в ней желание пройти через три предыдущих шага: структурировать информацию о мире, объединить её со своим телом и создать осмысленные понятия, а затем выбрать из них наиболее эффективные с точки зрения коммуникации, чтобы создать совместную культуру, в которой возможна кооперация. Именно это, с моей точки зрения, и есть программа ОИ.

Повторюсь, что быстрое развитие глубинного обучения и недавние успехи таких ИИ в играх типа го – это очень хорошие новости, поскольку такой ИИ найдёт много точек приложения в медицинских исследованиях, индустрии, сохранении окружающей среды и в других областях. Но это только одна часть проблемы, что я и пытался здесь объяснить. Я не верю, что глубинное обучение – это панацея, которая приведёт нас к настоящему ИИ, в смысле машины, способной научиться жить в мире, взаимодействовать с нами естественным образом, понимать сложность наших эмоций и культурных искажений и в итоге помочь нам сделать мир лучше.
Поделиться с друзьями
-->

Комментарии (43)


  1. Hellsy22
    26.04.2017 15:09
    +1

    он должен быть способен самостоятельно разобраться с окружающим миром и разработать своё, внутреннее понимание всего, с чем он встретится, что услышит, скажет или сделает

    С таким подходом и у людей интеллекта нет.


    1. geisha
      26.04.2017 16:24

      А откуда у кучки белков, клетчатки и другой органики возьмется интеллект? Вопрос к автору оригинального текста, конечно.


    1. charypopper
      27.04.2017 11:00

      Здравствуйте. Не могли бы пояснить? наука вроде этим и занимается, описывает явления физического мира, и открытые вопросы конечно интересные, но многое и объяснено, проделан путь в несколько тысяч лет и тд


      1. qw1
        27.04.2017 11:03

        он должен быть способен самостоятельно разобраться
        Вопрос, кто «он»? Отдельно взятый человек?


  1. arandomic
    26.04.2017 15:39
    -1

    Ну вот опять. «Почему прикладной ИИ — не ИИ»
    В философии сознания (если я не ошибаюсь), есть целый пласт вопросов, ответов на них, вопросов к ответам, итд.
    Что такое разум?
    Что такое смысл?
    Что такое сознание…
    Что такое мышление

    Каждый раз, когда заходит разговор про AI, кто-то воспринимает термин AI, как «интеллект, аналогичный человеческому» и начинает задвигать те же(банальные по сути) вопросы по отношению уже к искусственному мышлению.
    Кто-то начинает давать ответы
    Кто-то задавать вопросы к ответам.
    И в комментариях/репостах начинается диспут по философским проблемам, которые обсасываются со времен Декарта (если не Платона)

    И всё это на фоне практической задачи и практического же решения этой задачи, к которым, кто-то имел неосторожность применить термин AI.


    1. Sadler
      26.04.2017 16:17

      Каждый раз, когда заходит разговор про AI, кто-то воспринимает термин AI, как «интеллект, аналогичный человеческому»
      Это они расширяют терминологию, чтобы кто-нибудь мог вклинить гениальную мысль «Они нас поработят!»


  1. Bedal
    26.04.2017 16:18
    +4

    Обычные игрища философов, бла-бла. Искусственного разума не может существовать по определению, потому что то, что удалось решить искусственно — автоматически объявляется не входящим в понятие разума.

    И эту мысль философы уже полста лет продолжают облекать в миллионы слов. Кушать-то надо, и реноме поддерживать…


    1. zloddey
      26.04.2017 16:32

      Видимо, нужна специальная свёрточная сеть, которая будет специализироваться на создании философских эссе. Улучшаясь, она постепенно лишит работы белковых философов, и проблема решится сама собой.


      1. cepera_ang
        26.04.2017 16:53

        Нет, конечно же не лишит. Ведь любая философская работа должна обязательно начинаться от Платона и заканчиваться самим автором, включая всех остальных (и нейронку тоже придётся включать). Так принято, и без этого философия — не философия.


      1. impetus
        27.04.2017 15:12

        Да там в большинстве случаев простого «корчевателя» достаточно.


        1. cepera_ang
          27.04.2017 17:08

          О, а сейчас и технические статьи можно генерировать (отсюда: http://karpathy.github.io/2015/05/21/rnn-effectiveness/)
          image


    1. edd_k
      26.04.2017 17:48

      Что значит "решить искусственно"? Сеть учится и прогрессирует, а программист даже охватить в голове это не может. Это уже совсем не то, что "программирую 2+2 и ожидаю получить 4". Речь идет о чем-то сродни "смастерить и воспитать Буратино".


  1. taujavarob
    26.04.2017 17:19
    -4

    1. Как структурировать информацию, которую личность (человек или ИИ) получает из окружающего мира?
    2. Как связывать эту структурированную информацию с миром, то есть, как построить понимание мира личностью?
    3. Как синхронизировать это осмысление с другими личностями? (В противном случае общение окажется невозможным, и интеллект получится необъяснимым и обособленным).
    4. Почему личность что-то делает? Как запустить всё это движение?


    Религию забыли. (С)

    Без религии человек не человек, а не пойми кто. Обезьяна, не более того.


    1. u010602
      26.04.2017 17:21
      +3

      А с религией — обезьяна с религией.


      1. taujavarob
        27.04.2017 17:26
        -1

        u010602

        А с религией — обезьяна с религией.

        Обезьяна с религией и есть человек. (С)

        Обезьяна без религии — есть просто обезьяна (или «атеист» — это синоним).

        Да, есть попытки найти в поведении обезьян некоторые религиозные моменты — но эти попытки (и примеры) не убедительны — типа где-то (в глубине Африки) кто-то видел (довольно давно) стаю обезьян которая довольно часто кидала камни в расщелину дерева. — На основании этого делать вывод что обезьяны исповедуют какую-то религию довольно опрометчиво.

        Обезьяны, как и атеисты — не исповедуют никакой Религии. (С)

        Отличие обезьян от атеистов в том, что атеисты были взращены фактически людьми (то есть обезьянами исповедующими Религию), но потом отринувшие религию и вернувшиеся практически к обезьянам.

        А проводить опыты, ориентироваться по сторонам света и даже считать — это и птицы умеют, не то что обезьяны.

        Так что главное чем отличаются животные от людей — это не устный счёт и не предметы охоты (видео как птица ловит рыбу на приманку из кусочка дерева доступно в инете всем), а религия и только религия. — Про это отличие один учёный-биолог уже и книгу написал.

        P.S.
        realbtr
        Смысл, это когда есть некая ясность понимания.

        А ясность понимания происходит тогда и только тогда когда есть некий смысл? Я вас правильно понял?

        realbtr
        В сочетании символов «МАМА» мы обнаруживаем смысл, а в сочетании «ФХЩЫ» нет (если исключить извращения, остаться в чисто бытовых, повседневных рамках).

        В сочетании "Мааа мааа раау" есть смыл или нет? Не улавливаете?
        Хорошо, а в сочетании: «Чао нам паааааат пааать сааал фаааы?»

        realbtr
        Понимание — это определенность соответствия признаков чему-то уже знакомому. То есть мы обобщаем признаки и понимаем, что ранее их уже обобщали.

        Это верно. Но разве Религиозный опыт не есть обобщение, наследование и применение ранее случившегося реального события?

        realbtr
        Системы выявления и обобщения признаков — это хорошее, годное направление исследований ИИ.

        Эдак и к Библии можно прийти. (С)

        realbtr
        Разумеется, многие исследователи по своему могут видеть проблему сознания и понимания, проблему рассудка и рассудочной деятельности, саму проблему поведения (осознанного поведения, т.е. поведения выводящего новые способы действия, в отличие от автоматического повторения уже сложившихся шаблонов)

        Если компьютерная программа выводит новые способы действия разве она от этого станет разумной? ©

        Вывод? — Разум спрятан только в Религии. Без религиозного сознания и сознания нет. (С)

        Религия же есть Традиция. (С) То есть быть религиозным это означает следование традиции, которая сама возникла как реальное действие приводившее к цели в прошлом.

        Не путать Религию и высосанного из пальца «Макаронного монстра».

        Фактически — религиозное поведение — есть поведение аналогичное поведению «эгоистичных генов».

        Но "эгоистичный ген" — он тупой ген (по крайней мере так считает Ри?чард До?кинз).
        Но несмотря на его «тупизну» — он двигается всё время к успеху.

        Религиозное поведение аналогично. Оно просто и очень просто. Никакой отсебятины и гипотез. Только опора на традиции порождённые реальными событиями в прошлом.

        Но ведь копирование копий (симулякр), следование традициям которым тысячи лет, может приводить к… сбою, к искажению, к… «мутациям»? — Всё верно. Так и происходит. Аналогично… генетическому алгоритму!

        Аналогии, аналогии — они ничего не доказывают, но они постоянно применяются с целью… понять смысл. — То есть получить религиозный (мистический) опыт (вспышку, озарение) — который и называется смыслом.

        Имхо, конечно, имхо. (С)


        1. Sadler
          27.04.2017 18:51
          +2

          Больше не забывайте принимать Ваши таблетки.


        1. u010602
          27.04.2017 18:55

          Все вы верно пишите, принципиальных отличий между человеком и обезьяной нет. Т.к. человек и есть обезьяна. А отличие между религиозным человеком и не религиозным — да только религия. Банальщина собственно. Но только не нужно переназначать термины. Человек это такой вид обезьян, и генетический анализ определяет кто человек, а кто нет. Коматозное тело без мозга — то-же человек.


  1. u010602
    26.04.2017 17:20
    -1

    Мне иногда кажется, что скайнет будет топтать наши черепа, и все равно будут «философы» рассуждающие есть ли у скайнета интеллект или нет. Как будто у них есть материальная заинтересованность, не признавать современные когнитивные системы искусственным интеллектом, получать гранты и продолжать искать божественное начало в ИИ.


    1. Hellsy22
      26.04.2017 17:27

      Конечно же есть. Это продолжение древнейшей темы — есть ли душа у женщин, негров, иноверцев и т.д.

      Если нет, то значит их можно смело уничтожать или порабощать. Мысль о человекоподобном ИИ многим не дает покоя — ведь с ним в итоге придется (о ужас!) договариваться, выделять ему какие-то там права. А вот если это «не полноценный» ИИ, то можно делать все.


      1. u010602
        26.04.2017 17:30
        -1

        Да, похоже что вы правы.


      1. Bedal
        26.04.2017 17:32
        -1

        Золотые слова.


  1. red75prim
    26.04.2017 17:39
    +1

    Также он отвечает за мгновенное обучение, когда личность воспринимает концепцию сразу – такие вещи не способны объяснить такие основанные на статистике модели, как глубинное обучение.

    Интересно, как такая позиция согласуется с тем, что в нейросети, занимающейся предсказанием следующей буквы в текстах отзывов о товарах, обнаружился нейрон реагирующий на эмоциональную окраску текста. Чем не мгновенное обучение? Показываешь этой сети — вот хороший отзыв, вот плохой отзыв, а она тут же — "о! у меня уже есть для этого специальный нейрон".


    https://arxiv.org/abs/1704.01444


    Естественно, структура сети пока слишком примитивна, чтобы сеть могла заметить и отреагировать на такой "момент озарения", но истинность приведённой цитаты уже достаточно сомнительна.


  1. nikitastaf1996
    26.04.2017 19:15
    +1

    Все проще чем кажется.Просто сделайте дырку в свёрточной нейронной сети и получите пончиковую нейронную сеть.


  1. mtivkov
    27.04.2017 00:21
    +1

    Почему никогда на Хабре и ГТ, рассказывая про нейросети, не упоминают ключевое отличие процессов их обучения и функционирования от таковых в "органическом" мозге?
    В мозге не только веса входов нейронов изменяются, там ещё и образуются новые связи между нейронами, и исчезают старые — перестраивается сама конфигурация сети.
    Без такой фичи нейросеть будет получаться заточенная только на 1 задачу. Либо игра го, либо распознавание образов. Вместе — никак. И никакого AI не получить из набора "решателей узких задач".


    1. ilansk
      27.04.2017 06:11

      Ну почему? Нейросеть можно заточить под 10 задач, если вас вас устроит 10% успешность решения этих 10ти задач.


      1. mtivkov
        27.04.2017 12:48

        Да, недавно была на хабре статья как раз про подобное.
        Но, пожалуй, так не устроит ))


    1. Sadler
      27.04.2017 06:26

      образуются новые связи между нейронами и исчезают старые — перестраивается сама конфигурация сети
      Используйте полносвязные слои. Нулевой вес эквивалентен разрыву связи. Сети с переменной топологией тоже используются, но значительно реже, вероятно, в связи с неэффективным использованием памяти на больших сетях и несколько более сложным обучением на GPU.


      1. mtivkov
        27.04.2017 12:41

        У человека порядка 10^10 нейронов.
        Если хотим делать AI умнее человека, то придется примерно столько нейронов и брать, а лучше — еще больше.
        Железо пока не тянет такие полносвязные слои.


        Специализация участков сети (как и у человека) несколько ослабит проблему. Т.е. можно делать несколько специализированных сетей + полносвязный слой с интеллектом, который их объединяет и использует.
        Предположим, на полносвязный слой пойдет 1/10 часть — т.е. 10^9 нейронов, это 10^18 связей (примерно 2^60).
        Все равно много. AI пока недостижим.


        Если на каждую связь по 1 байту памяти выделить, то 1 ТБ памяти хватит на полносвязную сеть из миллиона нейронов. На таком жалком количестве AI не получить.


        Может все же лучше думать в сторону реализации механизма изменения конфигурации сети?


        1. Sadler
          27.04.2017 13:06

          Может все же лучше думать в сторону реализации механизма изменения конфигурации сети?
          Сэкономите в памяти (не забываем о том, что список связей тоже придётся где-то хранить), на порядки проиграете в скорости вычислений, т.к. вместо обычного умножения матриц придётся вычислять все значения отдельно. Это может быть более или менее оправданным, если архитектура вычислителя будет соответствовать архитектуре сети. Скажем, с использованием ASIC.


          1. mtivkov
            27.04.2017 13:17

            Нет такой альтернативы — экономить на памяти или не экономить.
            Можно лишь рассматривать разные варианты экономии. Таки придется уменьшать связность и т.п.
            А когда сэкономим в триллион раз на памяти (по сравнению с полносвязной сетью), то и общее быстродействие от этого только возрастет.


            1. Sadler
              27.04.2017 13:20

              Вы пытаетесь переспорить сами себя? Практический опыт у Вас есть, или только идеи?


              1. mtivkov
                03.05.2017 11:54

                Не заметил у себя ничего самопротиворечивого.
                Полносвязная сеть сейчас практически нереализуема для количества нейронов более 1 млн.
                Для того, чтобы это понять, не нужно никакого практического опыта, достаточно знать арифметику и типичные объемы памяти современных устройств.
                1 млн нейронов слишком мало для AI.
                Поэтому ваше предложение "Используйте полносвязные слои. Нулевой вес эквивалентен разрыву связи." не проходит.


                1. Sadler
                  03.05.2017 12:46

                  Полносвязная сеть сейчас практически нереализуема для количества нейронов более 1 млн.
                  Поэтому на практике используют различные топологии, более эффективные в решении конкретной задачи.
                  1 млн нейронов слишком мало для AI.
                  Раньше Вы утверждали, что есть некое ключевое отличие, а теперь всё свелось лишь к недостаточности числа нейронов. Все это знают, проблему решают по-разному, в т.ч. и снижением связности. У нас с Вами, вероятно, разные требования к AI, у меня нет желания «делать AI умнее человека», мне нужно, чтобы алгоритм успешно решал мои практические задачи, а не рефлексировал относительно собственного бытия.


                  1. mtivkov
                    03.05.2017 14:37

                    Мы пишем комментарии к статье с определенной темой. Статья — о том, что есть хорошие наработки решения узких задач, но...


                    приведут ли они нас к настоящему, полному ИИ, к обобщённому интеллекту, или ОИ? Вряд ли – и вот, почему.

                    Лично я согласен с автором статьи, что набор решенных узких задач — это не предел наших пожеланий к AI.
                    От AI хочется большего, чтобы он как минимум мог учиться (intelligence = the ability to acquire and apply knowledge and skills) в произвольной области, не ограниченной наперед небольшим набором правил. Т.е. чтобы AI мог воспринимать новые правила и факты без помощи человека, мог самостоятельно сформировать себе под эти правила внутреннюю вспомогательную нейросеть.
                    И в своем первом комменте я указал, что человек умеет это делать, а текущие реализации узких AI — нет.


                    Раньше Вы утверждали, что есть некое ключевое отличие, а теперь всё свелось лишь к недостаточности числа нейронов.

                    Ключевое отличие — в том, что мозг умеет перестраивать связи между нейронами, а железные нейросети — нет.
                    Далее вы сказали, что полносвязная сеть решает проблему, а я возразил, что практически — таки нет, из-за появляющегося жесткого ограничения на количество нейронов, которое нам доступно при имеющихся объемах памяти.


                    У нас с Вами, вероятно, разные требования к AI, у меня нет желания «делать AI умнее человека», мне нужно, чтобы алгоритм успешно решал мои практические задачи, а не рефлексировал относительно собственного бытия.

                    Исходная статья и мои комменты относятся к теме выхода AI за пределы узких предопределенных задач.


                    1. Sadler
                      03.05.2017 14:49

                      Есть идеи, по какому принципу генерировать новые связи, за исключением случайного подключения с сохранением критичных для решения задачи связей?


                      1. mtivkov
                        03.05.2017 16:08

                        Я бы попробовал так.
                        Основа — сеть с уже хорошей связностью.
                        К ней — дополнительные связи, которые могут создаваться и разрушаться, в количестве сравнимом с фиксированными связями.
                        Нужна будет функция, определяющая важность (вес) связи.
                        Связь уничтожаем, когда её вес мал.
                        Сложнее будет решить, где создавать новые связи.
                        Все же, если их все создавать полностью случайным образом, то прогресс обучения может оказаться слишком медленным.
                        Хорошо бы определить правило поиска ключевых нейронов (или их групп), от которых пойдут новые связи. Концы для новой связи можно уже пробовать выбирать случайно.
                        Если такого правила нет, то периодически можно "равномерно" разбрасывать по сети немного случайных связей.
                        Если новые связи приобрели большой вес, то докидываем рядом к ним еще — соединяем соседние нейроны.


                        1. Sadler
                          03.05.2017 17:12

                          Все же, если их все создавать полностью случайным образом, то прогресс обучения может оказаться слишком медленным.
                          Можно подключать только нейрон с максимальными значениями ошибки в слое (получаем при backprop).

                          На самом деле лично мне сложнее придумать, как уничтожать ненужные связи (кроме откровенно нулевых, что бывает не так часто): для этого в худшем случае придётся сохранять состояние сети, обрывать связь, дообучать без связи, тестировать результат, и только в этот момент мы узнаем, стоило ли разрывать эту связь. Ооочень медленно.


                          1. mtivkov
                            03.05.2017 18:40

                            Для специализированных сетей обрывы ведут к ухудшению, это понятно.
                            Но если это механизм для "сознания" AI, которое будет подключать в работу другие нейросети, которое исходно обладает большой собственной (неразрушаемой) связностью, то может небольшое временное ухудшение даже ни на чем и не скажется?


                            По-моему не надо тестировать результат и откатывать к предыдущему состоянию этот блок AI.
                            Для него нормально постоянно быть в изменении, он же не должен идти к стабильному наилучшему состоянию, как AlphaGo или сеть распознавания породы котиков на картинках.


    1. cepera_ang
      27.04.2017 12:40

      Ключевое различие в этом и только? Да в нейронных сетях от нейронов мозга — одно название и очень-очень далёкое влияние на общую идею. Если бы называли их как есть — вычислительные графы, то давно бы уже перестали с мозгом сравнивать в плане устройства.

      А мозг — это и есть вычислитель, заточенный на одну задачу. Просто много разных кусочков решают разные задачи и часть из них решает узкую задачу «как обеспечить совместное решение узких задач для достижения более широкой»


      1. mtivkov
        27.04.2017 12:46

        Отличие весьма существенное для процессов обучения.
        Можно не называть его ключевым, какая разница.


  1. r3verser
    27.04.2017 00:33

    Еще бы ссылки на упомянутые исследования/эксперименты указать.


  1. realbtr
    27.04.2017 13:18

    Вопросы поднимаемые вполне традиционно. Можно ли называть слабый интеллект — интеллектом? Достаточно лишь когнитивных функций?

    Однако, эти вопросы действительно необходимо задавать. И то, что отвечать на эти вопросы сложно и неудобно, не значит, что от них можно отмахнуться.

    Что такое смысл? Можно долго рассуждать и приводить рассуждения других людей прошлого и настоящего.
    Но каждый человек вполне отличает смысл от бессмыслицы. Смысл, это когда есть некая ясность понимания. Что-то является определенным. В сочетании символов «МАМА» мы обнаруживаем смысл, а в сочетании «ФХЩЫ» нет (если исключить извращения, остаться в чисто бытовых, повседневных рамках).

    Понимание — это определенность соответствия признаков чему-то уже знакомому. То есть мы обобщаем признаки и понимаем, что ранее их уже обобщали.

    Системы выявления и обобщения признаков — это хорошее, годное направление исследований ИИ.

    Семантический разрыв, это конечно же не только проблема масштаба. Сейчас нет полной академической определенности, достаточно ли уже существующих методов выявления признаков и их обобщения для преодоления семантического разрыва простым накоплением уровней обобщения или нет.

    Но, есть надежда, что принципиально новых методов не потребуется. Технические решения — да.

    Но само определение понимания как двух функций выявления признаков и их обобщения вряд ли претерпит существенные изменения.

    Можно вполне заявить — функциональные требования определены. Необходимы подходу к их технической реализации.

    Разумеется, многие исследователи по своему могут видеть проблему сознания и понимания, проблему рассудка и рассудочной деятельности, саму проблему поведения (осознанного поведения, т.е. поведения выводящего новые способы действия, в отличие от автоматического повторения уже сложившихся шаблонов)

    Условно говоря, пока мы видим исследования уровня шагохода-гексапода (и размышления об эмерджентности сознания или хотя бы некоторого набора феноменов, обычно связываемых с сознанием).

    То есть сегодня исследователи проблематики общего (автономного) ИИ занимаются интеллектом масштаба таракана/мухи.

    Но по мере вылизывания принципов и способов их реализации, можно предположить, что на подходе котики. Маленькие. Слепые. Но уже с поведением, развивающимся и адаптирующимся и с отражением некой воспринимаемой объективно и субъективно картины окружающего мира.