Эра нейросетевого искусственного интеллекта в самом разгаре! Настоящий прорыв за последние годы — нейросети распознают не только речь, картинки с животными, сложные сцены, но даже описывают их словами! (NeuralTalk). На нейросетях делают боты, которые пока плохо, но уже что-то отвечают. Нейросети сочиняют музыку и пишут стихи. По сценарию нейросети даже собираются снять фильм! Скоро, пророчат журналисты, совсем скоро они буду управлять машинами, банками, корпорациями, странами. «И все будут летать на дилижансах» — так мечтали в начале прошлого века. Так мечтает сейчас о нейросетевом будущем его создатели. Говорят, что они скоро обгонят человека во всем. Нейросети уже обыграли человека в шахматы, го, в Jaopardy (Своя игра). И поэтому они называют свои творения не меньше, чем Искусственный интеллект. Распознал лошадь на картинке — искусственный интеллект. Почему интеллект? Потому что раньше это умел делать только человек. Странно, почему тогда ранее искусственным интеллектом не назвали калькулятор. Верно ли тогда так называть нейросети?

Конечно, нейросеть на порядки сложнее калькулятора. Но, если посмотреть на итог работы нейросети без предвосхищения интеллекта, это просто классификатор! Причем регрессивного характера — множество входов она сводит к выбору нескольких вариантов (кроме ассоциативных сетей и машины Больцмана). Реле, только с более сложным входом. Мне казалось, что интеллект — это как минимум способность рассуждать. И пока ни одна сеть не может построить хотя бы простейший силлогизм, называть ее интеллектом, мягко говоря, рановато. Я уж не говорю о более сложных задачах. Например,

У пчелы немногим больше нейронов в голове, но она умеет то, на что ни одна современная нейросеть пока не способна — летать с большой скоростью среди веток и деревьев. Пока Google с трудом, вспотев за 10 лет разработок, водит машины по дорожной разметке. А пчелы — это насекомое, самое начало эволюции нейросети. Мы не достигли даже этого начального уровня, а уже называем сети созданием, которым ознаменован венец эволюции нейросети — интеллектом.

Все, и сами ученые, совершают одну и ту же эпистемиологическую ошибку. Они говорят, что сеть обладает интеллектом, потому что распознала лошадь на картинке! Разве она распознала лошадь? Она просто выбрала выход Х, который исследователь назвал «лошадь». Да, она произвела обобщение (классификатор), сведя вариант лошади к выходу «лошадь». Но нейросеть никакого представления о том, что она выбрала, не имеет. У нее нет понятия о «лошади» (семантики), «значение» выхода «лошадь» у нас в голове, а не в сети. Чтобы он был в самой нейросети, она должна выбрать не вход, не слово соответственно распознанной картинке, а все контекстуально связанные слова, то есть весь концепт «лошади». Тогда она, может быть, будет понимать, что лошадь и туманность имеют общее значение только в смысле облака космической пыли. Для нейросети же выбранный выход — это смысловая «точка», не имеющая содержания.

Самое слабые достижения нейронных сетей как раз в NLP, там где требуется понимание естественного языка. Потому что мы до сих пор сами, как мне кажется, не очень понимаем, что значит «понимать». А в этом самый важный аспект, который мы хотели бы реализовать в машине. И который могли бы тогда по праву назвать интеллектом. Понимание именно в смысле семантики «лошади». При этом похоже мы приближаемся к порогу понимания того, что сами делаем — сети создают, обучают, но понять как они достигают результата уже не могут по признанию самих создателей. Хотя мы создали только первый кирпичик в здании Интеллекта. Сможем ли мы тогда достичь более серьезного уровня ИИ, который сложнее нынешнего на порядок?

Итог

Как итог приведу цитату из статьи, только что появившуюся на Хабре, об «успехах» нейросетей в языковом (смысловом) подражании habrahabr.ru/company/payonline/blog/307666

«Есть только одна проблема, которая быстро становится очевидной по мере наблюдения за другими ответами системы. Когда Ли спросил: «Сколько ног у кошки?», система ответила: «Четыре, я полагаю». После этого он сделал другую попытку: «Сколько ног у сороконожки?». Ответ последовал любопытный: «Восемь». По сути, программа Ли не имеет понятия о чем она говорит. Она понимает, что определенные сочетания символов могут встречаться вместе, но не имеет ни малейшего понятия о существовании реального мира. Она не знает, как на самом деле выглядит сороконожка, или как она передвигается. То есть перед нами все еще только иллюзия интеллекта, лишенная того самого здравого смысла, который мы, люди, воспринимаем как нечто само собой разумеющееся. Подобная нестабильность результатов вполне обыденна для систем глубинного обучения. Программа Google, сочиняющая подписи к изображениям, делает странные ошибки. Глядя на дорожный знак, например, она может назвать его набитым едой холодильником».

Из комментариев отмечу ZhenyaZero, который очень точно выразил конкретное отличие современных нейросетей от того, как распознаем картинки мы, люди. «Тем не менее вы, несомненно, отличите лошадь с пятой ногой от тигра с пятой ногой. И при описании картинки большинство людей скажет «лошадь с пятой ногой», а не „думаю это кусок торта“. А результаты нейросети на необычных и пограничных вариантах действительно плохо предсказуемы и часто выглядят полностью неадекватными.

А также несколько фактов
1) Чтобы увидеть столько разных „лошадок“, ни одному человеку не хватит и всей жизни (с).
2) Ребенку часто достаточно показать один раз картинку нового животного и объяснить в чем его отличие, чтобы он смог узнавать таких животных в следующий раз и в любых позах.
3) Мы подразумеваем „лошадь“ даже когда видим просто уздечку.

Выводы статьи вполне очевидны, но важнее понять, что почему такие отличия существуют, и что делать дальше. Ваши предложения.
Поделиться с друзьями
-->

Комментарии (58)


  1. gionet
    15.08.2016 23:23
    +2

    Так ведь системы еще только в начале пути. У вас мозг тоже, извините, опирается на полученный опыт. Не получили бы вы навыки в детстве, ничего бы не умели сейчас.
    Вы даже руками-ногами двигать в младенчестве учились, мозг вашими движениями в том возрасте учился управляться с телом. Во время грудного скармливания вы учились понимать, что ваше тело имеет свое лево и право… Всему вы учились. Отчего вы отказываетесь в праве и нейросетям это делать? Возрастет сложность их, возрастут и возможности.


    1. Xom
      15.08.2016 23:39
      +1

      Разве я отказал нейросетям поумнении в будущем? Я написал только о настоящем состоянии. Способности нейросети сейчас нельзя назвать интеллектом так же как грудничка — разумным существом. Оно им только станет, возможно.


      1. Noeren
        16.08.2016 05:13
        +2

        Честно говоря не совсем понятен в таком случае посыл статьи. Напомнить всем, что полностью осознавший себя и обладающий когнитивными функциями, сопоставимыми с человеческим мозгом, ИИ пока не создан? Ну… как бы сказать… да… не думаю что тут требуется свидетельство канарейки…


        1. Xom
          16.08.2016 09:18

          Я все чаще вижу рассказы о том, что ИИ обогнал человека, скоро заменит нас всех и т.п. Поcыл именно в том, чтобы уберечь от излишней эйфории и напомнить, какие цели еще впереди. Мы еще пчелы в ИИ по сравнению с человеком. И хотел обозначить основную проблему — семантика пока никому не поддалась кроме w2v.


      1. igruh
        16.08.2016 08:20

        По-легче на поворотах, грудничку может быть и два года, и к этому возрасту он уже давно умеет бегать, строить, ломать, помогать по дому и выносить мозг разговорами.


        1. Xom
          16.08.2016 08:58

          Грудничек все таки не бегает в обыденном понимании этого слова. И тем более не говорит.


        1. atilaus
          16.08.2016 09:01

          Грудничок — это ребенок грудного возраста, т.е. до года. И то что вы ему приписываете он еще не умеет.


          1. igruh
            16.08.2016 09:52

            Нестыковка в определениях. Я имел ввиду грудное вскармливание и в явном виде указал возраст. Вы ссылаетесь на формальное определение из Вики, не имеющее отношения к вскармливанию. Посмотрел в словаре Ожегова — там есть оба значения.


            1. Xom
              16.08.2016 20:19

              В словаре Ожегова: Грудной -ая, -бе. 1. см. грудь. 2. О младенцах: вскармливаемый грудью. Г. ребёнок. Г. возраст (до года). Предметы ухода за грудными (сущ.). Другого не нашел.


      1. jex
        16.08.2016 08:56
        +1

        О понятнии искуственного интелекта уже давно спорят (как минимум с 40 лет). В каких то книгах я читал, что разделяют ИИ в широком смысле и в узком. То о чем вы говорите — это широкий смысл понятия ИИ. То о чем говорят те, о ком вы пишите (учёные) — в узком, т.е. имитация интелектуальной деятельности человека(бот шахматист даже без нейронок — это ИИ).


        1. Xom
          16.08.2016 21:25

          Вы наверно имеете ввиду Сильный и Слабый ИИ в определении Серла. Вы считаете, что ИИ достиг уровня имитации? Попробуйте поговорить с Siri. Станет скучно на 30 сек. Или задайте перевод научной статьи Google. Если не в теме, ничего не поймете. Хотя может быть для диалога и перевода как раз требуется Сильный (иногда говорят «полный») ИИ. И тогда Вы правы.


  1. Alex_ME
    16.08.2016 00:25

    Самое слабые достижения нейронных сетей как раз в NLP, там где требуется понимание естественного языка. Потому что мы до сих пор сами, как мне кажется, не очень понимаем, что значит «понимать». А в этом самый важный аспект, который мы хотели бы реализовать в машине. И который могли бы тогда по праву назвать интеллектом.

    ИМХО:
    Потому что естесственный язык базируется на понимании сути вещей, если так выразиться. Слова обозначают предметы, качества, действия. Мы соотносим лексемы с информацией, накопленной нами в течении жизни.


  1. dkukushkin
    16.08.2016 02:18
    +1

    >Разве она распознала лошадь? Она просто выбрала выход Х, который исследователь назвал «лошадь»

    Ну так подключите к этому выходу запуск аудио-записи со словом «это лошадь» — вот вам и распознала. Не только исследователь назвал этот выход лошадь, но и сама система озвучила название на естественном языке.

    > не слово соответственно распознанной картинке, а все контекстуально связанные слова, то есть весь концепт «лошади»

    Приведите пример что значит выбрать «все контекстуально связанные слова». Это типа овес, трава, копыта?


    1. ZhenyaZero
      16.08.2016 08:02

      Речь про другое. Когда естественный интеллект (человек) распознаёт лошадь, в сознании появляется образ, несущий в себе множество признаков и ассоциативных связей. Причём даже не один: окрас, размер и прочие характеристики также представляют собой не просто слова, а огромные пласты информации, являющиеся триггерами для других образов. «Это же та самая лошадь, на которой я неделю назад катался!». Если ИИ в соответствующей ситуации сможет использовать лошадь, как транспорт или более сложным способом с ней взаимодействовать; сможет увидеть, что она устала, понять, что её нужно накормить — тогда и только тогда и можно будет говорить, что он распознал её, как образ лошади, а не как бессмысленный набор цифр/букв.

      Причём, несмотря на огромное количество связей, каждый образ является именно выделяемым объектом, с которым можно работать в любом направлении, а не просто абстрактным набором цифр-весов нейронной сети. Я тоже не знаю, как это правильно сформулировать, но, на мой взгляд, именно образное и ассоциативное мышление отличает человеческое сознание от того, что гордо именуют ИИ. Сейчас это действительно не интеллект, а просто тупой механизм распознавания/выбора решений. Причём разница именно качественная, а не количественная. Увеличение количества нейронов помогает только снизить процент ошибок, но не меняет сам механизм.


      1. dkukushkin
        16.08.2016 13:37
        +1

        >сможет увидеть, что она устала, понять, что её нужно накормить

        На самом деле я, конечно, понимаю что вы пытаетесь сказать, но намеренно решил «поднапрячь» вас, может вы сами поймете что не можете выразить словами.

        Даже если ИИ будет содержать таблицы с данными, благодаря которым сможет вычислить что лошадь устала или голодна — вас это не удовлетворит. Вы скажите — он не понял а просто сопоставил данные в таблице (как нерадивый школьник может зазубрить и выдать готовый ответ, так и не поняв что он сказал).

        >Я тоже не знаю, как это правильно сформулировать, но, на мой взгляд, именно образное и ассоциативное мышление отличает человеческое сознание от того, что гордо именуют ИИ

        Вы не знаете как выразить в научных терминах, но я прекрасно понимаю что вы хотите сказать.

        Для меня этот вопрос является главным в жизни и не только моей. Я считаю что ответ на этот вопрос является смыслом существования человечества. Все науки имеют конечной точкой (точкой сингулярности) ответ на этот вопрос.

        После ответа человек станет не нужным, так как появится новый вид.

        И здесь дело не в информации.

        Давайте пример приведу.

        Вот есть функция сложения. Благодаря этой функции вы можете складывать огромные числа (как BigInteger). Но похожего результата вы можете добиться с помощью таблицы, где для каждого варианта слагаемых просто посмотрите готовый результат. Причем для вызывающего функцию разницы не будет.

        Но вариант работы по таблице физически не сможет вместить все длинные числа (ну, скажем, количество разрядов более 100 тыс. бит) а вариант алгоритмический — без проблем выполнит такие действия.

        Разница между таблицей и вычислением — это способность к декомпозиции. Хотя внешне выглядит одинаково.

        Это аналогия была, надеюсь передал мысль.

        Разница между вычислением и пониманием (осознанием) для нас не очевидна. Но она, на мой взгляд, такая же как и разница между сопопставлением по таблице и вычислением. Результат одинаков, только вот не возможно составить таблицы для всей области значений (просто не хватит памяти).

        Аналогично с осознанием — с помощью вычислений мы можем эмулировать многие области осознания, но не возможно (не хватит памяти) для эмуляции всей области значений осознания.

        Что является сутью вычисления и чем оно отличается от таблиц — мы знаем. Но не знаем чем сознание отличается от вычисления.


        1. m03r
          16.08.2016 14:44

          Вы практически точно описали китайскую комнату. Собственно, споры вокруг этого мысленного эксперимента будут продолжаться до тех пор, пока мы не поймём, что такое сознание. Насколько мне известно, даже на клеточном уровне изучены далеко не все детали формирования мозга (в частности, аксональное наведение), но оснований полагать, что там участвуют какие-то принципиальное иные механизмы (т.е. не биохимические), у нас сейчас нет. Поэтому можно пока принять в качестве гипотезы, что сознание — это сложный эффект, присущий структуре связей внутри мозга и между ним и остальными органами.


          1. dkukushkin
            16.08.2016 16:58

            >Вы практически точно описали китайскую комнату

            Другая мысль.

            Сравните сложение по таблице (где записаны все правила: 1+1=2, 1+2=3… 23+56=79...) и сложение в столбик. Для сложения в столбик вам нужно знать только таблицу сложения однозначных чисел + освоить правила. А для сложения по таблице вам нужно иметь запись абсолютно всех чисел, что не возможно т.к. не хватит вещества во Вселенной.

            Получается есть такие уровни:

            1. Нахождение результата по словарю (по таблице). Когда вы просто запоминаете все варианты вопрос-ответ (но не можете применять какие-либо правила).

            2. Нахождение результата путем вычислений по заданным правилам. Когда есть опорная таблица и готовые правила для произведения декомпозиции. Это намного круче результата по таблице.

            3. Нахождение результата без таблиц и правил, путем осознания.

            Уровень 1 и 2 соотносятся так же как 2 и 3. Уровень 1 — это бумажные таблицы Брадиса, грубо говоря. Уровень 2 — это компьютер. Уровень 3 — это х.з. что.

            Но суть даже не в этом.

            То что мы ищем — может не проявлять себя как умная или вычислительная система. У меня было в жизни такое, что я не несколько секунд стал дебилом. Реально я смотрел на мир и не знал как называются вещи, которые я вижу, не знал кто я, не знал где я. Какая то часть мозга отключалась. Я ничего не умел и не знал, но у меня было осознание, я мог ощущать наслаждение и страдание. Это сложно передать словами.

            Долго анализировал и пришел к пониманию что ключом ко всему является природа наслаждения и страдания. Нужна система, которая сможет ощутить наслаждение и/или страдание и это именно то что мы ищем. Пусть даже эта система более ничего не сможет делать.


            1. m03r
              16.08.2016 17:57

              Вариант «посмотреть по таблице (словарю)» тоже можно трактовать как результат работы по правилам (в данном случае — правила поиска в словаре). Китайская комната покрывает (1) и (2) — как более простой алгоритм поиска в таблице и более сложный алгоритм вычисления, но не покрывает варианта (3) просто потому, что мы не знаем, что это такое — осознание. Поэтому мне кажется, что между вариантами (2) и (3) гораздо более серьёзная разница, чем между (1) и (2). Кроме того, (1) и (2) нам понятны и, следовательно, эмулируемы, а (3) совершенно неясен.


              1. dkukushkin
                16.08.2016 20:19

                >Вариант «посмотреть по таблице (словарю)» тоже можно трактовать как результат работы по правилам (в данном случае — правила поиска в словаре)

                В решении по таблице (по словарю) нет ключевого — декомпозиции. Все 3 системы для внешнего наблюдателя действуют идентично на определенном наборе вариантов. Однако разница в том что система 1 физически не может охватить все варианты системы 2, как и система 2 не может охватить все варианты системы 3.

                >(1) и (2) нам понятны и, следовательно, эмулируемы, а (3) совершенно неясен.

                Для многих людей и система 2 не ясна, они умеют только «заучить наизусть». Запомнить — да, умеют. А вот вычислить — нет.


  1. samodum
    16.08.2016 02:24
    +2

    >Но нейросеть никакого представления о том, что она выбрала, не имеет.

    Но ведь и ты сам не знаешь, что ты выбрал. Просто посмотрел на картинку и сказал, что это лошадь. Моментально и не думая. Как нейросеть.


    1. ZhenyaZero
      16.08.2016 08:28
      -1

      Нет. Искусственный Идиот может только выдать ответ «лошадь». Он не знает, что это такое, для него задача заканчивается на выборе ответа. Интеллект должен именно иметь представление, что такое лошадь. Человек знает, что такое лошадь. Для него это больше, чем набор букв, даже для тех, кто живой лошади никогда не видел. Слово «лошадь» произносится только после того, как в сознании создан образ лошади, и является лишь одним из признаков этого образа, наиболее удобным для передачи информации другому человеку. В некоторых ситуациях слово «лошадь» будет не первым, или вообще не будет произнесено, даже про себя.


      1. samodum
        17.08.2016 01:54

        заблуждение…
        Слово «лошадь» произносить совершенно не нужно. Это лишь образ. Иногда облачаемый в слова.
        Вопрос: как человек формирует понятие «лошадь»? Ответ: на основании опыта: зрительной, слуховой и вербальной информации, единичек и ноликов.


    1. mx2
      16.08.2016 16:21

      Ничего подобного. Посмотрел на картинку — распознал лошадь в конкретной позе, вместе со всеми ее конечностями, особенностями, окрасом, окружением и прочим. Это небо и земля по сравнению с распознаванием картинок нынешними нейросетями. Если если лошадь будет нарисована с пятой ногой или зеленого цвета, то человек ее распознает, а нейросеть — нет, т.к. в обучении не было таких картинок.


      1. samodum
        17.08.2016 02:00

        Ошибочка. Современная нейросеть даже и такое распознает.
        Кстати говоря, лошадей с пятой ногой не существует, а значит, этот пример высосан из пальца и не имеет ничего общего с реальностью. Мы же говорим о реальных вещах, примеры которых имеют место в реальной жизни, а не вымышленной.


        1. mx2
          17.08.2016 02:24

          Нет, не ошибочка, нейросеть не знает, что такое лошадь, как она двигается, в каких позах может стоять. Если были лошади белые в выборке, то черную не распознает, если они всегда стояли, то не распознает прыгающую через барьер и так далее. Пример с пятой ногой — это нестандартная ситуация, где человек подумав скажет, что это лошадь, а нейросеть выдаст что угодно, т.к. не понимает (и не может понять) контекста.


          1. samodum
            17.08.2016 03:19

            Если я увижу лошадь с пятой ногой, то я подумаю — чтозахуйня? Я не причислю её к категории лошади.


            1. ZhenyaZero
              17.08.2016 06:47

              Тем не менее вы, несомненно, отличите лошадь с пятой ногой от тигра с пятой ногой. И при описании картинки большинство людей скажет «лошадь с пятой ногой», а не "думаю это кусок торта". А результаты нейросети на необычных и пограничных вариантах действительно плохо предсказуемы и часто выглядят полностью неадекватными.

              Есть и ещё один момент, про который часто забывают. Искуственная нейросеть при обучении обрабатывает очень много картинок. Для того, чтобы в принципе отличать лошадь от табуретки, нужны как минимум десятки тысяч картинок лошадей. А чтобы снизить количество ошибок с 30-50% до долей процента — сотни миллионов. Тот же IBM Watson даёт хорошие результаты именно благодаря тому, что это мощный суперкомпьютер, который может обработать всю эту информацию за приемлемое время. Человеческий мозг обладает на порядки меньшим быстродействием и использует для обучения на порядки меньшее количество информации, но почему-то выдаёт результат лучше. К примеру, по паре концепт-артов какого-нибудь монстра из игры человек за секунды распознает готовую 3D модель этого монстра, ранее никогда не виденного и находящегося совсем в другой позе и ракурсе. Для имеющихся ИИ это недостижимый идеал, они могут выдать верный результат лишь при наличии в базе обучения попиксельно похожей картинки, а лучше — нескольких.


              1. Xom
                17.08.2016 10:38
                -1

                Евгений, Вы очень точно выразили самый существенный на сегодня недостаток нейросетей, который не позволяет им носить гордое имя «интеллекта». Дело именно в том, что в мозгу есть нисходящие и восходящие потоки, взаимодействие который и приводит к постепенному выбору наиболее вероятной модели (концепта) «лошади», а все что в нее не вписалось (разница восходящего и выбранного нисходящего образа) вычленяется в отдельный образ или помеху. Именно поэтому мы видим все таки «лошадь», но с пятой ногой. Это можно почерпнуть еще у У. Найсера (1970-е) в его известном треугольнике восприятия.

                Кроме того, именно эта особенность не позволяет нейросетям быстро обучаться. С. Пинкер писал, что ребенку не хватило бы всей жизни, чтобы встретить в своей жизни столько разных картинок одного и того же, чтобы научиться их распознавать (цитата не точная). Собственно и Н. Хомски говорил ранее об этом же, только применительно к языковой компетенции. Ребенка распознанию нового образа можно научить, просто рассказа ему, что это такое. ОДИН РАЗ! И никто этой разницы нейросетей и мозга той мыши не учитывает. А это только один из моментов, есть еще много других принципиальных отличий. Недавно на TED появилось видео, где гугловцы научились генерировать картинки, возбуждая наученную ранее сеть (не без наших соотечественников обошлось, что приятно). Это первый шаг к нисходящим. Так что движение в верном направлении уже есть…

                С вашего позволения, я вставлю Ваш ответ в сам пост как отличный его итог, который я и хотел получить. Со своими дополнениями, если Вы не против.


    1. Xom
      16.08.2016 20:26

      Да, посмотрел и и сказал «лошадь». Как и нейросеть. Но разве в этом состоит интеллект? Я могу не только распознать лошадь, но и объяснить, почему я так решил.


      1. samodum
        17.08.2016 01:47

        Нет. Далеко не все люди могут это объяснить. Спроси ребёнка или продавщицу из магазина — они тебе не ответят почему так выбрали.
        Я почему-то всё больше убеждаюсь, что большинство людей не обладают интеллектом. Они живут, как роботы.
        И я уверен, что в ближайшем будущем и нейросеть сможет объяснить, почему она сделала этот выбор. Что тогда?


        1. mx2
          17.08.2016 02:29

          Вполне они расскажут, с ребенком могут быть проблемы только по части отсутствия словарного запаса и недопонимания из-за возраста, продавщица тоже сочтет вопрошающего неадекватом. В остальном на то есть психологические тесты с образами, рисованием и т.п.


  1. Roseluck
    16.08.2016 02:30
    +2

    Но ведь зачатки многообещающие?) Наш мозг по сути тоже представляет собой эдакий классификатор — поставь перед нами неизвестную нам вещь и мы определим её суть и назначение, отбросив неподходящие «выходы», придя к в итоге к одному или нескольким конкретным. И то не факт что угадаем.
    Кстати и мы, интеллектуальные человеки, тоже не умеем летать с большой скоростью среди веток и деревьев, да и вообще каких-то иных препятствий.) Тем более так безошибочно, как это умеет пчела. А среди нас даже профессионалы, например, на ралли ухитряются в кювет улетать. Да и вообще за это больше отвечает не интеллект, а органы чувств и рефлексы


    1. TxN
      16.08.2016 09:00

      Пчелы летают отнюдь не безошибочно. Они как и любые другие насекомые могут постоянно во что-то врезаться, но из-за их размеров им это ничем не грозит. Цена ошибки практически нулевая. Вот птицам уже хуже, поэтому нередко можно увидеть трупик птицы, не перенесшей столкновения с препятствием на скорости.


      1. Roseluck
        16.08.2016 09:42

        Я чаще вижу трупик птицы, которая сама стала легкопреодолимым препятствием для чего-то типа автомобиля.) Редко когда в статичной обстановке и птицы и пчелы во что-то врезаются, тем более насмерть.


        1. Alexey2005
          16.08.2016 15:03

          Существует всего один вид птиц, чьи нейросети настолько некачественны, что позволяют переехать своего носителя автомобилем и сбить футбольным мячом: это голубь.


          1. ZhenyaZero
            17.08.2016 06:55

            <crazy science mode on>голуби — это хайвмайнд, коллективный разум. Иногда он теряет одного голубя, потому что вычислительные ресурсы направлены на более важную с точки зрения этого разума задачу и не особо печалится по этому поводу.<crazy science mode off>
            Думаю, тут дело в том, что городские птицы намного реже подвергаются опасности и, как следствие, теряют осторожность. Шарахаться от каждого автомобиля оказалось для выживания менее выгодно, чем подвергаться небольшому риску быть сбитым. Тем более что на небольшой скорости водитель сам предпочтёт избежать столкновения с голубем.


    1. evgenyspace
      16.08.2016 20:12

      Если мозг «наш», то кто такие «мы», что определяем суть вещей? Вот эти «мы» и определяют сознание, что является величайшей загадкой и тем, что машина из себя не представляет и вряд ли когда-то представит


    1. Xom
      17.08.2016 10:45

      В том, что Вы написали и современными нейросетями — огромная разница. Она именно в том, как Вы точно описали сам процесс распознания неизвестной картинки людьми.«мы определим её суть и назначение, отбросив неподходящие «выходы», придя к в итоге к одному или нескольким конкретным». Мы можем анализировать картинку и с одного образца научиться распознавать их в дальнейшем. Сети надо подсунуть их несколько тысяч минимум, чтобы научить. Вот тут есть отличная формулировка у ZhenyaZero.

      На счет летать и «не интеллект, а органы чувств», так мы и их еще не умеем повторять, а то, что человек не умеет летать и поэтому не приспособлен к полету — ничего странного нет. Зато бегаем быстро. Речь не о приспособленности, а о приспособляемости.


    1. Sadler
      18.08.2016 11:41

      Наш мозг имеет преимущество в виде низкоуровневой структуры, способной строить псевдо-3d на основе типичной светотени, отражения и преломления света даже при наличии картинки лишь с одного глаза. Иногда это приводит к ошибкам, но чаще позволяет успешно пространственно оперировать объектами на плоской картинке. Современные глубинные нейросети лишены такой способности, для них картинки изначально плоские, поэтому сеть не вполне понимает различные пограничные случаи. Если мы хотим приблизить искусственные сети к пониманию процессов реального мира, нужно начинать учить их управляться с объёмом.


      1. Roseluck
        18.08.2016 12:00

        Интересное мнение. Кстати вообще хоть одну нейросеть подключали к камерам и прочим датчикам-сенсорам, чтобы она начинала изучать объекты реального мира?


        1. Sadler
          18.08.2016 13:21

          Подключали, в computer vision нейросети активно используются, включая свёрточные. Другое дело, не знаю, используют ли для этого пару камер, чтобы получать информацию об объёме. Для решения задачи обучения сети пониманию объёма (имхо) нужно сначала научиться успешно компоновать одну плоскую картинку по данным этих двух камер, а потом развернуть процесс, генерируя нечто вроде карты высот по плоской картинке. Такая карта позволит многим нейросетевым алгоритмам, связанным с обработкой изображений, работать значительно эффективнее.

          В качестве аналогии сложностей, с которыми сталкивается двумерная сеть, можете провести следующий мысленный эксперимент: попробуйте быстро и достоверно нарисовать в своём воображении куб. Легко, не правда ли? А теперь нарисуйте гиперкуб.


  1. Zonzen
    16.08.2016 08:56
    +1

    Человек — лишь одно из звеньев цепи естественной эволюции от биологического объекта к машине. Об этом ещё Лем писал 50 лет назад.


    1. Xom
      16.08.2016 09:11

      Как раз перечитываю Сумму технологий. Потрясающе. Его выводы и предсказания стали более точными, чем 18 лет назад, когда читал в первые.


  1. yamatoko
    16.08.2016 08:56

    ну и хорошо, что не умеют. лучше бы и не сумели, потому что в лучшем случае они будут работать на нас всех.а в худшем, только на богатых, а остальным будут платить минимальный базовый доход, чтобы с голодухи не умерли, потому что ИИ заберет работу у всех.


  1. ArtificialLife
    16.08.2016 08:56

    У пчелы не многим больше нейронов в голове, но она умеет то, на что ни одна современная нейросеть пока не способна — летать с большой скоростью среди веток и деревьев

    Boston Dynamics. Мне иногда кажется, что их двуногий робот ходит лучше менять.


    1. Xom
      16.08.2016 09:04

      Координация движений и «вестибулярного» (акселерометр) аппарата у них, конечно, достигнута потрясающая. Но их робот не может сам выбирать путь между деревьями, тем более со скоростью полета пчелы.


  1. zuborg
    16.08.2016 10:26

    Дополню статью следующим тезисом:

    Вот есть две программы, одна самообучается игре в Го и выигрывает у чемпионов, а вторая играть в Го не умеет вообще, но в состоянии написать первую программу (и улучшать её слабые стороны, анализируя их).
    Собственно, тезис заключается в том, что первая программа — это не искуственный интеллект, а интеллектуальный продукт, а вот вторая — интеллектуальный продьюсер (создатель интеллектуального продукта, т.е. собственно ИИ).

    И кстати, если второй тип програм ещё может представлять какую-то угрозу для человечества, то первый — навряд ли.


  1. andy_p
    16.08.2016 10:38

    > Какие проекты на сегодня по вашему мнению ближе всего к тому, что можно назвать если не интеллектом, то хотя бы когнитивным алгоритмом, а не просто «распознавалка картинок»?

    Нооскоп?


  1. Dasyo
    16.08.2016 20:21

    IBM Watson очень близок к тому что можно назвать ИИ. Но все же предстоит титанический труд, что бы довести его до подобия интеллекта.


  1. ilya_lysko
    16.08.2016 20:21

    Рекомендую прочитать книгу «Глаз разума» Дагласа Хофштадтера и Дэниела Деннетта.
    Проблемы, описанные в статье, крайне интересно рассмотрены в книге с точек зрения литературы, психологии, философии и ИИ.


    1. Xom
      17.08.2016 10:50

      Спасибо, читал отрывочно, Деннет — мой любимый автор с его интенциональным подходом к психики. Но все таки он пишет немного о другом. Отличие нейросети именно в структурном устройстве, выше тут смотрите комментарии ZhenyaZero и мой ответ ему. Причем эти отличия уже давно известны в когнитивной психологии, но почему то совершенно игнорируются программистами нейросетей. Междисциплинарность вопроса между тем очевидна.


  1. andybelo
    16.08.2016 20:21

    Наконец-то хоть один трезвый взгляд без шумихи и вранья.


  1. Cubicmeter
    16.08.2016 20:21

    Так мечтает сейчас о нейросетевом будущем его создатели. Говорят, что они скоро обгонят человека во всем.


    Раздутый ажиотаж. По-английски это называют словом hype. В истории ИИ это было уже не раз.


  1. Randl
    21.08.2016 17:46

    Мне казалось, что интеллект — это как минимум способность рассуждать. И пока ни одна сеть не может построить хотя бы простейший силлогизм, называть ее интеллектом мягко говоря рановато.

    Искусственный интеллект — это способность машины имитировать интеллектуальное поведение человека и область науки, изучающая эти способности.


    У пчелы не многим больше нейронов в голове, но она умеет то, на что ни одна современная нейросеть пока не способна — летать с большой скоростью среди веток и деревьев.

    Вот так?


    Все, и сами ученые, совершают одну и ту же эпистемилогическую ошибку. Они говорят, что сеть обладает интеллектом, потому что распознала лошадь на картинке!

    Они не говорят что сеть обладает интеллектом. Они говорят что сеть — это искусственный интеллект.


    Но нейросеть никакого представления о том, что она выбрала, не имеет. У нее нет понятия о «лошади» (семантики), «значение» выхода «лошадь» у нас в голове, а не в сети. Чтобы он был в самой нейросети, она должна выбрать не вход, не слово соответственно распознанной картинке, а все контекстуально связанные слова, то есть весь концепт «лошади». Тогда она, может быть, будет понимать, что лошадь и туманность имеют общее значение только в смысле облака космической пыли.

    Открою вам секрет, за распознавание лошади и за хранение концепции "лошадь" в голове отвечают разные участки мозга. Маленькая нейросеть симулирует маленький участок мозга.


    Самое слабые достижения нейронных сетей как раз в NLP

    Зато во множестве других областей нейронные сети людей обогнали.


    А в этом самый важный аспект, который мы хотели бы реализовать в машине.

    Если машина будет выполнять все мои задачи лучше меня, будет не важно, понимает она, что она делает или нет.


    Программа Google, сочиняющая подписи к изображениям, делает странные ошибки. Глядя на дорожный знак, например, она может назвать его набитым едой холодильником».

    Странные для людей, не понимающих, что другой интеллект работает по другому. С точки зрения компьютера может быть странно, как вы можете не различить десяток-другой пород кошек или собак.


    Выводы статьи вполне очевидны, но важнее понять, что почему такие отличия существуют и что делать дальше. Ваши предложения.

    Предлагаю осознать, что дорога длиной в 1000 ли начинается с одного шага.


  1. Xom
    21.08.2016 18:10

    Вот могу только согласиться почти со всеми приведенными доводами и поблагодарит за ссылку — к уровню пчелы уже приближаемся. Уточню только по поводу искусственного интеллекта — статья написана не как возражение против названия раздела copmuter science, а как возражение против наделения нынешних сетей достижением способностей человека. Да, в играх и зрении уже серьезные успехи, но это еще не интеллект в том смысле, которым обладает взрослый homo sapiens. Способ, которым достигнет сеть таких же способностей меня тоже не интересует, поезд тоже не похож на лошадь, а самолет на птицу, они просто быстрее и больше возят, чем лошадь. Но имитация должна достигать той же результативности, что и имитируемое. Желательно даже большей, что есть пока только в играх.

    Про дорожный знак не соглашусь. Фича или баг? Скорее все таки баг. Вот тут еще Д. Ветров анализирует как раз статью про такие ошибки очень интересно: «В недавно опубликованной статье „Интригующие свойства нейронных сетей“, на первый взгляд, получено два удивительных результата. Во-первых, вопреки распространенному мнению показано, что выходы отдельных нейронов имеют не больше смысла, чем случайная комбинация выходов нейронов с одного слоя. Во-вторых, у популярных архитектур нейронных сетей, используемых для классификации изображений, обнаружены „слепые пятна“: достаточно внести неуловимое глазом изменение в правильно классифицируемое изображение, и нейронная сеть начинает грубо ошибаться на модифицированной картинке» (цитата с постнауки).


    1. Randl
      21.08.2016 19:11

      Желательно даже большей, что есть пока только в играх.

      Watson диагнозы ставит лучше людей, например.


      Фича или баг? Скорее все таки баг.

      image
      Фича или баг?


      достаточно внести неуловимое глазом изменение в правильно классифицируемое изображение

      Это да, но обманывать сети тоже надо уметь.


      1. Xom
        21.08.2016 19:28

        Ватсон больше хвастается, чем распознает болезни. Принявших к использованию их алгоритм медучреждений очень мало. И даже там где приняли, решение принимает все равно доктор. У них не больше успехов в распознании болезни, чем у сверточной сети по снимкам томографии.


        1. Randl
          21.08.2016 19:39

          Принявших к использованию их алгоритм медучреждений очень мало.

          Понимаете разницу между уметь и делать?


          У них не больше успехов в распознании болезни, чем у сверточной сети по снимкам томографии.

          Определенный успех точно есть.