Зачем нам знаковые системы


Знаковая система выступает в роли переносчика мыслей, идей, эмоций, переживаний, ощущений, организации памяти – продуктов психических процессов, протекающий, по представлениям современной науки, в головном мозге человека и высших животных. Знаковая система – это средство указания на такие продукты. Похоже, что в настоящий момент единственный способ передать информацию о результатах работы мышления, памяти, эмоций, ощущений, воображении – закодировать эту информацию с помощью знаковой системы. Мы не можем (пока?) напрямую обмениваться мыслями, эмоциями, ощущениями, не прибегая к той или иной знаковой системе. Нам нужны знаковые системы, чтобы обмениваться результатами таких процессов. Знаковые системы являются спутником обозначенных процессов, а, возможно, существует обратная связь, при которой психические процессы эволюционируют под влиянием знаковых систем, развиваются совместно друг с другом.

По всей видимости, мысль никогда невозможно точно и однозначно выразить только средствами знаковой системы, т.е. кодирование – это аппроксимация, некая модель. Всегда есть возможность уточнить что-то, обозначенное знаком. Не зря существует выражение «подбирать слова» – попытка выразить мысль с помощью знаков. Абсолютно точного и однозначного выражения мысли посредством слов, скорее всего, не существует. Ученый для выражения научных мыслей, идей пишет не одно слово или предложение, а целый ряд статьей, каждая из которых всё ближе и точнее описывает то, что он хотел описать, выразить в своей работе. Ответ на вопрос, тождественен ли знак мысли, эмоции, скорее отрицательный.

Для примера рассмотрим ощущение красного цвета. Если агенты коммуникации знают, что такое красный цвет, имеют соответствующий чувственный опыт, они могут использовать любую подходящую знаковую систему для передачи информации об этом чувственном опыте: произнести слово «красный» или на листе бумаги нарисовать красный круг и показать этот знак друг другу. Если же такого опыта нет, то передать информацию о «красности» невозможно – невозможно рассказать о красном цвете тому, кто не знает, что такое красный цвет. Можно попытаться объяснить, что красный цвет – это электромагнитные колебания с длиной волны около 700 нанометров, но ощущение «красности» от такой информации не появится, знание о том, что такое красный цвет, по-прежнему будет недоступно, т.к. мы не обмениваемся чувственным опытом напрямую – мы обмениваемся знаками, указывающими, включающими, запускающими схожий чувственный опыт у других агентов коммуникации. Т.е. знак – это «обёртка» продукта психического процесса, но не сам продукт.

Барьер понимания


Отсюда вытекает проблема барьера понимания. Современные технологии ИИ довольно успешно решают вопросы, связанные с изучением знаковых систем. Очевидны успехи ИИ в распознавании образов (знаков): письменная речь (OCR), устная речь (Алиса, Siri), музыка (Shazam), изображения; в моделировании естественных языков: выделение частей речи, членов предложения и имен собственных, машинный перевод. Вместе с тем, всё это – примеры изучения и работы со знаковыми системами, не более. Вообще, в изучении знаковых систем человечество постоянно развивается. Возникновение и развитие письменности, науки, культуры, искусства, спорта – всё это тесно связано с изобретением, использованием, изучением и развитием знаковых систем.

Вычислительные возможности, использующие операции со знаками, также растут – начиная с вавилонского абака, изобретённого 3000 лет до н.э., и Паскалины Блеза Паскаля с Арифмометром Лейбница в XVII веке до современной вычислительной техники. И если в вопросах изучения и работы со знаковыми системами прогресс очевиден, то с моделированием психических процессов по-прежнему наблюдаются непреодолимые трудности.

У человека (животных?) знак автоматически увязывается с продуктом мышления, эмоцией и т.п., т.к. он эволюционно и предназначен для кодирования последних. У ИИ нет подобных продуктов, поэтому распознанные знаки ни с чем не увязываются, ничто не кодируют, а остаются как бы сами по себе, остаются просто «голыми» знаками без указания на что-либо вообще, т.е. не несут какой-либо осмысленной или прочувствованной нагрузки, отсутствует понимание распознанного знака. Так, человек, испытавший страх, знает, что это такое, и может об этом попробовать сообщить, т.е. передать и сохранить информацию о своем опыте чувственного переживания, используя владение какой-либо знаковой системой. Например, он может:

  • нарисовать изображение на стене пещеры;
  • написать сочинение на естественном языке;
  • сочинить стихотворение;
  • создать музыкальное произведение;
  • поставить знак смайлика в чате;
  • наконец, вообще ничего не сделать (пустой знак).

ИИ не знает, что такое страх, соответственно, он не может сопоставить страху какой-либо знак вообще. И ощутить какой-либо распознанный знак как страх он тоже не в состоянии. Автопилот под управлением ИИ, наезжая на препятствие на дороге, ничего не поймет, ничего не почувствует, не задумается, не расстроится, не обрадуется, не испугается, не будет никакой рефлексии. Таким образом, для ИИ любой знак ссылается на несуществующий продукт несуществующих у него психических процессов.

Барьер распознавания


Отсюда вытекает еще один барьер – барьер качества распознавания знаков. Под качеством понимается верность, правильность, точность распознавания знака по отношению к эталону. Качество ограничено барьером понимания. ИИ не может оценить качество распознанного образа, т.к. нет обратной связи со стороны мышления и других психических процессов с целью исправления ошибок распознавания. В предложении «ама ыла аму» человек, владеющий русским языком, скорее всего сможет восстановить искажённые знаки-слова.

Например, возможно такое восстановление смысла: «мама мыла раму», т.к. последовательность этих знаков кодируют знакомую шуточную поговорку, которая кодируется набором именно таких слов: «мама мыла раму». Человек смог восстановить неверно распознанные знаки-слова: «ама» -> «мама», «ыла» -> «мыла», «аму» -> «раму». Для ИИ же все три слова в предложении отсутствуют в словаре русского языка. Домысливания, «подгонки» под какой-либо понятный, известный смысл нет, т.к. в памяти ИИ собственно вообще нет никаких сохраненных смыслов. Вместе с тем, если у человека нет знакомых мыслей, кодирующихся похожими словами, слова «ама ыла аму» не увяжутся с какими-либо мыслями, просто потому что их нет, т.е. процессы мышления и кодирования взаимоувязаны и постоянно работают в связке. Видится, что это обусловлено эволюционно – любой встреченный знак должен быть декодирован, «докручен до», «подогнан под» какой-либо известный смысл, т.е. существует автоматическая потребность понять знак, узнать его, увязать с чем-то знакомым и понятным. Существует потребность понять, какую пользу и какой вред несет то, что было закодировано этим знаком. Человек мне улыбается – хорошо, собака на меня лает – плохо. Если не знать, что хорошо, а что плохо, ни улыбка, ни лай не несут никакого смысла. ИИ не знает, что хорошо, а что плохо для него.

При неудачной попытке сопоставить знак смыслу у человека могут возникнуть другие мысли на счёт этого предложения, которые он может выразить, например, такими словами: «я не понимаю, что это, пойду-ка я лучше отсюда», «что бы это могло значить, интересно?», «что за белиберда тут написана?», «возможно, имелось в виду «мама мыла раму», я не уверен, но лучше отвечу так на этот вопрос теста» и т.п. Т.е. в любом случае какой-то по поводу воспринятых знаков вывод будет сделан. Также возможен вариант ложного следа. Например, если источником текста служит электронное средство, где зачастую пренебрегают правилами орфографии, слова «ама» и «аму» могли бы в оригинале быть написаны с прописной буквы – «Ама» и «Аму», т.е. быть именами собственными. Осмысление такого набора знаков уже совсем не было бы связано с поговоркой «мама мыла раму». Можно пофантазировать и предложить такой вариант осмысления – «Ама была Аму» – некто Ама, женского пола, была представителем некоего племени Аму. Отсюда может возникнуть следующая мысль: Ама – это имя из иностранного языка, т.к. мои знания подсказывают мне, что в русском языке нет имени собственного Ама, да и о племени Аму я не слышал. Таким образом, мыслительный процесс раскручивается дальше и дальше, пока не будет сделан какой-либо вывод. Сама по себе правильность или ложность вывода неважна, главное – чтобы вывод был сделан. Вывод может быть верными и неверным, человек может быть прав или ошибаться в своих предположениях. Т.е. неверные, неточные, ошибочные, ложные знаки могут приводить к ложным умозаключениям. На этом основаны развлекательные и интеллектуальные игры, когда по неполной или противоречивой информации предлагается восстановить изначальный смысл. В такую игру мы только что сыграли выше – что было загадано в сообщении «ама ыла аму»: «мама мыла раму» или «Ама была Аму»?

См. также игру в испорченный телефон. Сюда же распознавание изображений – эффект «показалось, померещилось». Сюда же распознавание звуков – эффект «послышалось». Хорошим примером слуховых артефактов служит распознавание слов в тональных языках, например, в китайском. Слово «shi», будучи произнесённым восходящим тоном (обозначим shi2), означает число «десять», а нисходящим тоном (обозначим shi4) – глагол-связку «быть». Местоимение «я» по-китайски произносится как «wo» с нисходяще-восходящим тоном (обозначим wo3). Тогда фраза «wo3 shi4…» для человека, владеющего китайским языком, могла бы обозначать начало предложения «я есть…», «я являюсь…» или просто «я…». В то же время фраза «wo3 shi2…» звучит бессмысленно, т.к. ведёт по ложному следу – слушающий выстраивает мысль «я десять…», что бессмысленно согласно грамматике китайского языка. Но так как мышление пытается придать знакам смысл, оно будет пытаться сопоставить наиболее возможные варианты интерпретации «wo3 shi2…» – «я десять…» с целью получить ожидаемый результат. Например, собеседник может либо додуматься сам, либо переспросить: «ты, наверное, хотел сказать wo3 shi4 вместо wo3 shi2?»

Т.е. будет предпринята попытка восстановить искажённые знаки с целью получения в итоге какого-то адекватного смысла с точки зрения слушающего. ИИ на такое неспособен, т.к. у него нет точки зрения. Продукты работы других органов чувств имеют подобные артефакты распознавания.

Еще раз, у ИИ знаки ни с чем не могут быть увязаны, отсюда барьеры понимания и качества распознавания знаков. Для ИИ слон в обычной городской квартире, оказавшийся там по какой-то причине, обусловленной работой алгоритма распознавания изображений, – нормальная ситуация. Для человека – абсурд, т.к. здравый смысл подсказывает, что даже если слон, пускай это будет слонёнок, смог поместиться в квартире, то совсем непонятно, как он туда попал – дверь квартиры слишком узкая, чтобы он смог войти, грузоподъёмность лифта не соответствует массе слона и прочие ограничения реального мира. Следовательно, слон в комнате на картинке – это либо иллюстрация к сказке, либо фотомонтаж, либо вообще ошибка распознавания образов, т.е. мне показалось, что на картинке изображен слон – вывод сделан. У ИИ нет такого критического мышления, он не может понять смысл, переданный теми знаками, которые он смог распознать, не может исправить ошибку распознавания, не может делать выводы.

Изучение знаковых систем – тупик?


Изучение знаковых систем не позволяет изучать мышление и иные психические процессы, протекающие в головном мозге, непосредственно. Означает ли это, что изучение знаковых систем бессмысленно? Нет, не означает. Знаковые системы – это средство кодирования и передачи наших мыслей, поэтому нам фактически ничего не остается, как изучать первые. Других способов в гуманитарных науках – лингвистике, психологии, социологии и смежных с ними – попросту нет.

Единственную работу, какую мы можем проделывать, чтобы учиться лучше понимать наши мысли, – это изучать знаковые системы. Изучение знаковых систем не отвечает на вопросы структуры и свойств мышления – эти вопросы пока остаются открытыми. Знаки – это указатели на мысли, возможно, даже триггеры мыслей, но не сами мысли, а значит, и изучаем мы только указатели на сущности, но не сами сущности. Изучая знаковые системы, мы изучаем свойства знаковых систем, но не свойства тех сущностей, для кодирования которых данные знаковые системы используются.

Например, изучая лексику и синтаксис русского языка, мы изучаем знаковую систему русского языка, но не сами мысли, которые выражаются с помощью русского языка. Признаемся, сейчас даже непонятно, какова структура, каковы свойства именно у мыслей, а не знаков. Очевидно лишь то, что мысль может быть выражена с определённой степенью точности, приближения с помощью предположительно любой знаковой системы. Например, мысль, которая по-русски выражается словами «грусть», «грустно» может быть выражена с помощью таких знаковых систем:

  • русский язык: предложения «мне грустно», «им грустно» и т.п.;
  • английский язык: предложение «I feel sad», «they look sad» и т.п.;
  • художественное произведение, где будут преобладать холодные тона;
  • музыкальное произведение, где будут преобладать минорные тональности;
  • «грустным» танцем с плавными «печальными» движениями;
  • фотографией грустного лица какого-либо человека или животного;
  • смайлик :-( в современной культуре электронной коммуникации.

Точность передачи этой мысли вышеперечисленными знаковыми системами разная. Способность знаковых систем передавать мысли соответствует потребностям передачи мыслей настолько хорошо, насколько это вообще возможно с учетом возможностей живого организма: органы чувств, окраска, средства передачи танцев, феромоны и т.п. Именно поэтому в естественных языках так много неоднозначностей, неопределённостей и избыточности – всё это служит лишь одной цели – как можно точнее закодировать и передать мысли, эмоции и т.п., даже если для этого требуется введение избыточности и иных неоптимальных с точки зрения объёма передаваемой информации и времени передачи. Люди постоянно уточняют полученную информацию, стараются убедиться, что правильно поняли распознанные знаки, найти в них смысл: переспрашивают фразы, перечитывают тексты, переслушивают музыку, ищут новые смыслы в ранее распознанных знаках.

Парень прочитал в интернете, что девушка поправляет волосы – значит, он ей понравился. Глупо? Возможно, но такова наша природа – сопоставлять знаки со смыслами. Думать, искать решения, чувствовать, распознавать знаки и сопоставлять их смыслам, ставить цели – жить – психические процессы не останавливаются в течение всей жизни. ИИ же дела нет до входной и выходной информации, т.к. её не с чем сопоставить, не к чему привязать.

Знаковые системы несовершенны, но они – единственное, что дала нам эволюция для обмена продуктами психических процессов. Как знать, возможно, природа уже пробовала другие способы передачи, но они оказались неуспешными, и в итоге прижились именно знаковые системы.

Комментарии (333)


  1. altrus
    08.12.2018 22:39
    +1

    Если вы будете разбивать большие абзацы на более короткие, это значительно облегчит при прочтении восприятие заложенной в тексте мысли. Добавление пары подходящих по смыслу иллюстраций также будет очень полезной диверсификацией идеи автора в различные знаковые системы.

    Длинные монотонные абзацы символьной информации является барьером при передаче продуктов вашей психической деятельности читателям.


    1. totally_nameless
      08.12.2018 23:13

      Надеюсь вы сейчас про белковых читателей… Или нет..?


      1. semipro Автор
        09.12.2018 10:30

        О других мне неизвестно :)


    1. semipro Автор
      09.12.2018 10:30

      Спасибо за критику! Дебют всё-таки :).


  1. aram_pakhchanian
    08.12.2018 23:18
    +2

    Как я понимаю, автор имел ввиду то, что ИИ не является человеком, то есть не умеет интерпретировать знаки, порожденные одним человеком как результат внутренних переживаний, обратно в те ощущения, которые свойственны человеку. Проще говоря, у ИИ нет эмоций и ощущений, а множество текстов и прочих знаков порождены именно для этого. Однако непонятно, в чем собственно проблема. Как известно, ИИ благополучно учится у человека порождению взаимосвязанных знаков, которые вызывают у людей необходимые эмоции. Более того, в отличие от людей, которые могут генерировать только частные знаковые системы, не всегда эффективные для передачи эмоций другим людям, ИИ может, обучаясь множеству знаковых систем от разных людей, порождать наиболее универсальные конструкции, которые максимально эффективно воспринимается множеством людей. В частности, ИИ неплохо конструирует хитовую музыку. Собственно, весь смысл ИИ состоит в том, что, не повторяя психическую деятельность людей, он порождает знаки, воспринимаемые людьми именно за счет того, что люди во многом одинаковы (за счет того, что физически похоже устроены и учатся друг у друга) и одинаково воспринимают определенные знаки.

    Я также не уверен, что приведенные автором примеры восполнения недостающей инфрмации являются нерешаемой задачей для ИИ.


  1. lair
    09.12.2018 01:40

    ИИ нет подобных продуктов, поэтому распознанные знаки ни с чем не увязываются, ничто не кодируют

    Это как бы неправда. ИИ, очевидно, увязывает распознанные знаки с чем-то, иначе это нельзя было бы называть распознаванием.


    Автопилот под управлением ИИ, наезжая на препятствие на дороге, ничего не поймет, ничего не почувствует, не задумается, не расстроится, не обрадуется, не испугается, не будет никакой рефлексии.

    Почему же? Обратная связь в ИИ вполне существует.


    ИИ не может оценить качество распознанного образа, т.к. нет обратной связи со стороны мышления и других психических процессов с целью исправления ошибок распознавания.

    Может. Для банальной задачи классификации система машинного обучения способна отдавать вероятность принадлежности к конкретному классу — вот вам и оценка качества.


    Для ИИ же все три слова в предложении отсутствуют в словаре русского языка. Домысливания, «подгонки» под какой-либо понятный, известный смысл нет

    Вы хотя бы в Яндекс пробовали вбить ваше предложение? Есть системы, которые восстанавливают искаженную информацию.


    ИИ на такое неспособен, т.к. у него нет точки зрения.

    И это неправда. В частности, это хорошо видно на системах автоматического субтитрования, которые поправляют предыдущее предложение по ходу поступления новых слов.


    у ИИ знаки ни с чем не могут быть увязаны

    Что значит "не могут"? Вы говорите о принципиальной невозможности? Но на чем вы это основываете?


    1. vlad9486
      09.12.2018 03:19

      Я думаю, что здесь имелась ввиду дискретность знаковых систем и их обработки. В мозгу человека происходят процессы, описываемые действительными числами, но люди при общении используют дискретные языки. Для людей это нормально, ведь они похожи и могут правильно связать знаки с соответствующими непрерывными процессами в мозгу. А для машин нельзя использовать только знаковые системы, обязательно нужно дополнять (нейронками наверное, в которых действительные числа).


      1. lair
        09.12.2018 11:44

        Ну то есть людям можно использовать "процессы, описываемые действительными числами", а потом выражать их в знаковой системе, а потом обратно запускать "процесс, описываемый", а компьютерам — нельзя? Почему?


        1. vlad9486
          09.12.2018 21:30

          Та тоже можно. Но для этого там должен происходить такой процесс. Он и происходит, если есть нейронки, или что-то такое. Я сам до конца не понимаю автора, но по-моему он о том, что одних только знаковых систем недостаточно.


          1. lair
            09.12.2018 21:54

            Ну так и происходит. Среди алгоритмов машинного обучения не работающих с действительными числами — меньшинство.


          1. semipro Автор
            09.12.2018 21:59

            он о том, что одних только знаковых систем недостаточно.
            Именно. Они хороши. Я не представляю, как бы вёл эту дискуссию без такой сложной знаковой системы как «русский письменный язык», но эта переписка, использование этой знаковой системы не отвечает на вопрос, как я мыслю, и как повторить подобное мышление.


    1. semipro Автор
      09.12.2018 11:12
      -1

      ИИ, очевидно, увязывает распознанные знаки с чем-то, иначе это нельзя было бы называть распознаванием.

      А с чем именно увязывает? Вот простой пример: может ли ИИ отличить живого кота от изображения кота, в том смысле, чтобы сказать, что этот кот — настоящий, а этот — нарисованный? Вот пример: В Китае система по распознаванию лиц приняла фото девушки на автобусе за реального человека и оштрафовала её за нарушение ПДД.
      Распознавание для ИИ (сейчас во всяком случае) — это отличить букву «А» от буквы «Б», не более того. Что стоит за буквами «А» и «Б» — ИИ недоступно для понимания.

      это хорошо видно на системах автоматического субтитрования

      я лично работаю с такой системой на youtube, мой опыт в двух словах — слабо и непредсказуемо. Почему? Потому что упираемся в обозначенные в статье барьеры.

      о принципиальной невозможности?

      Не думаю, что это принципиально невозможно, но пока, да, невозможно. Думаю, прорыв возможен не через анализ знаковых систем, а через изучение анатомии и физиологии, и то не факт.


      1. lair
        09.12.2018 11:48
        +2

        А с чем именно увязывает?

        С тем, что необходимо в задаче.


        Вот простой пример: может ли ИИ отличить живого кота от изображения кота, в том смысле, чтобы сказать, что этот кот — настоящий, а этот — нарисованный?

        Соответствующим образом обученный ИИ — может.


        Распознавание для ИИ (сейчас во всяком случае) — это отличить букву «А» от буквы «Б», не более того. Что стоит за буквами «А» и «Б» — ИИ недоступно для понимания.

        Знаете, музыканты тоже отличают ноту "соль" от ноты "ля", но никто не может сказать, "что стоит за нотами".


        Собственно, дело в том, что вы не можете дать такое определение "понимания", которое бы с одной стороны не выполнялось той или иной системой ИИ, а с другой — не было бы изначально человекоцентрично.


        я лично работаю с такой системой на youtube, мой опыт в двух словах — слабо и непредсказуемо.

        Ну так дети тоже "слабо и непредсказуемо" пишут. Будем делать вывод, что люди неспособны писать?


        Думаю, прорыв возможен не через анализ знаковых систем, а через изучение анатомии и физиологии

        А прорыв в строительстве автомобилей возможен через изучение физиологии лошадей, вероятно.


        1. semipro Автор
          09.12.2018 14:24
          -1

          Знаете, музыканты тоже отличают ноту «соль» от ноты «ля», но никто не может сказать, «что стоит за нотами».
          За нотами стоит музыка — сложная знаковая система, с помощью которой люди передают свои эмоции, переживания и иные продукты психической деятельности. Разным людям нравится разная музыка, состоящая из разных нот и законов, их связывающих. А какая музыка нравится компьютеру? Что он чувствует, когда «сочиняет» и исполняет музыку? Я могу описать свои ощущения. В статье приведено два примера возможного описания ощущений «красности» и «грусти».

          вы не можете дать такое определение «понимания», которое бы с одной стороны не выполнялось той или иной системой ИИ, а с другой — не было бы изначально человекоцентрично.
          Это как раз объяснимо и не противоречит тезисам в статье. Всё, что делает человек, — «антропоцентрично». Мы не может действовать за рамками возможностей нашего вида. По-моему, это банально и не требует объяснений. Впрочем, если Вам интересен более развёрнутый ответ, я могу объяснить, почему это банально.

          Ну так дети тоже «слабо и непредсказуемо» пишут. Будем делать вывод, что люди неспособны писать?
          Вы искренне считаете, что дети и компьютеры делают одни и те же ошибки по своей природе вещей, по тому, что это за ошибки, по, если так можно выразиться, качеству этих ошибок? И ещё момент, не знаю откуда взявшийся: почему-то часто прибегают к сравнению ИИ с интеллектом детей. С какой целью это делается? При этом при разработке приложений ставятся амбициозные задачи превзойти возможности взрослого профессионального человека, имеющего образование и опыт, например, переводчика или водителя, но при этом, чуть что, сразу: «Ну так дети тоже „слабо и непредсказуемо“ пишут». А еще и машины плохо водят, да?

          А прорыв в строительстве автомобилей возможен через изучение физиологии лошадей, вероятно.
          Зачем же передёргивать? Впрочем, отчасти да :), если принять, что автомобиль и лошадь — это инструменты для совершения работы. Не зря до сих пор существует термин «лошадиная сила». Ну и главное — изобретённым автомобилем управляет человек. До сих пор человек разрабатывал системы, работающие под его управлением. Начиная с середины XX века у человечества почему-то возникло ощущение, что он способен создать систему, как минимум равную ему или превосходящую его по скорости и качеству в анализе информации и принятии решений. При этом сам человек не знает, как он анализирует информацию и принимает решение. Более того, если я правильно уловил Вашу основную мысль, нам и не надо знать, как устроены и функционируем мы сами. Если серьёзно, текущий подход к решению задач ИИ — распознавание образом на базе анализа миллионов изображений, поиск смысла текстов на базе word2vec — я бы осмелился назвать наивным подходом, романтикой чистой воды. Еще чуть-чуть, подсоберём статистики и переводчиков можно увольнять.


          1. lair
            09.12.2018 14:37
            +2

            За нотами стоит музыка — сложная знаковая система, с помощью которой люди передают свои эмоции, переживания и иные продукты психической деятельности.

            Неа. Музыка — это музыка, а ноты — это ноты. Говорить, что за нотами стоит музыка — это то же самое, что говорить, что за буквами стоит литература (очевидно, нет). Между нотами и музыкой нет взаимной зависимости, можно иметь ноты без музыки, можно иметь музыку без нот.


            И это как раз подтверждает, что нет понимания "что стоит за нотами". Нота — символ, в который каждый вкладывает то, что ему хочется.


            Всё, что делает человек, — «антропоцентрично».

            Антропоцентрично (да и то не всегда), но не антропоморфно. Проблема антропоцентричного определения мышления в том, что оно делает невозможным нечеловеческое мышление.


            Вы искренне считаете, что дети и компьютеры делают одни и те же ошибки по своей природе вещей

            Я искренне считаю, что делать по наличию ошибок вывод о невозможности — необснованно.


            При этом при разработке приложений ставятся амбициозные задачи превзойти возможности взрослого профессионального человека, имеющего образование и опыт

            Ну да. В конкретной узкой области. То, что взрослые профессиональные музыканты пользуются тюнерами, показывает, что это возможно.


            При этом сам человек не знает, как он анализирует информацию и принимает решение.

            Люди много веков успешно пишут музыку, но до сих пор никто не может объективно объяснить, почему музыка воздействует на человека так или иначе. Это никому не мешает.


            Более того, если я правильно уловил Вашу основную мысль, нам и не надо знать, как устроены и функционируем мы сами.

            Я просто отделяю физиологию от методов анализа и принятия решений.


            1. semipro Автор
              09.12.2018 15:07

              Неа. Музыка — это музыка, а ноты — это ноты.
              Музыка — это сложная знаковая система для передачи продуктов психических процессов. Передавать можно, что угодно, хоть цифры клавиатуры телефона. Но обычно музыка используется для передачи настроения, чувств, эмоций. Нота — это знак этой знаковой системы. Знаки увязаны синтаксисом, иначе это была бы не музыка, а какофония. Есть консонантные и диссонансные интервалы. Есть размер и еще много вещей, которым люди профессионально учатся. Но всё это — всего лишь инструмент для передачи чего-го, что важно какому-то конкретному человеку. И если найдется хотя бы ещё один человек, который сможет знаки-ноты декодировать и связать со своим чем-то важным, то такая музыка ему понравится. А что важно для компьютера? Что с помощью нот он сможет закодировать?

              Проблема антропоцентричного определения мышления в том, что оно делает невозможным нечеловеческое мышление.
              Не вижу здесь проблемы. Или мы хотим научится думать, как собака или инопланетянин? Пока обмена знаками хватало. Если собака лает, я не знаю, что у неё в голове, но знака «лай» мне достаточно для принятия решения. Если инопланетяне стреляют в меня из лазера, надо: 1) уклониться, спастись, а потом 2) думать, что делать дальше, как их победить, как перехитрить и выжить самому.

              Я искренне считаю, что делать по наличию ошибок вывод о невозможности — необснованно.
              В статье используется слово «пока». Я не утверждаю, что это никогда не будет возможно. Я лишь выразил своё отношение к текущему положению дел.

              тюнерами, показывает, что это возможно
              В тюнерах не используются технологии ИИ. Там всё проще, возможно, именно поэтому они и работают :)

              Люди много веков успешно пишут музыку, но до сих пор никто не может объективно объяснить, почему музыка воздействует на человека так или иначе. Это никому не мешает.
              Но люди знают, что они чувствуют, когда сочиняют и слушают музыку. И могут выразить свои знания, ощущения, возможно, даже какие-то мысли с помощью музыки. А что чувствует программа?

              Я просто отделяю физиологию от методов анализа и принятия решений.
              Вы голодны. Какой приоритет принятия решений: сначала поесть или посмотреть телевизор?


              1. lair
                09.12.2018 15:15
                +1

                Музыка — это сложная знаковая система для передачи продуктов психических процессов.

                Йеп. Но это не отвечает на вопрос "что стоит за нотой "соль"".


                Не вижу здесь проблемы. Или мы хотим научится думать, как собака или инопланетянин?

                Я не знаю, чего хотите вы. Я знаю, что до тех пор, пока мы говорим, что мышление принципиально присуще человеку, компьютерное мышление невозможно по определению.


                В тюнерах не используются технологии ИИ.

                Ну то есть давайте заменим термин "ИИ" на термин "логистическая регрессия" — и вы сразу допустите, что система на основе этого алгоритма может делать классификацию счетов не хуже человека?


                Но люди знают, что они чувствуют, когда сочиняют и слушают музыку

                Не обязательно. И еще более не обязательно они знают, что почувствуют другие. И уж точно никто не знает, почему они это чувствуют. Это, однако, не мешает сочинять музыку. Но почему-то незнание того, как человек принимает решения, должно мешать другим системам принимать решения.


                Какой приоритет принятия решений: сначала поесть или посмотреть телевизор?

                Вот я голоден, но переписываюсь с вами.


                Ну и да, вы путаете метод принятия решения с входными данными для принятия решения.


                1. semipro Автор
                  09.12.2018 16:32
                  -1

                  Ну то есть давайте заменим термин «ИИ» на термин «логистическая регрессия»
                  Приведите марку/модель такого тюнера, почитаю, интересно. Пока таких не встречал.

                  Не обязательно.
                  Если кто-то (человек) или что-то (компьютер) не знает, что он делает, результат получается соответствующий. И как подтверждение — неадекватные действия неадекватных людей и примеры работы текущих систем ИИ.

                  Вот я голоден, но переписываюсь с вами.
                  А программа так умеет? Т.е. принимать нерациональные или непредсказуемые решения? Я Вам подскажу: нет, потому что программы создают люди с целью как можно рациональнее решать задачи, в них фантазии и иррациональность изначально не закладываются.

                  Ну и да, вы путаете метод принятия решения с входными данными для принятия решения.
                  А можно поконкретнее.


                  1. lair
                    09.12.2018 16:43
                    +1

                    Приведите марку/модель такого тюнера, почитаю, интересно. Пока таких не встречал.

                    Я не об этом. Вы говорите, что тюнеры работают, потому что они простые. Я не понимаю, как наличие или отсутствие шильдика "ИИ" меняет суть: есть система, превосходящая человека в решении конкретной задачи.


                    Если кто-то (человек) или что-то (компьютер) не знает, что он делает, результат получается соответствующий.

                    Эм. Что такое "знать, что делать" применительно к сочинению музыки?


                    Т.е. принимать нерациональные или непредсказуемые решения?

                    Во-первых, мое решение рационально. Во-вторых, да, программы умеют принимать непредсказуемые решения.


                    А можно поконкретнее.

                    То, надо мне поесть или нет, можно определить алгоритмически, вообще не привязываясь к физиологии моего мозга. Входные данные — моя физиология, но метод принятия решения — формальный алгоритм, который может быть выражен в любой решающей системе.


                    1. semipro Автор
                      09.12.2018 18:13

                      То, надо мне поесть или нет, можно определить алгоритмически, вообще не привязываясь к физиологии моего мозга. Входные данные — моя физиология, но метод принятия решения — формальный алгоритм, который может быть выражен в любой решающей системе.
                      Пока примером интеллектуального решателя является только головной мозг, а он на 150 % привязан к работе всего организма его хозяина. Я правильно понял, что Вы искренне верите, что формальный алгоритм сможет быть решателем? Почему до сих этого не произошло?


                      1. lair
                        09.12.2018 18:16

                        Я правильно понял, что Вы искренне верите, что формальный алгоритм сможет быть решателем?

                        Ну да.


                        Почему до сих этого не произошло?

                        Чего не произошло? Решатели уже есть.


                        1. semipro Автор
                          09.12.2018 19:19

                          Ну да.
                          Точка зрения понятна, спасибо.

                          Решатели уже есть.
                          Приведите пример хороших решателей. Я тоже могу «решать» уравнения квантовой механики или «сочинять» музыку. Только, думаю, людям в этом разбирающимся это будет, мягко говоря, неинтересно.


                          1. lair
                            09.12.2018 19:20

                            Приведите пример хороших решателей.

                            SVM.


                          1. DjSapsan
                            09.12.2018 20:23

                            Решатели сверхвысокого уровня — SHRDLU (1970 г!), AlphaZero, современные автопилоты и тд.
                            Программы (даже без багов) всё же поступают нерационально. Пример — 99.9% программ в мире. Как это проявляется? Неверный путь в автопилоте, зевки в шахматах и тд. Проблема человеческой точки зрения на машины в том, что чаще всего мы можем посмотреть «под капот» и указать откуда происходит данное поведение. Но без такой возможности всё превращается в магию. И это на самом деле наблюдается сегодня. Непосвященные гуманитарии приписывают машинам чудесные и сверхъестественные свойства.
                            Прикол в том, что как только мозг человека будет разобран до нейрона, вся магия тут же пропадет. Так что не нужно преждевременно хоронить ИИ


                            1. semipro Автор
                              09.12.2018 20:49

                              А тут товарищ утверждает, но физиология нам не нужна. Он правда сам скорее всего пользуется нейросетями, которые подсмотрели у людей. Парадокс однако.


              1. lair
                09.12.2018 15:21

                А что чувствует программа?

                А, да, еще важный момент. Одно из качеств, отделяющих профессионального композитора от любителя — умение писать музыку о тех эмоциях, которых она сама не ощущает. Нам заказали написать музыку на коронацию — мы пишем пафосно и радостно. Мы знает, что вот такой-то набор средств вызывает ощущение пафоса и радости — мы его и применяем. Мы знаем, что вот такой-то набор средств приемлем (например, такая-то доля и такие-то положения диссонансов) — мы придерживаемся этой практики.


                По большому счету, это все опять сводится к китайской комнате и ее критике.


                1. semipro Автор
                  09.12.2018 16:44

                  К сожалению, Вы опять запутались. Здесь другое. Профессиональное создание музыки на заказ — это не только эмоциональное состояние, но и мышление. Я естественно не могу сказать за человека, но сомневаюсь, что человек, пишущий музыку, совсем ничего не чувствует. Он же не робот :) Научите компьютер мыслить, чувствовать, и таки-да, я доверю ему написание музыки. Тут выше был комментарий про то, как «ИИ неплохо конструирует хитовую музыку», я просто ещё не успел на него ответить. Что-то где-то уловили, да, запрограммировали, тут нужная гамма, там нужная тональность, но слушать это больше минуты невозможно, несерьёзно это, игрушки. И вообще, Вы можете мне сказать, почему ИИ до сих только в игры играет? Правда интересно. Ну там шахматы, го, арканоид. Где серьёзные жизненные приложения?

                  опять сводится к китайской комнате
                  Почему тогда нет реально ощутимых успехов?


                  1. lair
                    09.12.2018 16:50

                    Я естественно не могу сказать за человека, но сомневаюсь, что человек, пишущий музыку, совсем ничего не чувствует. Он же не робот

                    У вас опять циклическое определение. "Я сомневаюсь, что человек, пишущий музыку, совсем ничего не чувствует, потому что он не робот", и при этом "робот не может писать музыку, потому что он ничего не чувствует". Так вот, я вам скажу честно: я сильно больше одного раза писал музыку, когда единственным ощущением от этого процесса было удовлетворение от решения задачи.


                    Где серьёзные жизненные приложения?

                    А что такое "серьезное жизненное приложение"? Возможность глухому англоговорящему говорить с китайцем, когда приложение на телефоне понимает английскую речь глухого (поверьте, человеку это очень сложно), потом озвучивает ее по-китайски, потом воспринимает китайский и воспроизводит его в тексте на экране — это достаточно серьезное жизненное приложение? Автоматическое субтитрование конференции в реальном времени на пять, что ли, языков — это серьезное жизненное приложение?


                    Почему тогда нет реально ощутимых успехов?

                    Вопрос ваших критериев "реально ощутимых успехов".


                    1. semipro Автор
                      09.12.2018 18:34

                      я сильно больше одного раза писал музыку, когда единственным ощущением от этого процесса было удовлетворение от решения задачи.
                      Так Вы этим только подтверждаете тезисы статьи. У Вас есть эмоции, мотивация — психические процессы, которые сподвигли Вас на интеллектуальную деятельность. Да, написание музыки, получение удовольствия, эмоции — это естественно тоже интеллектуальная деятельность. Или Вы под интеллектом понимаете исключительно решателя задач? Тогда тем более почему он до сих пор не создан, если ему не нужна всякая чепуха вроде эмоций и удовольствия?

                      Вопрос ваших критериев «реально ощутимых успехов».
                      Мне кажется это очевидным. Надёжные практические приложения для пользы людей, которые можно продавать и зарабатывать (в капитализме всё-таки живём). Пример: письменный перевод текстов с одного языка на другой. Результат работы человека-переводчика можно продать. Результат работы гугл-переводчика? Машина-автопилот может, перемещаясь по улицам любого реального города, доставить пассажиров и груз? А машина с человеком-водителем может. Вот и ответы. Элементарно, Ватсон. Как только люди получат безопасные, надежные, экономически-эффективные решения, удовлетворяющие их потребностям, я первым сниму шляпу. Я сам жду этого с нетерпением, и даже готов бы заниматься, но увиденные мною барьеры не позволяют мне потратить время на мой взгляд тупиковую деятельность. Вроде всё, что создаёт человек, направлено на удовлетворение этих критериев, нет? Но почему-то именно сфера ИИ окутана ореолом романтики, чаяний и т.п. моментов, так свойственных людям. Люди, особенно учёные, любят мечтать, фантазировать, искать жизнь на Марсе, ну Вы поняли :). Конкретные задачи неплохо бы решать: как выхлопные газы от автомобилей уменьшить. Может ИИ такую задачу решить?


                      1. lair
                        09.12.2018 18:48
                        +1

                        Так Вы этим только подтверждаете тезисы статьи.

                        Не, не подтверждаю. Удовлетворение от решения задач — это обычное обратное подкрепление, котрое используется в машинном обучении.


                        Тогда тем более почему он до сих пор не создан, если ему не нужна всякая чепуха вроде эмоций и удовольствия?

                        А почему универсальная теория вселенной еще не создана? Ей тоже не нужна всякая чепуха вроде эмоций и удовольствия.


                        Надёжные практические приложения для пользы людей, которые можно продавать и зарабатывать

                        А, так этого добра навалом. Анализ аномалий, категоризация, кластеризация, распознавание образов, распознавание речи — уже здесь.


                        Результат работы человека-переводчика можно продать. Результат работы гугл-переводчика?

                        Ну да. В Евросоюзе давно используется для перевода законов. Да ладно, Евросоюз: я ежедневно вижу, как коллеги им пользуются для разных задач.


                        1. semipro Автор
                          09.12.2018 19:56

                          Удовлетворение от решения задач — это обычное обратное подкрепление
                          Я всегда хотел спросить у специалистов в области ML: вы правда в это верите? Вот прям искренне, в глубине души, верите в то, что «Удовлетворение от решения задач — это обычное обратное подкрепление»?

                          А почему универсальная теория вселенной еще не создана?
                          Так там никто хайпа в виде чемпионатов по го и не разводит. Тихо себе работают, что-то пытаются там на коллайдере воссоздать. Ну бывают журналистские сенсации, не более. Так где ж их нет. А тут ведь прям «впаривают». Разработали голосового помощника. Да этой программе до голосового помощника как мне до луны пешком.

                          А, так этого добра навалом. Анализ аномалий, категоризация, кластеризация, распознавание образов, распознавание речи — уже здесь.
                          Именно поэтому в Китае робот выставил штраф фотографии. Я тут ссылку приводил, Вы смотрели? Это, по-вашему, — хороший пример практического использования? Я тут на днях тестировал как раз распознавание образов от очень и очень известной компании. Ввожу фотку с людьми, пересекающими (!) улицу. Читаю описание распознанного: люди идут вдоль улицы. Это — катастрофическая ошибка. Вдоль и поперёк — такая ошибка может стоить жизни.

                          как коллеги им пользуются для разных задач
                          Я им тоже пользуюсь. Но когда мне понадобится перевод, я обращусь в бюро переводов.
                          Вы так и не привели ни одного примера, соответствующего критериям надёжности, безопасности и коммерческой пригодности.


                          1. lair
                            09.12.2018 19:59

                            Вот прям искренне, в глубине души, верите в то, что «Удовлетворение от решения задач — это обычное обратное подкрепление»?

                            Я верю в то, что это достаточная модель.


                            Это, по-вашему, — хороший пример практического использования?

                            Это хороший пример ошибки. Люди тоже ошибаются.


                            Вы так и не привели ни одного примера, соответствующего критериям надёжности, безопасности и коммерческой пригодности.

                            А, вот и аргумент истинного шотландца. Я не собираюсь подбирать примеры так, чтобы они соответствовали вашим (постоянно повышающимся) критериям.


                            1. semipro Автор
                              09.12.2018 20:36

                              Я верю в то, что это достаточная модель.
                              Ок, понятно.

                              Это хороший пример ошибки. Люди тоже ошибаются.
                              Люди несут ответственность за свои ошибки. ИИ или его разработчики несут ответственность за ошибки ИИ?

                              вашим
                              У Вас другие критерии надёжности, безопасности, экономической эффективности? Какие же они? И да, если не хотите приводить примеров, не приводите, но и не требуйте примеров на свои вопросы от меня, так будет хотя бы честно ;)


                              1. lair
                                09.12.2018 21:57

                                Люди несут ответственность за свои ошибки.

                                Или не несут, а несут совершенно другие люди. Или вовсе организации.


                                ИИ или его разработчики несут ответственность за ошибки ИИ?

                                Определите, что значит "нести ответственность".


                                У Вас другие критерии надёжности, безопасности, экономической эффективности? Какие же они?

                                Ну так я написал рядом: для конкретной задачи надежным считается такой алгоритм, который ошибается не более одного раза из двадцати (а экономически эффективным — такой, который делает не менее половины предсказаний). Ну а требования к безопасности такие же, как к обычному ПО.


                                1. semipro Автор
                                  09.12.2018 22:34

                                  Определите, что значит «нести ответственность».
                                  Машина-автопилот сбила человека по вине водителя, кого привлекут к ответственности? В случае с водителем-человеком привлекут человека.

                                  ошибается не более одного раза из двадцати (а экономически эффективным — такой, который делает не менее половины предсказаний
                                  Неубедительно, откуда такие цифры? Т.е. если система ошибается макс в половине случаев, она уже эффективна? Я бы не купил такую систему :/. Я бы бесплатно монетку подбрасывал, чтобы получать хотя бы 50/50.


                                  1. lair
                                    09.12.2018 22:37

                                    Машина-автопилот сбила человека по вине водителя, кого привлекут к ответственности?

                                    Сейчас — компанию-производитель (насколько мне известно). У закона просто нет способов воздействия на автопилот.


                                    Неубедительно, откуда такие цифры?

                                    Из расчета потраченного времени.


                                    Т.е. если система ошибается макс в половине случаев, она уже эффективна?

                                    Нет, система эффективна, если для 100 проходящих объектов она делает суждение о 50 (об остальных она не делает суждения, оставляя их оператору-человеку), и из этих 50 — 48 правильные. В нашем, повторюсь, конкретном случае.


                          1. lair
                            09.12.2018 20:03

                            Вы так и не привели ни одного примера, соответствующего критериям надёжности, безопасности и коммерческой пригодности.

                            Мы вот тут для себя делали прототип системы классификации, так вот, там критерий успешности был очень простой: одна ошибка на двадцать предсказаний. Ну и что, вполне достижимое значение, даже на "традиционных" алгоритмах.


                            Stay tuned for GA announcement, что называется.


                            1. semipro Автор
                              09.12.2018 22:34

                              Stay tuned for GA announcement, что называется.
                              Дык в процессе. Всё пугаете :)


      1. kova1ev
        09.12.2018 20:55

        Вот простой пример: может ли ИИ отличить живого кота от изображения кота, в том смысле, чтобы сказать, что этот кот — настоящий, а этот — нарисованный?


        Думается, у человека с этим тоже проблемы могут быть. Вы отличите, например, профессиональный 3d рендер интерьера комнаты от натурной съемки?


        1. semipro Автор
          09.12.2018 20:59

          Можно пример, ссылку? Я не знаю, что такое

          профессиональный 3d рендер интерьера комнаты
          . И потом, пример искусственен. Я про обычные фото и изображение обычного кота.


          1. DjSapsan
            09.12.2018 21:11

            KKKKKKKKKKKKКKKKKK
            Где тут кириллица, а где латиницa?


            1. semipro Автор
              09.12.2018 21:14

              Без понятия. А в чём суть вопроса?


              1. DjSapsan
                09.12.2018 21:32

                Вы говорите, что ИИ спутал фотку с реальностью. И что? Вы лучше? Вы даже в простейшем примере не найдете где К а где К


                1. semipro Автор
                  09.12.2018 21:55

                  Так соль в том, что мне это и не надо :) У человека нет кодировок. Будучи написанными на стене, для меня все эти буквы русский, а для француза — французские, а для китайца — китайские. Когда я говорил, что без понятия, я имел в виду, что не знаю, какая из них какому алфавиту принадлежит. Давайте я приму решение: здесь изображены несколько (лень считать) латинских букв «ка».


                  1. DjSapsan
                    09.12.2018 22:00

                    Суть в изображении. Пиксели в этих символах отличаются, а вы их не заметили. В более сложных задачах ошибки намного проще допустить. Где отличие человека от сложной машины?


                    1. semipro Автор
                      09.12.2018 22:38

                      От этого кто-то «умер»? В чём практическая польза распознавания букв «ка»?


                      1. DjSapsan
                        09.12.2018 23:05


                        1. semipro Автор
                          10.12.2018 09:08

                          Перечитал ещё раз.

                          Пиксели в этих символах отличаются, а вы их не заметили.
                          Значит, эти пиксели несущественны, т.е. не мешают мне распознать эти символы как буквы «ка». Вот если бы среди них была буква «А», а я этого не заметил, вот это было бы странно.


                          1. DjSapsan
                            10.12.2018 09:54

                            Так же пиксели в фотографии несущественно отличаются от пикселей реального человека


                            1. semipro Автор
                              10.12.2018 10:06

                              А как ИИ отличает живого человека от его фотографии? Надо или не надо отличать фото человека на баннере от живого человека на дороге? Любой человек делает это на раз.


          1. kova1ev
            09.12.2018 21:30

            image

            это фотография реальных объектов, как вы считаете?

            а насчет искусственности примера: я думаю, неплохой художник вполне может нарисовать муху на стене, которую кому-нибудь захочется прихлопнуть. Помню, аватарки такие были в моде, когда кажется что по экрану мошка ползает и рука тянется смахнуть, а это гифка нарисованная.

            Разве человеку не присуще то, что мы обычно называем «обманом зрения»?


            1. semipro Автор
              09.12.2018 21:57

              Подумал-подумал и принял решение: картинка нарисованная. А с мухой, да, было прикольно :)


  1. semipro Автор
    09.12.2018 10:53

    Собственно, весь смысл ИИ состоит в том, что, не повторяя психическую деятельность людей, он порождает знаки, воспринимаемые людьми именно за счет того, что люди во многом одинаковы (за счет того, что физически похоже устроены и учатся друг у друга) и одинаково воспринимают определенные знаки.

    Не уверен, что это возможно. Как может что-то, не способное на психическую деятельность, порождать знаки, как раз и существующие, чтобы указывать на результаты такой деятельности? Это похоже на неупорядоченную стрельбу с закрытыми глазами в лесу в надежде попасть хоть во что-то или в кого-то, вместо того, чтобы осмысленно выискивать добычу и целиться в неё.
    Как раз сейчас в такой фазе развития ИИ мы и находимся: компьютерная программа по заложенному человеком-программистом алгоритму выдает знаки, не несущие для самой программы никакого смысла, в надежде, что для нас эти знаки обретут смысл. Результаты такого подхода мы наблюдаем каждый день: translate.google.com/?source=gtx_c#view=home&op=translate&sl=ru&tl=en&text=%D0%9A%D0%BE%D0%BB%D1%8F%20%D0%BF%D1%80%D0%B8%D0%B1%D1%83%D1%85%D0%BD%D1%83%D0%BB.


    1. lair
      09.12.2018 11:51

      Как может что-то, не способное на психическую деятельность, порождать знаки, как раз и существующие, чтобы указывать на результаты такой деятельности?

      Ну давайте разберемся. Математика и логические системы — это знаковые системы? Зачем существуют составляющие их знаки?


      1. semipro Автор
        09.12.2018 14:37

        Несомненно. Как зачем? Фразу «я найду площадь пола этой комнаты, представив пол математической моделью прямоугольника и перемножив длину на ширину» я заменяю короткой и, что называется, crystal clear формулой S=ab. Четыре знака и работает для любого прямоугольника на плоскости, красота! Математика — это одна из самых крутых знаковых систем, которую мы только изобрели. Но т.к. математика — знаковая система, она позволяет работать только с моделями реального мира, но не с самими объектами. Выразить мысль (т.е. уже результат мышления) о наблюдении за реальными объектами с помощью математики можно, выразить сами объекты — нельзя. Запишите формулу мыслительного процесса. Пускай это будут сложнейшие системы дифференциальных уравнений или какие-то численные методы. Но их нет, во всяком случае, я о такой математике не слышал. Есть попытка — логика, но уже у Аристотеля видны противоречия. Проще говоря, не используем мы ту математическую логику, которую изобрели, в реальной жизни.


        1. lair
          09.12.2018 14:38

          Фразу «я найду площадь пола этой комнаты, представив пол математической моделью прямоугольника и перемножив длину на ширину» я заменяю короткой и, что называется, crystal clear формулой S=ab.

          Является ли это "результатом психической деятельности"?


          1. semipro Автор
            09.12.2018 14:45

            Конечно :) Давайте разберёмся в терминологии. Постановка и решение задачи — это мышление. А мышление — это один из психических процессов.


            1. lair
              09.12.2018 14:48
              +1

              При этом компьютеры — неспособные, по вашему утверждению, к психической деятельности — способны решать математические задачи. Порождать те самые "знаки" — в данном случае, цифры. Или вы хотите мне сказать, когда компьютер отвечает на вопрос "какова средняя сумма сделки за прошедший месяц" — это не решение математической задачи?


              1. semipro Автор
                09.12.2018 16:17

                Здесь принципиальная разница, разве Вы не видите? Компьютер «решает» задачу согласно заложенной в него человеком (!) программе. Сам бы он до этого додумался? А мы сами изобрели математику, сами. Компьютер сам ничего не изобретает, не решает и не порождает по своему усмотрению какие-либо знаки, он действует строго по заложенному в него алгоритму. Сам он начнёт подавать какие-то знаки, когда у него появятся мысли, мотивация и т.п. вещи, как у человека, да хотя бы как у дождевого червя — ждём результатов эксперимента OpenWorm. Компьютер — это инструмент, а мыслит человек. Лучшее, что мы придумали для вычислителей, — алгоритмы. Но у меня нет уверенности, что наше мышление только алгоритмично. Точнее, может показаться, что какие-то действия мы выполняем по алгоритму, а какие-то описать трудно или даже невозможно. Простейший пример. Перечислите все слова, которые вы знаете. Каков алгоритм решения этой задачи? То-то. А компьютер изначально создавался для решения алгоритмических задач, и эту задачу он решит за секунды, показав на экране весь свой словарь из файлика или памяти. Между интеллектом человека и тем, что сейчас называется ИИ, не то, что пропасть, там сингулярность.


                1. lair
                  09.12.2018 16:22

                  Здесь принципиальная разница, разве Вы не видите? Компьютер «решает» задачу согласно заложенной в него человеком (!) программе.

                  Школьник тоже решает задачу согласно заложенной в него учителем программе.


                  Сам бы он до этого додумался?

                  Додумался бы школьник (да и взрослый, чего уж) до метода решения квадратных уравнений?


                  Компьютер сам ничего не изобретает, не решает и не порождает по своему усмотрению какие-либо знаки, он действует строго по заложенному в него алгоритму.

                  Докажите, что это утверждение неверно для человека.


                  Простейший пример. Перечислите все слова, которые вы знаете. Каков алгоритм решения этой задачи? То-то. А компьютер изначально создавался для решения алгоритмических задач, и эту задачу он решит за секунды, показав на экране весь свой словарь из файлика или памяти.

                  Это, простите, пример чего? Пример того, что человек справляется с рядом задач хуже компьютера?


                  Но мы удалились от темы. Изначально вы утверждали, что "что-то, не способное на психическую деятельность, [неспособно] порождать знаки, как раз и существующие, чтобы указывать на результаты такой деятельности". На примере решения математических задач видно, что это утверждение неверно: компьютер получил знаки на входе, выдал другие знаки на выходе.


                  Ну либо у вас другое определение "порождения знаков", но вы им с нами пока не поделились.


                  1. qw1
                    09.12.2018 17:19

                    Додумался бы школьник (да и взрослый, чего уж) до метода решения квадратных уравнений?
                    Интересный вопрос, кстати. Я думаю, что да, если есть соответствующая база (арифметика и методы решения уравнений первой степени), много времени и мотивация (например, перевезти школьника на необитаемый остров и заявить, что обратно он не вернётся, пока не найдёт решение).


                    1. lair
                      09.12.2018 17:24

                      А я думаю, что не каждый.


                      1. qw1
                        09.12.2018 17:46

                        Но и нельзя сказать, что никто.
                        Тут вопрос в проценте. А именно, типично ли для человека решить такую задачу. Если больше половины испытуемых осилит, можно считать, что типично. (я ставлю на то, что больше половины осилит).


                    1. semipro Автор
                      09.12.2018 19:04

                      Думаю, нет, не додумался бы. Как говорится, хоть убей, но не полетит. Тут главное — не передёргивать во всех смыслах :) Путь развития науки — это долгий, сложный и тернистый путь. Квадратные уравнения пробовали решать ещё в Древнем Египте и Греции, формулу вывели в средние века. Может, помните такие фамилии как Виет, Кардано, Декарт и прочие средневековые зачинатели матанализа. Хотя матанализ зачинал ещё Евклид. Многие математики во всём мире решали эту задачу и в итоге решили. Аминь.


                      1. qw1
                        09.12.2018 19:19
                        +1

                        Думаю, нет, не додумался бы. Как говорится, хоть убей, но не полетит
                        Тогда в рассматриваемом смысле школьник не отличается от «тупого ИИ». Ведь
                        мы сами изобрели математику, сами. Компьютер сам ничего не изобретает, не решает и не порождает по своему усмотрению какие-либо знаки


                  1. semipro Автор
                    09.12.2018 17:19

                    до метода решения квадратных уравнений
                    Почитайте историю вопроса. Да, математики прошлого, гениальные люди нашли способ решать квадратные уравнения. Они именно что в ходе процесса мышления, мысля, делая умозаключения, смогли решить эту задачу.

                    Это, простите, пример чего? Пример того, что человек справляется с рядом задач хуже компьютера?
                    Нет, человек перестал считать в уме после изобретения абака, если не раньше, и тем самым превзошёл свои же невооружённые арифметические способности. Это пример того, что на существующих алгоритмических вычислительных системах невозможно решить все или даже часть задач, которые решает мышление, но при этом делаются попытки именно на таких системах воссоздать ИИ. Или переводчики и чат-боты работают на каких-то новых компьютерах? Расскажите, если знаете.


                    1. lair
                      09.12.2018 17:26

                      Почитайте историю вопроса. Да, математики прошлого, гениальные люди нашли способ решать квадратные уравнения.

                      Это не отвечает на вопрос про любого человека.


                      Это пример того, что на существующих алгоритмических вычислительных системах невозможно решить все или даже часть задач, которые решает мышление

                      Не вижу, каким образом ваш пример это показывает.


                      1. semipro Автор
                        09.12.2018 19:14

                        Напишите программу, которая, зная все слова, какие есть в словаре, не может их перечислить в цикле, также, как не можете Вы. При этом при предъявлении слова Вы однозначно можете дать ответ, знаете ли вы это слово или видите в первый раз. Вот пример работы человеческого мышления. Напишите программу, моделирующую такую работу.


                        1. lair
                          09.12.2018 19:19

                          Вашей задаче удовлетворяет любой лексический фильтр со стеммером. В частности, он узнает слово "окна", хотя в его словаре есть только слово "окно".


                          (Да зачем так усложнять, даже хэш-таблица удовлетворяет этому условию. И, кстати, человек тоже будет давать ложные срабатывания, как и хэш-таблица, поэтому в тестах на знание слов есть специальные проверки.)


                          1. semipro Автор
                            09.12.2018 20:23

                            Честно говоря, вообще Вас не понял. Хэш-таблица, ложные срабатывания у человека. О чём Вы? Вот пример такого сеанса.
                            — semipro, назови все слова, какие знаешь.
                            — Эм… чайник, лыжи, ноут. Больше нет мыслей. Могу назвать слов двадцать, все — не могу, потому что сам не знаю, что знаю.
                            — А почему именно эти слова?
                            — Понятия не имею, просто пришли в голову.


                            1. lair
                              09.12.2018 21:58

                              Вот пример такого сеанса.

                              Этот пример не соответствует задаче выше. Но не суть. Написать программу, которая имитирует ваш сеанс — еще легче.


                              1. semipro Автор
                                09.12.2018 22:37

                                Почему не соответствует? Задача: назвать все слова, которые Вы знаете. Я начал называть. Мог бы продолжить. Я не знаю, сколько мне нужно времени, чтобы назвать все слова, которые я знаю. И у меня нет алгоритма, который за конечное время извлечёт из моей памяти все эти слова.


                                1. lair
                                  09.12.2018 22:40

                                  Почему не соответствует? Задача: назвать все слова, которые Вы знаете.

                                  Потому что задача была озвучена вот так:


                                  "Напишите программу, которая, зная все слова, какие есть в словаре, не может их перечислить в цикле [...]
                                  При этом при предъявлении слова Вы однозначно можете дать ответ, знаете ли вы это слово или видите в первый раз. [...] Напишите программу, моделирующую такую работу."


                                  Ну то есть надо написать программу, которая может ответить, знает ли она конкретное слово, но при этом не может перечислить все слова, которые она знает. Тривиально.


                                  1. semipro Автор
                                    10.12.2018 06:53

                                    Тривиально.
                                    Код?


                                    1. lair
                                      10.12.2018 11:55

                                      def get_definition(word):
                                        return definitions.get(stemmer.stem(word))


                                      1. semipro Автор
                                        10.12.2018 13:58

                                        Нет, не засчитывается. С чего Вы взяли, что я буду перечислять основы слов вместо самих слов? Более того мне нужно применять усилия, вспоминать грамматику русского языка, чтобы выделять основы. Не годится. Я ведь могу просто так и парадигмы (о наличии которых неподготовленный человек не подозревает) перечислять. Как в анекдоте, где человек не знал, что всю жизнь разговаривает прозой.
                                        Кстати сюда же ещё одно не понятно на чём основанное наивное упрощение ИИ в отношении анализа естественных языков — почему-то считается, что слова, даже если у них одна основа/корень, несут одинаковый смысл. Это далеко не всегда так.


                                        1. lair
                                          10.12.2018 14:01

                                          С чего Вы взяли, что я буду перечислять основы слов вместо самих слов

                                          Ни с чего. Я, собственно, вообще не делал никаких допущений о том, что будете делать вы. В моем коде нет никакого перечисления.


                                          почему-то считается, что слова, даже если у них одна основа/корень, несут одинаковый смысл

                                          Я не знаю, кем так считается, лично я в своих разработках учитываю полисемию.


                                          1. semipro Автор
                                            10.12.2018 14:50

                                            Ни с чего. Я, собственно, вообще не делал никаких допущений о том, что будете делать вы. В моем коде нет никакого перечисления.
                                            Я попросил создать программу, которая бы эмулировала поведение человека (в данном случае — называние слов). Не думаю, что обычный человек знает/помнит из школы, что такое основа слова.

                                            Я не знаю, кем так считается, лично я в своих разработках учитываю полисемию.
                                            А лично я не использую, и не знаю, кому бы она помогла. Может, не везёт просто :) Как думаете? И опыт коллег из других отделов, стран и континентов почему-то тоже отрицательный. В частности, LSA не работает.
                                            И что, Вы доказали, что методики, основанные на полисемии, это — пример интеллекта. Я дам Вам пример интеллекта: человек, в зависимости от задачи может либо учитывать, либо не учитывать полисемию и самое главное — решать поставленную задачу. Специалисты ИИ почему-то считают правильным подходом использовать полисемию. Откуда эти упрощения? Кто решил, что «is going» и «is gone» говорят об одном и том же. Это очень грубое упрощение. Если бы это было так, в английском языке не было бы активного и пассивного залогов.


                                            1. lair
                                              10.12.2018 14:55

                                              Я попросил создать программу, которая бы эмулировала поведение человека (в данном случае — называние слов).

                                              Подождите. Вы просили программу, которая может ответить на вопрос, знает она слово, или нет. Эта программа отвечает ровно на этот вопрос. При этом она не способна перечислить все слова, для которых она ответит на этот вопрос положительно — это было второе условие вашей задачи. Всё.


                                              И что, Вы доказали, что методики, основанные на полисемии, это — пример интеллекта.

                                              А, что? Расшифруйте ваше утверждение, пожалуйста, я его не понимаю.


                                              Специалисты ИИ почему-то считают правильным подходом использовать полисемию.

                                              Какие "специалисты ИИ считают правильным использовать полисемию", и что такое "использовать полисемию"?


                                              Кто решил, что «is going» и «is gone» говорят об одном и том же.

                                              А кто-то решил? Для меня это новость.


                                              1. semipro Автор
                                                10.12.2018 16:05

                                                Подождите. Вы просили программу
                                                Стоп. Вот мой пост:
                                                Напишите программу, которая, зная все слова, какие есть в словаре, не может их перечислить в цикле, также, как не можете Вы. При этом при предъявлении слова Вы однозначно можете дать ответ, знаете ли вы это слово или видите в первый раз.
                                                Единственно, на счёт цикла я неправильно выразился — не в цикле, а за конечное время. На пальцах: у меня/Вас/нас в голове хранятся слова русского языка (словарь в голове человека), и я/Вы/мы несомненно их знаем, т.к. пользуемся ими либо когда говорим, либо когда читаем, назовите/перечислите все эти слова, время пошло. То, что сегодняшний компьютер может распечатать любой файл, — тривиально, это и так понятно, его для этого и создавали. Можно ли создать программу для компьютера, которая бы моделировала такое поведение, как описано выше?

                                                Какие «специалисты ИИ считают правильным использовать полисемию», и что такое «использовать полисемию»?
                                                Так Ваше же:
                                                лично я в своих разработках учитываю полисемию

                                                А кто-то решил? Для меня это новость.
                                                Мне это тоже кажется странным, но вот в вики в статье про Lemmatisation чёрным по белому написано: «Lemmatisation (or lemmatization) in linguistics is the process of grouping together the inflected forms of a word so they can be analysed as a single item, identified by the word's lemma, or dictionary form… For example, in English, the verb 'to walk' may appear as 'walk', 'walked', 'walks', 'walking'… Lemmatisation is closely related to stemming… The word „walk“ is the base form for word „walking“, and hence this is matched in both stemming and lemmatisation.»
                                                Я не против этих процессов, но почему они являются частью анализа в компьютерной лингвистике? Почему компьютерная лингвистика, тоже разрекламированная как ИИ, допускает отбрасывание морфем, допускает такую потерю информации?


                                                1. lair
                                                  10.12.2018 16:16

                                                  Можно ли создать программу для компьютера, которая бы моделировала такое поведение, как описано выше?

                                                  Да, она выше. Могу вот, специально для вас, сделать маленькую доработку:


                                                  def get_definition(word):
                                                    return definitions.get(word)
                                                      or definitions.get(stemmer.stem(word))

                                                  Так Ваше же:

                                                  (а) я не называю себя "специалистом ИИ"
                                                  (б) я не говорю, что "использовать полисемию правильно"
                                                  (ц) я написал, что я учитываю полисемию


                                                  Я не против этих процессов, но почему они являются частью анализа в компьютерной лингвистике?

                                                  Я так понимаю, вас не смущает, что в статье, которую вы же упоминаете, написано, что лемматизация используется в лингвистике (без слова "компьютерная"), и указано, зачем? Ну так вот, в компьютерной для того же: чтобы сгруппировать слова вместе.


                                                  Почему компьютерная лингвистика, тоже разрекламированная как ИИ, допускает отбрасывание морфем, допускает такую потерю информации?

                                                  Эмм. А кто вам сказал, что информация теряется? Никто же не мешает использовать результат лемматизации как дополнительный признак, а не замещающий.


                                                  Более того, в NLP есть и более смешные решения, навроде того, когда результатом разбора предложения является функциональная структура (которая как раз частично и содержится в флексиях во флективных языках), нормализованные слова и то, как получить конкретную форму из нормальной. Иными словами, "went" из "I went" превращается в "V: go (active, past simple)".


                                                  1. semipro Автор
                                                    10.12.2018 17:27

                                                    stemmer.stem(word)
                                                    Почему опять основы слов вместо самих слов?

                                                    я написал, что я учитываю полисемию
                                                    Вы опять цепляетесь за слова. Давайте по делу.

                                                    используется в лингвистике (без слова «компьютерная»)
                                                    А пример Вашего кода со стеммером — это лингвистика или компьютерная лингвистика? ;)

                                                    Иными словами, «went» из «I went» превращается в «V: go (active, past simple)».
                                                    Я ж не против, думаю, никто не против того, что это здорово, что мы а) развиваем лингвистику, б) выделили части речи и в) что-то там пытаемся на этот счёт придумать. Но это — изучение знаковой системы английского языка и возвращает нас к тезису статьи о том, что (цитирую):
                                                    Знаковые системы – это средство кодирования и передачи наших мыслей, поэтому нам фактически ничего не остается, как изучать первые. Других способов в гуманитарных науках – лингвистике, психологии, социологии и смежных с ними – попросту нет.

                                                    Временам глагола Perfect английского языка не соответствует ни одно время глагола в русском языке. Чтобы научиться правильно переводить Perfect, требуется основательная теоретическая подготовка, опыт переводов, понимание контекста, жизненный опыт в конце концов, и только после этого возможен хороший качественный перевод с одного языка на другой. Но при этом NLP, называя себя технологией ИИ, считает, что достаточно сопоставить корпусы, посчитать какие-то вероятности, векторы, и, вуаля, перевод готов. Это слишком наивный подход. И результаты такого подхода мы наблюдаем. Технологии традиционного машинного перевода также не справились с задачей пока.


                                                    1. lair
                                                      10.12.2018 17:32

                                                      Почему опять основы слов вместо самих слов?

                                                      Патамучта. Это решение не нарушает ни одного условия вашей задачи.


                                                      Вы опять цепляетесь за слова. Давайте по делу.

                                                      А это как раз по делу. Одно дело учитывать наличие явление, другое — всегда его (явление) использовать.


                                                      А пример Вашего кода со стеммером — это лингвистика или компьютерная лингвистика?

                                                      Ни то, ни другое. Просто весьма наивная программа.


                                                      Чтобы научиться правильно переводить Perfect, требуется основательная теоретическая подготовка, опыт переводов, понимание контекста, жизненный опыт в конце концов, и только после этого возможен хороший качественный перевод с одного языка на другой.

                                                      А откуда внезапно взялся перевод?.. Я каким-то образом говорил, что эта разметка используется для перевода?


                                                      Но при этом NLP, называя себя технологией ИИ, считает, что достаточно сопоставить корпусы, посчитать какие-то вероятности, векторы, и, вуаля, перевод готов.

                                                      Опять-таки: кто именно это утверждает, и почему его мнение меня должно как-то волновать? NLP — это вообще технология, она не может ничего считать.


                                                      1. semipro Автор
                                                        10.12.2018 18:25
                                                        -1

                                                        Это решение не нарушает ни одного условия вашей задачи.
                                                        Нарушает. Моя тёща не знает, что такое основа слов, но начать перечислять слова она может хоть сейчас.


                                                        1. lair
                                                          10.12.2018 18:27

                                                          Ну и прекрасно. Моя программа никак не требует, чтобы ваша теща знала что-то про основы слов.


                                                          Покажите мне, какой пункт из изначального условия эта программа нарушает. Причем сразу, чтобы было понятно, с конкретным входом и выходом программы.


                                                          1. semipro Автор
                                                            10.12.2018 18:46

                                                            Я просил слова, например, русского языка. Основа слова — это не слово.


                                                            1. lair
                                                              10.12.2018 19:01

                                                              Вы просили "дать ответ, знаете ли вы это слово или видите в первый раз". Я слегка это модифицировал, чтобы возвращалось определение слова (потому что так обычно делают в тестах на словарный запас), но сделать из этого ответ "да/нет", понятное дело, тривиально.


                        1. DjSapsan
                          09.12.2018 20:39

                          semipro Ха попались! Метод Кантора.
                          Гуглите Теорему Геделя или Машину Тьюринга.
                          А если серьезно, то это я сказал о задаче в общем.
                          А ваша задача намного проще. Ведь на самом деле никакая программа не может выписать свой алгоритм. Только print(File.nextString()), совершенно так же как и человек может прочитать словарь.
                          Как видно, поведение на 100% совпадает в вашей конкретной задаче и в пределе


                          1. semipro Автор
                            09.12.2018 20:54

                            Нет, перечитайте постановку задачи ещё раз. Не прочитать словарь, а назвать все слова «из головы». Напишите программу, которая бы это делала.


                            1. DjSapsan
                              09.12.2018 21:05

                              Так и для машины невозможно составить такую программу.
                              Если же вопрос про словарь, то человек и человек и машина спокойно могут прочитать сам словарь.
                              Хотя я и так знаю, что вы не поймете это, сразу видно вы и строчки кода не написали.


                              1. semipro Автор
                                09.12.2018 21:12
                                +1

                                Так и для машины невозможно составить такую программу.
                                Так об этом и толкуем, что алгоритмические системы вроде компьютера не способны решать такие задачи.

                                человек… спокойно могут прочитать сам словарь.
                                какой именно словарь человек может прочитать: бумажный или который у него в голове хранится?

                                сразу видно вы и строчки кода не написали.
                                Да что там кода, я и латинский алфавит-то не знаю, ага. Спасибо за переход на личности.


                                1. DjSapsan
                                  09.12.2018 21:21
                                  +1

                                  С вами невозможно конструктивно рассуждать. Каждый раз меняете условия и правила.
                                  Ваши слова:

                                  Вот пример работы человеческого мышления. Напишите программу, моделирующую такую работу.

                                  на существующих алгоритмических вычислительных системах невозможно решить все или даже часть задач, которые решает мышление

                                  Я аргументирую, что ни человек ни машина не могут решить вашу задачу. А прочитать словарь может и человек и машина. Совпадение способностей на 100%.
                                  Также 100% совпадение есть в отношении нерациональности поведения, ошибок в распознавании, формальности/неформальности, эвристики и тд. Я не вижу ни одного отличия человека от сложной машины


                                  1. semipro Автор
                                    09.12.2018 21:30

                                    Вижу свои слова. В чём противоречие? Давайте задачу попроще. Сколько слов русского языка Вы знаете?

                                    Я не вижу ни одного отличия человека от сложной машины
                                    Это очень сильное и смелое утверждение. Главный вопрос: когда (если вообще) будет создана такая сложная машина?


                                    1. DjSapsan
                                      09.12.2018 21:34

                                      Давайте не бросаться задачками, а говорить конкретно о различии между человеком и машиной.


                                      1. semipro Автор
                                        09.12.2018 22:11

                                        Хорошо. Но давайте оставаться в рамках статьи. Статья о барьерах знаковых систем, с помощью которых сейчас пытаются создать ИИ, в частности с помощью такой знаковой системы как математика.
                                        А вот Вам кстати и пример различия между человеком и машиной. Компьютер может вести такую многочасовую дискуссию с человеком? Мне интересно, и не хочется останавливаться. Я благодарен всем оппонентам. С ботами я больше минуты не выдерживаю. Один раз общался минут 15 и то по концовке выявил паттерн в ответах: как только с моей стороны было вопросительное местоимение, сразу шла заглушка-огрызание в стиле «какая разница кто/какой/сколько...?» Ну типа бе-бе-бе сам дурак :)


                                        1. DjSapsan
                                          09.12.2018 23:09

                                          Вы сказали, что вам интересно, и не хочется останавливаться. Я с вами согласен. Что вы думаете об искусственном интеллекте?


                                          1. semipro Автор
                                            10.12.2018 08:02

                                            Моё мнение такое. Сегодня ИИ — это набор технологий, алгоритмов, методов и т.п. по обработке информации, имеющий ряд достоинств и недостатков, как и любая технология. Изобретателем и конечным пользователем этих технологий является человек. Это мнение я озвучил в статье.
                                            Повторю тезисы ещё раз. Несмотря на все достижения ИИ, существуют, на мной взгляд, объективные барьеры, два из которых я привёл в статье, не позволяющие эти технологии назвать интеллектом. Калькулятор — это устройство по обработке информации, но это устройство не пример интеллекта. Человек, знающий что он делает, и нажимающий кнопки на калькуляторе, — пример интеллекта. Обезьяна, хаотично нажимающая на кнопки, — не пример интеллекта. Все помнят «мартышку и очки»? Так это когда ещё классик уловил суть разумной деятельности.
                                            У устройств, на которых эти технологии применяются, нет психических процессов, схожих с человеческими. По этой причине результат работы таких систем весьма далёк от ожидаемых человеком результатов.
                                            Мне тут пишут, что ИИ возможен на чистом формализме и изучать физиологию человека нет нужды. При этом сам этот товарищ используется свой живой биологический головной мозг, а приложения, которые он создаёт, предназначены для опять же живых людей. Но почему-то эти факты во внимание не берутся. Если бы Вы разрабатывали системы взаимодействия между камнями, я бы не ставил таких требований на наличие психики, потому что камень — это неживая природа, и насколько нам известно, у него нет психики как у человека и животных. Я здесь хочу подчеркнуть, что не вся живая природа обладает психикой. У амёбы тоже нет психики. Психика — это процессы и продукты так называемой высшей нервной деятельности, присущей человеку и высшим животным вроде собаки или слона.
                                            Коль скоро мы разрабатываем технологию для взаимодействия с человеком, а именно его сознанием, его разумом, нам это нужно брать во внимание. Возможно, протокол взаимодействия между амёбами или камнями и можно описать с помощью логистической регрессии. Для моделирования интеллекта людей нужна, мягко говоря, не табличка синусов, а что-то гораздо более сложное. Как моделировать интеллект человека — вопрос открытый. Но уверен, что текущие технологии под собирательным названием ИИ — не есть модель интеллекта человека. Иначе они бы работали, как работает интеллект человека. Были бы правы и ошибались там, где прав и ошибается человек. Психический здоровый человек не может увидеть в небе слона, а ИИ может. Это не просто ошибка, это — концептуальная ошибка. Человек-пользователь, взаимодействующий с такой системой, делает вывод что система «не в уме», что она не понимает, не работает, в итоге разочаровывается в такой системе: товарищи, расходимся, ИИ нет, нас обманули.
                                            Поэтому либо признайте, что это — ещё не интеллект, либо уберите слово «интеллект» из названия этих технологий, и всё встанет на свои места. Скажите просто: мы разработали алгоритм предсказания выхода Y от входа X, плюсы такие, минусы такие, тут работает, а тут не работает. Синоптики всю жизнь предсказывают погоду, но они не называют это интеллектом. К чему этот хайп, что теперь ИИ готов заменить бухгалтера?


                                            1. DjSapsan
                                              10.12.2018 10:36

                                              Вы смотрите на калькулятор и переносите его свойства на все машины. Калькулятор это низкий уровень. Он не ищет незапрограммированные пути. Уже давно есть системы которые ищут. Вы очень зациклены на «нервной деятельности», но это только железо. А главное — выхлоп системы. Проводить сигналы может и железка и шестеренка и кирпич. А дальше ваша фантазия, собирай что угодно.
                                              А что с того, что систему собрали люди? То что вас родила мама не значит, что она автор этой статьи. Как иначе, по вашему, можно создать разумное существо без участия человека? Вы всегда покажете пальцем и скажете «это не работа ИИ это работа его автора», но это полнейший анропоцентризм.


                                              1. semipro Автор
                                                10.12.2018 11:22

                                                Калькулятор это низкий уровень
                                                А с какого устройства начинается интеллект? Мне тут человек писал, что
                                                Компьютер вот прям своей материнской платой чувствует, что питание кончается?
                                                Ну да. Там есть датчик, датчик шлет сигнал.
                                                Т.е. если есть датчик, то этого уже достаточно, чтобы чувствовать? А мне кажется, тут интеллектом и не пахнет, а есть простой алгоритм, запрограммированный человеком: если уровень питания меньше n %, то показать надпись на экране. Это — порядок действий, заложенный инженером, направленный на то, чтобы — внимание (!) — человек, работающий с этим компьютер, увидев такую надпись, понял, о чём она, и предпринял соответствующие действия. Здесь — интеллект автора алгоритма и интеллект пользователя. Об интеллекте машины тут говорить не приходится.
                                                Теперь о чувствах. Мне показалось, что специалисты ИИ очень упрощённо и механистически понимают жизнедеятельность человека. Датчик принял сигнал, значит это — уже чувство? Да, нет. Чувство — это продукт осмысления информации, полученной от датчиков. Вашу кожу ежесекундно ударяют миллиарды молекул воздуха, но Вы этого не чувствуете. Датчики вроде на месте, а чувства осязания нет. Почему? А потому что мозг эту информацию отфильтровывает и не пропускает в кору — туда, где происходит осмысление взаимодействия со средой.

                                                А что с того, что систему собрали люди?
                                                Никто и не против. Но люди создают далёкие от совершенства вещи. Объясните, почему неустойчиво работающие вещи претензионно называют интеллектом?


                                                1. DjSapsan
                                                  10.12.2018 14:00

                                                  У вас столько ошибок в методологии, что нет смысла что-либо объяснять


                                                  1. semipro Автор
                                                    10.12.2018 14:39

                                                    А Вы владеете какой-то методологией? Поделитесь, пожалуйста.


                            1. qw1
                              09.12.2018 21:20

                              Не прочитать словарь, а назвать все слова «из головы». Напишите программу, которая бы это делала.
                              Несложно сделать имитацию, если заранее задаться такой целью. Мы снова приходим к вопросу, а ваш сосед, если его попросить назвать «слова из головы», действительно назовёт их из головы, или сымитирует это, воспользовавшись неизвестным вам алгоритмом? На основании чего вы дадите ответ на предыдущий вопрос?


                              1. semipro Автор
                                09.12.2018 21:25

                                Мы играем без подсказок, заглянуть ему некуда. Всё, что он скажет, будет результатом именно его мыслительных процессов. Даже если он будет хитрить, это будет результат его «хитрения». Ну если конечно, он не обладает телепатией, и кто-то не надиктовывает ему слова. Давайте без паранормальных явлений. Просто обычный диалог двух людей. Какое, например, у Вас слово будет первым? Я, например, пытаюсь играть по словарю. Пускай будет «абажур».


                                1. qw1
                                  09.12.2018 21:29

                                  То есть, можно бота натаскать на эту игру, бот будет отвечать невпопад разными словами, и вас это устроит?


                                  1. semipro Автор
                                    09.12.2018 21:50

                                    Думаю, да. Но есть момент. Бота будет программировать человек, а он не знает, каким образом человек извлекает слова из памяти, поэтому смею предположить, решение будет основано на генераторе случайных чисел. А мы точно слова случайно из памяти извлекаем, когда играем в эту игру?


                                    1. qw1
                                      09.12.2018 21:53

                                      Можно проанализировать 100.000 партий живых людей, играющих в эту игру, и составить статистические закономерности, какой следующее слово обычно идёт за предыдущим, какие слова чаще используют те или иные социальные группы, и генератор случайных чисел запрограммировать не на равномерное распределение, а ровно на такое, которое показывали люди в исследованных играх.


                                      1. semipro Автор
                                        09.12.2018 22:13

                                        Давайте. А потом придёт 100.001-й человек и сломает систему, назвав слово не по статистике.


                                        1. qw1
                                          09.12.2018 22:36

                                          Но вы не сможете определить, что новый игрок играет по другой модели, не построив у себя в голове модель на 100.000 сеансов. Такого расколоть может только машина с большей памятью, чем машина, против которой она играет.


                                1. DjSapsan
                                  09.12.2018 21:31

                                  В чем проблема ИИ сделать то же?


                                  1. semipro Автор
                                    09.12.2018 22:03

                                    Давайте сделаем, я не против. Сделаете? Пришлёте работающую программу? Позволите ещё раз поменять правила игры? Теперь после каждого слова я хочу, чтобы участник придумывал объяснение, почему было названо то или иное слово. Пускай это даже будет враньём. Например: я сказал слово «абажур», потому что так зовут моего кота (хотя кота у меня на самом деле нет, или так зовут не моего кота).


                                    1. qw1
                                      09.12.2018 22:41

                                      Чтобы сделать, нет никаких принципиальных сложностей. Это просто дорого. Месяцы работы команды специалистов. Если бы гугл заинтересовался, и это по каким-то причинам дало ему сильный пиар, он бы без проблем потратил на это ресурсы.


                                      1. semipro Автор
                                        10.12.2018 06:54

                                        сильный пиар
                                        Похоже, это ключевые слова в отрасли ИИ, спасибо, что Вы их сами озвучили.


                                    1. DjSapsan
                                      09.12.2018 23:10

                                      сделайте адронный коллайдер у себя в подвале, тогда и поговорим.


                                      1. semipro Автор
                                        10.12.2018 06:56

                                        Они не пиарщики, к ним вопросов нет. Ограничения и ошибки признают. А судя по комментариям здесь, ИИшники не признают ни ограничений, ни ошибок.


                                        1. DjSapsan
                                          10.12.2018 10:38

                                          По вашему, у человека нет ограничений и ошибок


                                          1. semipro Автор
                                            10.12.2018 11:32

                                            Есть. Какое это имеет отношение к озвученным мною барьерам?


                                            1. DjSapsan
                                              10.12.2018 14:07

                                              У человека такие же барьеры. С помощью дискретных символов невозможно передать внутреннее состояние мозга. Понимание возникает только благодаря изоморфизму мозгов, а символы только запускают процесс. Читайте книгу «Гедель Эшер Бах», там этот вопрос как раз поднимался


                                              1. semipro Автор
                                                10.12.2018 14:57

                                                Об этом и статья :). Знаковые системы не позволяют изучать мысли — только слова, которыми делается попытка их выразить. Я рад, что поднял вопрос на уровне Гёделя. Возьму с полки пирожок.


                                                1. DjSapsan
                                                  10.12.2018 15:41

                                                  Тогда чем человек отличается от сложной машины? Витализмом?


                                                  1. semipro Автор
                                                    10.12.2018 17:07

                                                    Понятия не имею. На данном этапе человек != машина. Вы спросите, почему я так считаю. Исключительно из личного опыта. Ничего голословного, только факты моей работы с технологиями ИИ. У меня абсолютно нет никаких намерений в чём-то уличить или как-то опорочить ИИ, кто я такой для этого? У меня просто свой опыт на этот счёт, не более.
                                                    Пускай это прозвучит наивно, но человек мне представляется настолько сложной системой, что о доскональном его изучении даже говорить не приходится. Я немного знаком с работой нейробиолога, д.м.н К.Анохина. Он как раз пытается понять процессы в мозгу, изучая непосредственно мозг. Но те задачи, какие он ставит, кажутся фантастически-амбициозными. Всё впереди и очень нескоро. Впрочем, прогнозы — вещь неблагодарная.


                                                    1. DjSapsan
                                                      10.12.2018 17:47

                                                      Какие законы физики нарушает человек?


                                                      1. semipro Автор
                                                        10.12.2018 18:30

                                                        Никакие. Невозможно нарушить законы физики. Единственным условно известным случаем нарушения законов физики является Большой взрыв, когда не выполнялись такие законы физики как закон сохранения энергии. После «переходных процессов» законы не нарушались, всё более-менее стабильно. Ну там частицы всё время превращаются в друг друга, но речь же не об этом?


                                                        1. DjSapsan
                                                          10.12.2018 18:36

                                                          Следовательно человек есть сложная машина


                                                          1. semipro Автор
                                                            10.12.2018 18:56

                                                            Невозможно нарушить законы физики
                                                            Следовательно человек есть сложная машина
                                                            Я не берусь комментировать эту логическую цепочку, это к Аристотелю :).


                                                            1. DjSapsan
                                                              10.12.2018 19:18

                                                              Это к Декарту


                                                              1. semipro Автор
                                                                10.12.2018 19:41

                                                                Ок, и коньяку захватим ;)


    1. Hardcoin
      09.12.2018 12:12

      ИИ не знает, что такое страх

      не способное на психическую деятельность

      Условности без ясных определений. Вам кажется, что ИИ не способен, а ваш сосед — способен. Но посмотрите на него внимательно — вы уверены? Все его действия и слова — это результат мистической "психической деятельности" или конкретные "распознавание образов", "сопоставление с образцом", "подбор по контексту", "категоризация" и прочие, вполне объяснимые вещи?


      С одной стороны конечно интересен ещё один разговор о квалиа, но не с нуля же. Вы в статье не обозначили (или я пропустил), материально ли сознание на ваш взгляд. Если да, то утверждение "не способно на психическую деятельность" становится крайне шатким.


      1. semipro Автор
        09.12.2018 15:17

        Где я писал, что мне кажется, что мой сосед способен? Я не уверен конечно. Я могу попробовать понять, о чём думает человек, что чувствует, если 1) он с помощью знаков передаст мне информацию об этом, и 2) мой декодер сможет эти знаки перевести в какой-то схожий мой опыт. Человек может меня обмануть, подав ложный знак, или я сам могу сплоховать и неверно его интерпретировать. А о каком собственном опыте мне сможет сообщить программа?

        результат мистической «психической деятельности»
        Это не мистика, это — то, что происходит у нас в голове, это — суть нашего существования, а у вычислительной системы пока даже близко ничего похоже нет, чтобы позволяло действовать, как мы.

        материально ли сознание на ваш взгляд. Если да, то утверждение «не способно на психическую деятельность» становится крайне шатким.
        Материально конечно. Сложные реакции, сложные физические процессы, которые нам только предстоит изучить и понять. Почему шатким? От того, что я не знаю, как устроено моё мышление, не означает, что моделирование его не требуется для создания сильного ИИ.


        1. Hardcoin
          09.12.2018 16:26
          +1

          Где я писал, что мне кажется, что мой сосед способен?

          Хм. То есть вы сомневаетесь? Тогда что вы вообще имеете ввиду под "психической деятельностью"?


          это — суть нашего существования

          Это — суть, но при этом вы не уверены, есть ли эта суть у вашего соседа?


          Если вы не понимаете тезис, попробую более четко.


          Утверждение "неспособен на психическую деятельность" ничем не обосновано, потому что сам термин не конкретный.


          Проверяется это, например, простым вопросом.
          У вашего соседа есть психическая деятельность?


          Если да, то почему вы уверены? Если нет, то почему? Если не знаете — скажите.


          1. semipro Автор
            09.12.2018 18:05

            То есть вы сомневаетесь? Тогда что вы вообще имеете ввиду под «психической деятельностью»?
            Конечно. Это недоказуемо однозначно. Теорему Пифагора я могу доказать, но (не предположить), а именно доказать, что мой сосед думает именно о чём-то конкретном, я не могу. Во всяком случае на данном этапе развития науки. Человек может подать истинный или ложный знак — сказать слово, принять позу («невербалка»), который я попробую интерпретировать. Не более того. Телепатией я не обладаю. Кто-то может доказать, что другой человек видит тот же самый красный цвет? Мы считаем, что воспринимаем среду примерно одинаково. Можно измерить кол-во там всяких палочек-колбочек и сделать вывод о том, что у кого их больше, тот и более насыщенный цвет видит. Но это — скользкая дорожка. Зрение — сложный когнитивный процесс, не ограничивающийся только сигналом на сетчатке. Может, мозг человека, у которого палочек-колбочек меньше, «домысливает» и получает картинку не хуже, чем у того, у кого их больше. И оба, если начнут друг другу объяснять, поймут, что видят одинаковый красный. Серьёзных работ по измерению параметров мышления или чувственного опыта я не видел. Тут просто люди в комментариях мне говорят, что раз наука не знает, что такое мышление и как его моделировать, то оно нам и не нужно для создания ИИ. Я с этим тезисом не согласен.
            Ошибаемся в анализе знаков конечно. Кто-то неверно истолковал намёк начальника, не получил повышение — его проблемы, естественный отбор. А другой правильно, и ему повысили зарплату. Т.е. знак от начальника был один, а интерпретация разная. Нормальная ситуация. Я говорю о том, что у компьютера вообще нет никакой интерпретации. Мы ошибку пытаемся исправить, чтобы не снижать степень адаптации к среде. А у ИИ какая мотивация по адаптации к среде. Кто-нибудь среду «жизни» ИИ анализировал? Всё, что я вижу, — это технологии обработки информации, которые стараются разрекламировать и продать под соусом «интеллекта». Компьютер научился понимать смысл текста! Компьютер скоро заменит всех переводчиков! Really? Зато особо не вижу деятельности по глубокому и предметному изучению сути вопроса. Видимо, потому что это не приносит быстрого возврата инвестиций. Встретил статью, от которой веет скепсисом в отношении текущих, уже ставших традиционными, подходов к ML. Ну правдой веет на самом деле.
            Термин «психическая деятельность», а точнее "психический процесс" — очень даже конкретен.


            1. lair
              09.12.2018 18:21

              Термин «психическая деятельность», а точнее "психический процесс" — очень даже конкретен.

              Да? Я вот пошел по вашей ссылке, а там никакой конкретики нет. Во-первых, само определение завязано на определение психики, а там написано "сложное явление", и большая часть определений вообще не допускает возможности небиологической психики. А во-вторых, "деление сознания на психические процессы условно, оно не имеет теоретического обоснования".


              1. semipro Автор
                09.12.2018 19:40

                Да, это — сложное явление. Нам ещё изучать и изучать. Даже не брезжит.

                не допускает возможности небиологической психики
                Разработайте гипотезу небиологической психики, подискутируем.
                деление сознания на психические процессы условно, оно не имеет теоретического обоснования
                Если бы была теория, платы бы уже были спаяны, сигнал на осциллографах проверен, а этой статьи бы не было, т.к. был бы сильный ИИ у нас.


                1. lair
                  09.12.2018 19:47

                  Разработайте гипотезу небиологической психики, подискутируем.

                  Без определения психики это невозможно.


                  Если бы была теория, платы бы уже были спаяны, сигнал на осциллографах проверен, а этой статьи бы не было, т.к. был бы сильный ИИ у нас.

                  Неа, не было бы. Потому что согласно вашей ссылки небиологической психики не существует, а согласно вам, ИИ без психики невозможен — следовательно, ИИ невозможен.


                  1. semipro Автор
                    09.12.2018 20:31

                    Вы серьёзно считаете, что у психики нет определения? Ну это как минимум антинаучно, не находите? :) А моя ссылка — это истина в последней инстанции? Разработайте теорию, создайте действующую небиологическую психику, в чём проблема-то? И Ваша теория затрёт строчку в моей ссылке.


                    1. qw1
                      09.12.2018 21:24
                      +1

                      Разработайте теорию, создайте действующую небиологическую психику, в чём проблема-то?
                      Проблема в том, чтобы проверить, подходит ли эта теория под ваше определение психики. Мысленный эксперимент: берём книгу по аналитической геометрии и приклеиваем к ней шильдик «теория небиологической психики». Как проверить, что это «психика» в том смысле, о которой вы говорите, если вы не даёте ваше определение психики.


                      1. semipro Автор
                        09.12.2018 21:39

                        Я стараюсь оперировать общедоступными, общепринятыми, широко известными понятиями. Повторюсь, мы тут не научную статью разбираем. Надеюсь, под психикой я и Вы понимаем примерно одно и то же, а именно: совокупность сложных, откровенно говоря, пока малоизученных процессов, протекающих в центральной нервной системе людей и высших животных. Какое отношение процессы в центральной нервной системе имеют к книге по аналитической геометрии? Только если опосредованно: используя когнитивные способности — память, мышление, речь — т.е. элементы психики, и знаковые системы как их переносчики, мы можем попытаться прочесть и понять, о чём хотел сказать автор этой книги.


                        1. qw1
                          09.12.2018 21:50
                          +1

                          Что с вас и вытягивал весь день ваш оппонент: совокупность сложных процессов, протекающих в центральной нервной системе людей и высших животных.

                          На этом можно заканчивать обсуждение, потому что согласно этому определению, не бывает никакой небиологической психики. И даже у пришельцев её нет, если они не животные.


                          1. semipro Автор
                            09.12.2018 22:16

                            Это определение как-то запрещает создание новой психики? Когда и этой психики не было, амёбы плавали и всё. Кто знает, какие варианты психик нас ждут впереди? Может, всё-таки создадут компьютер, обладающий психикой, схожей по свойствам с человеческой. Почему бы нет? Но сейчас такого компьютера нет, ну я не слышал про такие машины.


                            1. lair
                              09.12.2018 22:29
                              +1

                              Это определение как-то запрещает создание новой психики?

                              Конечно. Они не будут психиками, потому что не будут попадать под определение.


                            1. qw1
                              09.12.2018 22:38
                              +1

                              Это определение как-то запрещает создание новой психики?
                              Ну вот мы создали новую психику, наклеив шильдик на книгу по аналитической геометрии. Так эта психика вам не подошла )))


                              1. semipro Автор
                                10.12.2018 09:27

                                Не вопрос, у этой новой психики есть мышление, память, эмоции?


                                1. qw1
                                  10.12.2018 14:40

                                  Определение этих терминов дадите? Поищем.


                                  1. semipro Автор
                                    10.12.2018 15:39

                                    Гугл в помощь. Ну и научные труды можно почитать. Если по-быстрому — вики.


                    1. lair
                      09.12.2018 22:01
                      +1

                      Вы серьёзно считаете, что у психики нет определения

                      Я считаю, что вы не можете дать определения, которое могло бы позволить отличить проявления психики от проявлений не-психики. Иными словами, невозможно сделать формальный тест, который говорил бы, есть ли у агента психика.


                      Разработайте теорию, создайте действующую небиологическую психику, в чём проблема-то?

                      Проблема в том, что определение не сойдется.


            1. Hardcoin
              09.12.2018 18:38
              +1

              доказать, что мой сосед думает именно о чём-то конкретном, я не могу.

              Вы подменяете мой вопрос (способен ли ваш сосед на психическую деятельность) каким-то своим (можно ли узнать, о чем конкретно думает ваш сосед) и отвечаете на ваш собственный вопрос. Вы так сделали уже дважды. Это нехорошо. Вы не видите разницы?


              Я повторю вопрос. Способен ли ваш сосед на психическую деятельность? Просьба ответить именно на этот вопрос, а не на какой-то свой.


              1. semipro Автор
                09.12.2018 19:42

                Отвечу коротко и ясно: да, способен.


                1. Hardcoin
                  09.12.2018 20:46

                  Хорошо. Почему вы в этом уверены? Как вы отличили, что он способен, а нейросеть, играющая в доту — не способна?


                  Это важный вопрос. Нельзя просто сказать "я не наблюдаю мыслей в нейросети". У соседа вы мыслей тоже не наблюдаете, но уверены, что они есть. А у нейросети — нет. И более того, она к психической деятельности не способна. Если это ваше мнение — ваше право. Если больше чем мнение, то как вы определяете?


                  1. semipro Автор
                    10.12.2018 09:34

                    а нейросеть, играющая в доту — не способна?
                    Она не способна, потому что у неё нет мышления, эмоций, речи и т.п. Это — алгоритм, играющий в доту и больше ничего. Я повторю: я сильно не уверен, что процессы, отвечающие за наш интеллект, алгоритмичны.

                    Нельзя просто сказать «я не наблюдаю мыслей в нейросети»
                    Напрямую мы мысли не наблюдаем — только через проявления-знаки. И судя по этим знакам от ИИ, мысли там неадекватные. Может быть, дело во мне и я неправильно интерпретирую ответы ИИ. Может, я не прав и «Коля бухнул» действительно равно «Nick arrived»?


  1. third112
    09.12.2018 11:00

    Знаковые системы несовершенны, но они – единственное, что дала нам эволюция для обмена продуктами психических процессов.
    ИМХО как-то очень неоднозначно определено. Нпр., прохожий на улице спросит: который час? Я взгляну на часы и отвечу: два. Кто породил знак «2» и знак (знаки?) «два»? А если ОС спросит: который час? И я введу с «клавы» 2?


    1. semipro Автор
      09.12.2018 11:27

      Что имеется в виду под словом «породил»? Произнёс слова вслух? Человек. Придумал эти слова? Тоже человек. Поясняю свою мысль. Природа наделила нас возможностью изобретать знаковые системы и использовать их для целей взаимодействия со средой. Все цели нам неизвестны. Одна из очевидных — обмен информацией. Представим, Вы знаете, что сейчас время «два часа». Как рассказать об этом прохожему? Используя знаковую систему под названием «русский язык», в которой есть слова «два» и «часа». Мы не можем мысленного передать ему эту информацию без использования вполне конкретных слов. Сами слова неважны, поэтому так много языков на Земле. Можно использовать знаковую систему английского языка: «it's two p.m.» — смысл тот же. Я кстати часто вообще молча показываю свои часы :) Человек кивает головой, говорит спасибо и идёт дальше. Мне даже язык не приходится использовать.


      1. third112
        09.12.2018 11:32

        Я посмотрел на часы, часы показали 2. Источник знака часы?


        1. semipro Автор
          09.12.2018 11:43

          Да, конечно. Красный свет на светофоре — знак. Источник — светофор, устройство изобретённое человеком.


          1. third112
            09.12.2018 12:26

            Первая фраза Вашей статьи:

            Знаковая система выступает в роли переносчика мыслей, идей, эмоций, переживаний, ощущений, организации памяти – продуктов психических процессов, протекающий, по представлениям современной науки, в головном мозге человека и высших животных.

            Часы мыслят? Светофор переживает?
            устройство изобретённое человеком.
            Посмотрел на небо: солнце еще не встало, значит было раннее утро.


            1. third112
              09.12.2018 12:42

              PS BTW с символом и знаком в философских и псих. науках большая и перманентная путаница — см., нпр., Лосев А. Ф., Проблема символа и реалистическое искусство: М.: Искусство, 1976, и еще, нпр., врач Гельмгольц придумал теорию иероглифов.


            1. semipro Автор
              09.12.2018 15:23

              Часы мыслят? Светофор переживает?
              Нет конечно, не мыслят. Об этом и статья.

              Посмотрел на небо: солнце еще не встало, значит было раннее утро.
              Отличный пример протокола. Реакция на свет — процесс поглощения фотонов видимого диапазона электромагнитных колебаний в сетчатке, — которая со временем осмыслилась, до мысли «солнце встало — раннее утро — пора идти в поле на работу». У растений так и осталась реакцией, т.к. у них нет психики, т.к. у них нет центральной нервной системы.


              1. third112
                09.12.2018 15:50

                Получается что знаки не только «перенносят мысли», но и просто информацию, источником которой могут быть устройства (без ИИ) или явления природы. М.б. проще сказать, что знаки содержат разную инфу (в том числе и о мыслях)?


                1. semipro Автор
                  10.12.2018 09:39

                  Нет конечно. Знаки — это продукт нашей разума. Они нам нужны для кодирования наших же внутренних процессов. У природы нет никаких знаков, они ей не нужны. Солнце не знает, что оно «встаёт», это человек сказал, потому что для него это важно. Нет «просто информации», поймите. Любые знаки, знакомые, незнакомые, мы интерпретируем. ИИ может быть источником каких-либо знаков, но они станут информацией, когда я на них посмотрю и осмыслю, т.е. переведу знаки в мысли, эмоции и т.п. вещи.


                  1. third112
                    10.12.2018 12:24

                    На часах нет знаков, пока я на них не смотрю, и светофор не горит, пока его никто не видит? Может и часы и светофор, и солнце, и всё остальное есть только в моем воображении? В философии это называют солипсизмом.


                    1. semipro Автор
                      10.12.2018 14:30

                      Почему нет? Есть конечно, и солнце есть и светофор горит. В этот вопросе я материалист. Но смысл этим знакам придаём мы. Собака видит часы, но не понимает, что на них. На них знаки, не имеющие для неё значения. А вот взгляд вожака стаи ещё как имеет.


                  1. Kriminalist
                    10.12.2018 15:06
                    +2

                    Наш разум абсолютно ни при чем. Разум вообще не обязателен для порождения знаков. Пчелы используют сложную знаковую систему для передачи весьма сложного объема информации — но мы не допускаем наличия у пчел разума.
                    Можем ли мы считать генетический код порождением разума? Мы его просто открыли, но изобрели его не мы. Знаковая ли это система? Вопрос риторический.
                    Разум способен создавать и использовать знаковые системы, но это не уникальная характеристика разума.


                    1. semipro Автор
                      10.12.2018 16:17

                      Разум вообще не обязателен для порождения знаков.
                      Разум обязателен для порождения знаков, понятных других агентам коммуникации. Вы ИИ разрабатываете для людей или как вещь в себе? Мы же не говорим о двух генераторах псевдослучайных чисел, которые порождают какие-то знаки, которые не способен интерпретировать ни первый, ни второй из генераторов. Ну все помнят новость, как у Фейсбука боты друг с другом «общались». Хотя мне кажется, это было запрограммировано, чтобы шумиху в прессе создать. Они порождали знаки. Этот был пример интеллектуальной деятельности?
                      мы не допускаем наличия у пчел разума
                      А нам это важно? Мы разрабатываем ИИ для пчёл? И потом, может, у них есть пчелиный разум, который по нашим представлениям и не разум, но для них хватает, что общаться и выживать в среде.


                      1. Kriminalist
                        10.12.2018 18:42

                        Разум обязателен для порождения знаков, понятных других агентам коммуникации

                        Люди поняли танец пчел. Разум при этом у кого, у пчел?
                        Люди поняли код ДНК. Это разум чей, ДНК?
                        Для создания знаков разум не обязателен.
                        Интересней вопрос, обязателен ли разум для интерпретации знаков.
                        Пчелы вот прекрасно и без разума справляются.
                        Я бы сформулировал разум, как способность к интерпретации любой произвольно взятой системы знаков.

                        Мы разрабатываем ИИ для пчёл?
                        И для них тоже. Вот только была статья про пчелиный стартап.
                        А для чего вы разрабатываете ИИ?


                        1. semipro Автор
                          10.12.2018 19:13

                          Люди поняли танец пчел.
                          Наверное, Вы хотели сказать, что люди попробовали изучать коммуникацию у пчёл и кажется, что теперь они понимают, о чём «говорят» пчёлы. Я не думаю, что люди поняли пчёл, люди друг друга-то часто не понимают.

                          Пчелы вот прекрасно и без разума справляются.
                          И снова. Откуда Вы знаете, что у пчёл нет пчелиного разума? А пчёлы думают, что у людей нет разума :)

                          Я бы сформулировал разум, как способность к интерпретации любой произвольно взятой системы знаков.
                          И люди, и пчёлы интерпретируют подаваемые между собой знаки, внутри вида естественно. Мне непонятны знаки пчелы, пчеле непонятны мои знаки.

                          А для чего вы разрабатываете ИИ?
                          Для людей. Например, стоит конкретная задача: даны 10 или 100 стр. текста, в нескольких предложениях объяснить, о чём этот текст, ну т.е. как школьники сочинение пишут, так и сделать, на «пятёрку», мне не нужно сочинение «троечника» или психически больного человека.
                          Мне плевать на пчёл, меня интересуют прикладные задачи. В контексте выше описанной задачи пчёлы меня могут заинтересовать только в случае, если вдруг выясниться, что они могут помочь написать сочинение. Пока же помогает мне готовить подобные рефераты только моё собственное мышление, других вариантов я не знаю.


                          1. Kriminalist
                            10.12.2018 21:20

                            А с чего вы взяли, что ИИ будет для вас заниматься этой ерундой? Зачем ему это, если он психически нормален? И чтоб два раза не ходить, это пример именно олигофренного ИИ, если предположить, что вам это удалось. Немного клинически нетипичный, конечно, ну так на он и искусственный :).


                            1. semipro Автор
                              10.12.2018 21:34

                              А если я его найму на работу и буду платить тем, что для него ценно?


                              1. Kriminalist
                                11.12.2018 10:57

                                Так об этом и речь. Вам сначала нужно разработать его мотивацию и способ ее поддержания, а прикладных задач можно накидать сколько угодно будет.
                                Я не знаю, но вдруг вы не читали Точку зрения

                                Кстати, в слове Мультивак последние ак — это аналоговый компьютер ;).


                                1. semipro Автор
                                  11.12.2018 11:40

                                  Вам сначала нужно разработать его мотивацию и способ ее поддержания, а прикладных задач можно накидать сколько угодно будет.
                                  А вот здесь вопрос интересный. С одной стороны, как я предположил в статье, нам нужно промоделировать наши же особенности, чтобы научить компьютер решать задачи с понятным для нас результатом, а с другой, я не хочу, чтобы компьютер был умнее меня :) и что-то там соображал помимо поставленной ему задачи.
                                  Умение решать задачи и иметь разум — это увязанные вещи. Непонятно, можно ли создать такой ИИ, чтобы он решал для нас задачи на уровне наших требований к результатам решения, но при этом не обладал разумом, позволяющим ему, осознав себя, перестать хотеть решать задачи. Но не будем здесь скатываться в фантастику.

                                  вдруг вы не читали Точку зрения
                                  Не читал, сейчас прочитал, понравилось, спасибо.


                                  1. Kriminalist
                                    11.12.2018 12:10

                                    я не хочу, чтобы компьютер был умнее меня :)

                                    А я вас понимаю. Просто мне кажется, это несколько разные устройства — решатель и ИИ.
                                    ИИ потенциально может быть именно что умнее нас — скорость прохождения сигнала и количество связей будут решать (хотя большой мозг != умный субъект, но все же при прочих равных).
                                    Если мы сами формализуем требования к результату — то сможем создать и решателя. Беда в том, что вы хотите получать результат, который превзойдет ваши ожидания, условно говоря. Такой, чтоб вы могли воскликнуть, «Но черт побери, как, Холмс?»
                                    И кто тут окажется умнее, вопрос…


      1. Hardcoin
        09.12.2018 12:14

        дала нам эволюция

        Вы уверены, что числа дала нам именно эволюция?


  1. elingur
    09.12.2018 11:37
    +1

    Давайте так: варенье отдельно, мухи отдельно. Вы определите, что такое мышление, и что такое с смысл. И рамках этих определений будете утверждать: это возможно, а это нет. Если говорить о мышлении, как о корковых процессах, то рано или поздно их удастся симулировать. Если говорить о смысле, как о нечеткой категоризации, то это уже реализовано. А вот если мы подключаем эмоции — это уже другой разговор. Эмоции это основа смыслообразования, движок мышления. И чтобы их повторить, нужно что-то типа биоробота, а это уже совсем другая песня. Знаки- это вторичная система, и описывать ими первичную (я про эмоции) нелогично.


    1. semipro Автор
      09.12.2018 13:54

      Вы определите, что такое мышление, и что такое с смысл
      Мышление — психический процесс, в результате которого порождаются мысли, идеи, смыслы. Мысль — это продукт мышления. Если бы я знал, как устроено и как работает мышление, был бы миллиардером, изобретшим сильный ИИ :). Пока понятны только банальные вещи: психически здоровый человек порождает мысли, которые позволяют ему принимать более-менее успешные решения, направленные на улучшение его адаптации к среде. Каким образом это происходит, и как научить этому современные искусственные вычислительные системы, непонятно.

      Если говорить о смысле, как о нечеткой категоризации, то это уже реализовано
      можно примеры?

      Эмоции это основа смыслообразования, движок мышления
      думаю, что эмоции и мышление — это два психических процесса, протекающих совместно и несомненно оказывающих влияние друг на друга, но не не думаю, что эмоции — это движок мышления.


      1. lair
        09.12.2018 14:19

        Мышление — психический процесс, в результате которого порождаются мысли, идеи, смыслы.

        Here we go again. Что такое "психический процесс"? Что такое "мысли", "идеи" и "смыслы"?


        1. semipro Автор
          09.12.2018 15:50

          Мы не знаем. Если бы знали, мир уже был бы другим. Мы могли бы их моделировать, создавать. Ну и СИИ бы уже был создан. Это тоже самое, что пока мы не узнали, что такое аэродинамическая сила, мы не смогли изобрести самолёт. И при этом считали бы, что самолёт может летать и без такой силы. Я искренне убеждён, что без наличия сэмулированных психических процессов и соответствующих им продуктов, СИИ невозможен. Я искренне не понимаю, как можно создать думающую машину, у которой нет мотивации, инстинктов и более сложных вещей. Психические процессы не обязательно должны быть точной копией человеческих, но они должны быть, хотя бы какие-то. Сейчас же никаких нет. Да много чего еще. Личность, характер, даже пол, без намёка на сексизм. Я как-то спросил у друзей: а ИИ, он мужик или баба? Ну посмеялись, чо :) Вот ИИ может посмеяться такой шутке?


          1. lair
            09.12.2018 15:54
            +1

            Мы не знаем.

            А раз "мы не знаем", значит и определения вы дать не можете. О чем, собственно, и речь.


            Психические процессы не обязательно должны быть точной копией человеческих, но они должны быть, хотя бы какие-то. Сейчас же никаких нет.

            Для того, чтобы утверждать, что "что-то должно быть, но его нет", надо определить это "что-то". А сейчас вы говорите "у ИИ нет чего-то, что я не могу определить, но убежден, что у ИИ этого нет".


            1. semipro Автор
              09.12.2018 16:55

              Именно так, учёные пока не знают, как устроена наша высшая нервная деятельность. Если специалисты в области ИИ знают, что им не нужно моделировать высшую нервную деятельность человека, где же тогда ИИ? Впрочем я знаю их любимый аргумент: дети тоже плохо говорят и не умеют водить машины, поэтому и ИИ пока такой детский. Мне тут на Хабре попадалась статья человека, который, как мантру, повторял фразу о том, что ему удалось создать ИИ с интеллектом 7-летнего ребёнка. Я же осмелюсь утверждать, что без моделирования высшей нервной деятельности, на статистиках и прочих «логистических регрессиях» ИИ не создать. Экспертные системы, SHRDLU, Prolog, сейчас вот нейросети и прочие deep learning-и с внимание… барабанная дробь… чат-ботами, ведущими «диалог», после которого возникает стойкое желание нажать 0 (переключить на оператора) и поговорить с человеком. Что дальше? Хочется спросить: результат где, ребят?


              1. lair
                09.12.2018 16:59

                Если специалисты в области ИИ знают, что им не нужно моделировать высшую нервную деятельность человека, где же тогда ИИ?

                В разработке, очевидно же.


                1. semipro Автор
                  09.12.2018 18:39

                  Отлично. Ждём-с. Без иронии. Но это не отменяет моих тезисов. Я Вам больше скажу. Если это произойдёт, у меня случится когнитивный диссонанс :) от того, что смогли создать ИИ, который не способен мыслить.


                  1. lair
                    09.12.2018 18:50

                    … а вы считаете, что мышление невозможно без моделирования высшей нервной деятельности человека?


                    Впрочем, это риторический вопрос: формального определения мышления тоже нет, поэтому и сказать, возможно оно или нет в заданных условиях, нельзя.


                    1. semipro Автор
                      09.12.2018 20:04

                      Да, верно понимаете меня. Если мы хотим построить интеллект, который будет жить и трудиться в нашей среде, он должен обладать свойствами, присущими нам, нашей жизни, нашему разуму. Мы от него ждём этого. Если чат-бот не умеет шутить и действительно помогать, он не нужен. Если решатель не может помочь второкласснику решать задачки из учебника, он не нужен. Если машина-лингвист не может объяснить мне в паре предложений, о чём этот многостраничный текст, он бесполезен. Если автопилот не сможет безопасно ездить, он бесполезен. Что остаётся? Игра в шахматы? Ну хорошо, давайте играть в шахматы.
                      Кстати почему авиакомпании до сих пор не внедрили автопилоты на взлёте-посадке? Там и светофоров нет, и другие участники дорожного движения не мешают. Вместо этого платят огромные зарплаты людям-пилотам.


                      1. lair
                        09.12.2018 21:54
                        +1

                        Если мы хотим построить интеллект, который будет жить и трудиться в нашей среде, он должен обладать свойствами, присущими нам, нашей жизни, нашему разуму.

                        Китайская комната. В том смысле, что для обладания свойствами совершенно не обязательно быть точной моделью.


                        Если чат-бот не умеет шутить и действительно помогать, он не нужен. Если решатель не может помочь второкласснику решать задачки из учебника, он не нужен.

                        Вам не нужен, вы хотите сказать. Люди, знаете ли, ставят перед ИИ разные задачи.


                        Кстати почему авиакомпании до сих пор не внедрили автопилоты на взлёте-посадке?

                        Внедрили.


                        1. semipro Автор
                          09.12.2018 22:23

                          Китайская комната. В том смысле, что для обладания свойствами совершенно не обязательно быть точной моделью.
                          По кит комнате я уже у Вас спрашивал, где примеры реализации? Создали алгоритмы, имитирующие когнитивные способности человека без повторения анатомии и физиологии человеческого мозга. Ок. Я не доволен результатами работы такого ИИ. Что мне делать дальше? Т.е. умных книжек много, комнат там китайских, а дальше-то что?

                          Внедрили.
                          Не знал о таком, спасибо за информацию. Правильно ли я понимаю, что теперь люди-пилоты не нужны?


                          1. lair
                            09.12.2018 22:28

                            По кит комнате я уже у Вас спрашивал, где примеры реализации?

                            Китайская комната, если что — мыслительный эксперимент.


                            Я не доволен результатами работы такого ИИ. Что мне делать дальше?

                            Не пользоваться. Не покупать. Разрабатывать свой.


                            Правильно ли я понимаю, что теперь люди-пилоты не нужны?

                            Нет, не правильно.


                            1. semipro Автор
                              10.12.2018 06:42

                              Не пользоваться. Не покупать. Разрабатывать свой.
                              Да, именно так и приходится решать прикладные задачи, с которыми существующие технологии ИИ не справились.

                              Не пользоваться. Не покупать. Разрабатывать свой.
                              В чём тогда смысл Вашей ссылки про автопилот на взлёте-посадке?


                              1. lair
                                10.12.2018 11:53

                                В чём тогда смысл Вашей ссылки про автопилот на взлёте-посадке?

                                В том, что ваш вопрос "почему авиакомпании до сих пор не внедрили автопилоты на взлёте-посадке?" основан на неверной посылке.


                                1. semipro Автор
                                  10.12.2018 13:52
                                  -1

                                  Смысл Вашей ссылки в том, что Ваш вопрос… Эм… как бы разговор перестаёт быть конструктивным.


                                  1. lair
                                    10.12.2018 13:55

                                    Проще говоря, вы спросили, почему А и Б. Я привел ссылку, которая показывает, что (уже давно) не А.


                    1. semipro Автор
                      10.12.2018 09:41

                      Если формального определения мышления нет, что же Вы тогда разрабатываете? Что именно делает ИИ?


                      1. lair
                        10.12.2018 11:57
                        +1

                        Если формального определения мышления нет, что же Вы тогда разрабатываете?

                        Решения для конкретных задач. Если мне надо научиться категоризовать чеки, мне не надо разбираться в теории человеческого мышления, мне надо категоризовать чеки.


                        1. semipro Автор
                          10.12.2018 14:00

                          1) как можно научиться категоризировать чеки на категории, нужные и понятные людям, если не знать, как это делает человек?
                          2) почему задача категоризации относится к ИИ? Решение уравнений методом Ньютона — это тоже интеллект?


                          1. lair
                            10.12.2018 14:06

                            как можно научиться категоризировать чеки на категории, нужные и понятные людям, если не знать, как это делает человек?

                            Наблюдая за человеком и выявляя зависимости. Задавая вопросы.


                            почему задача категоризации относится к ИИ?

                            Вот поэтому: "Colloquially, the term "artificial intelligence" is applied when a machine mimics "cognitive" functions that humans associate with other human minds, such as "learning" and "problem solving"".


                            Я, впрочем, предпочитаю говорить, что я разрабатываю системы машинного обучения, а не ИИ, это немного менее спорное определение. Из той же статьи:


                            "The scope of AI is disputed: as machines become increasingly capable, tasks considered as requiring "intelligence" are often removed from the definition, a phenomenon known as the AI effect, leading to the quip in Tesler's Theorem, "AI is whatever hasn't been done yet.""


                            1. semipro Автор
                              10.12.2018 14:55

                              AI is whatever hasn't been done yet
                              Пожалуй, это — лучшая мысль в этой дискуссии, характеризующая, что такое ИИ на сегодня. Адекватность результата такой деятельности, которая «hasn't been done yet», я так понимаю, и не гарантируется. Мы делаем что-то новое. Что получится на выходе, неизвестно. Возможно, человек сможет использовать это с пользой, а возможно, и нет.


                              1. lair
                                10.12.2018 14:56

                                Мне кажется, вы не прочитали абзац целиком. Но не суть.


                              1. lair
                                10.12.2018 15:00

                                Мне на этом месте, конечно, становится очень интересно, а что же за "ИИ" вы рассматриваете в своей статье, если он все еще не сделан. Говорите о каких-то "современных технологиях", показываете на какие-то ошибки… в чем? Почему именно эти примеры — ИИ, а не (любое другое слово)?


          1. jrthwk
            09.12.2018 15:58

            > Я как-то спросил у друзей: а ИИ, он мужик или баба? Ну посмеялись, чо :) Вот ИИ может посмеяться такой шутке?

            А это что, была шутка?


            1. semipro Автор
              09.12.2018 16:56

              Сочувствую :) У людей разное чувство юмора, бывает. Мы посмеялись.


              1. jrthwk
                09.12.2018 17:37

                То есть, хм, в качестве критерия соответствия ИИ человеку вы берете некое качество, которое и самим людям свойственно далеко не всем? При этом и вы сами отлично знаете что оно свойственно не всем людям?

                Ну что можно сказать: «Л — Логика», да…


                1. semipro Автор
                  09.12.2018 18:57

                  Я надеюсь, Вы не обиделись на счёт шутки с полом ИИ? Нет, не так. Я говорю о том, что для того чтобы создать ИИ, нужно (ну ок, было бы неплохо) понять, как устроен наш собственный интеллект, наши психические процессы, и потом попробовать их воссоздать. Пускай воссозданный ИИ будем иметь плохое чувство юмора. Я не вижу в этом проблемы. У людей ведь тоже разный IQ, EQ, чувство юмора и т.п. вещи, «задающие» его интеллект. Но человек, не понявший шутку != современному компьютеру, который в принципе не имеет никакого чувства юмора. Понимаете мысль? Попытки наделить чат-боты чувством юмора вызывают жалость и разочарование в силах человеческого ума, который пытается их создать. Не можем пока повторить творение матери-природы — наш собственный разум. Ключ — в преодолении барьеров, описанных в статье. При чем это не единственные сдерживающие нас барьеры. Шаблонные фразы, заложенные в них программистами, особого интереса не вызывают. Неинтересно с ними, интеллекта у них нет, и это чувствуется, всё это пока игрушки.
                  Кстати, а какой IQ будет у ИИ? Кто-нибудь будет это закладывать? Или у всех ИИ будет IQ 200 по умолчанию.


                  1. jrthwk
                    10.12.2018 19:55

                    >У человека (животных?) знак автоматически увязывается с продуктом мышления, эмоцией и т.п., т.к. он эволюционно и предназначен для кодирования последних.

                    /флегматично/
                    Глядя на все эти околоИИшные дискуссии понимаешь что главная проблема всей этой околоИИшной философии — это то что главной задачей у нее стоит не исследование мышления или практическое построение ИИ, а исключительно поиск еврохристианской «души», которую боженька дал исключительно человеку и не дал всем остальным. Чтобы замаскировать суть рассуждений этой «душе» дается много разных названий типа «самосознание»/«квалиа»/etc/etc, сейчас вот «знаковая система» добавилась…


                    1. Fracta1L
                      10.12.2018 20:20

                      Если картезианское разделение на материю и дух принять за разделение на материю и информацию (чтобы картезианский дуализм имел хоть какой-то научный смысл), то получается, что сторонники души/духовности упрекают машины не в том, что у них нет души, а в том, что их душа не такая мощная, как у человека))


                    1. semipro Автор
                      10.12.2018 20:56

                      Знаковая система — это не самосознание. Это протокол для обмена информацией между агентами коммуникации, понимающими, как и во что интерпретировать элементы этой знаковой системы. Мой тезис в том, что компьютер не знает, во что ему интерпретировать знаки, поступающие от человека, а причина этому — отсутствие у компьютера схожих с человеческими психических процессов: мышление, память, речь, эмоции.


      1. Hardcoin
        09.12.2018 16:28
        +2

        Мысль — это продукт мышления

        Восхитительное циклическое определение. Сепульки на новый лад?


  1. DGN
    09.12.2018 14:43
    +2

    Автопилот под управлением ИИ, наезжая на препятствие на дороге, ничего не поймет, ничего не почувствует, не задумается, не расстроится, не обрадуется, не испугается, не будет никакой рефлексии

    Тут как раз вообще никаких особых проблем. Заводим датчик вибраций в контур обратной связи, выдаем ИИ негативное подкрепление. И ИИ почувствует, задумается и отрефлексирует. Расстроиться, обрадоваться, испугаться — человеческие качества, их в принципе можно проецировать на ИИ. Расстроился — ввел поправку в весовые коэффициенты. Испугался — стал избегать образов ведущих к повышенным вибрациям на дороге. Получил лучшую интегрированную оценку вибраций за поездку — обрадовался.


    1. semipro Автор
      09.12.2018 15:58

      А если наехать на бревно, такое же негативное подкрепление или шраф меньше? А если вместо человека распозналось бревно, штрафа нет, можно смело ехать дальше?


      1. lair
        09.12.2018 16:13
        +2

        А если вместо человека распозналось бревно, штрафа нет, можно смело ехать дальше?

        Вы, возможно, не поверите, но реакция водителя-человека на "что-то под колесом" тоже сильно зависит от того, распознал он это что-то как бревно или как собаку.


        1. semipro Автор
          09.12.2018 20:07

          А ответ на вопрос у Вас какой будет? Ошибки распознавания мы как будем обрабатывать? Я видел примеры, когда распознавался прозрачный воздух. В этом случае педаль в пол?


          1. lair
            09.12.2018 22:02

            А ответ на вопрос у Вас какой будет?

            Такой же, как и для человека.


            Ошибки распознавания мы как будем обрабатывать?

            Так же, как и у людей.


            1. semipro Автор
              09.12.2018 22:42

              А вы же против антропоцентричного подхода, физиологии, живых людей и т.п. вещей, но при этом говорите, также, как у людей. Ну и вопрос: а у людей как. Я считаю, что есть сложные, пока к сожалению, плохо изученные процессы в мозгу, которые эти ошибки и исправляет. Расскажите, как компьютер исправляет ошибки распознавания?


              1. lair
                09.12.2018 22:50

                А вы же против антропоцентричного подхода, физиологии, живых людей и т.п. вещей, но при этом говорите, также, как у людей.

                А я не вижу смысла придумывать другую систему правил в данном случае.


                Расскажите, как компьютер исправляет ошибки распознавания?

                Помечает пример как отрицательный и перестраивает модель.


                1. semipro Автор
                  10.12.2018 07:02

                  А я не вижу смысла придумывать другую систему правил в данном случае.
                  Отлично, т.е. всё-таки отталкиваемся от человека. Тогда вопрос: Вы дуалист? Если да, то вопросов больше нет. Если нет, то следующий вопрос: зачем специалистам ИИ потребовалось изучать нейроны головного мозга человека? Зачем вам нейросети?

                  Помечает пример как отрицательный и перестраивает модель.
                  А как понимает, что неправильно распознал? Что заставляет его
                  Помечает пример как отрицательный


                  1. lair
                    10.12.2018 12:02

                    Отлично, т.е. всё-таки отталкиваемся от человека.

                    Не-а, отталкиваемся от практического опыта.


                    зачем специалистам ИИ потребовалось изучать нейроны головного мозга человека?

                    Как один из возможных образцов, я подозреваю.


                    Зачем вам нейросети?

                    Нейросеть — это сложная вычислительная система, решающая конкретную задачу. Мне нужно решать задачи, которые хорошо решаются нейросетью, я беру нейросеть.


                    Обратите внимание на определение: "computing systems vaguely inspired by the biological neural networks that constitute animal brains" (выделение мое).


                    А как понимает, что неправильно распознал?

                    Либо ему его явно помечают (сравните с ситуацией в образовании, когда проверяющий говорит, что пример решен неправильно), либо сталкивается с эмпирическим противоречием (мы определили, что впереди ничего нет, значит, можно ехать, но как только поехали, ощутили препятствие).


                    1. semipro Автор
                      10.12.2018 14:04

                      Не-а, отталкиваемся от практического опыта.
                      Сферического опыта в вакууме? Или всё-таки человеческого опыта, который пытаются использовать, переложить, сэмулировать?

                      Как один из возможных образцов, я подозреваю.
                      А Вам же не нужна физиология, зачем Вы туда полезли? Работайте с чистой математикой.

                      Либо ему его явно помечают
                      Т.е. сам он не может? А когда перестанут помогать, сдуется?


                      1. lair
                        10.12.2018 14:08

                        Сферического опыта в вакууме?

                        Опыта, существующего в конкретной отрасли. Если он человеческий — человеческого.


                        А Вам же не нужна физиология, зачем Вы туда полезли?

                        А я туда и не лазил.


                        Т.е. сам он не может? А когда перестанут помогать, сдуется?

                        Я так понимаю, второе "либо" вы упустили. Но, впрочем, да: если из системы обучения с учителем убрать учителя, а из системы обучения с подкреплением убрать подкрепляющую функцию, она "сдуется".


                        1. semipro Автор
                          10.12.2018 15:29

                          Если он человеческий — человеческого.
                          Т.е. ИИ всё-таки ориентирован на человека? Отлично. А как ИИшники изучают опыт людей, не понимая, как формируется такой опыт? При разработке экспертных систем основная проблема как раз и заключалась в том, как «выудить» этот самый опыт.

                          А я туда и не лазил
                          Но используете/допускаете использование нейросетей, взятых из анатомии людей? Но при этом уверены, что нет нужды изучать, процессы, происходящие в человеческих нейросетях, я правильно Вас понял? Это похоже на то, как взять печатную плату, и не понимая, какие процессы в ней происходят, просто скопировать внешние атрибуты этой платы — дорожки, элементы — и дальше делать эмуляцию, при этом считая, что эта эмуляция не хуже, если не лучше работы самой печатной платы.


                          1. lair
                            10.12.2018 15:34

                            ИИ всё-таки ориентирован на человека?

                            ИИ ориентирован на задачу.


                            А как ИИшники изучают опыт людей, не понимая, как формируется такой опыт?

                            А как композиторы пишут музыку, не понимая механизмов ее воздействия?


                            Но используете/допускаете использование нейросетей, взятых из анатомии людей?

                            Да.


                            Но при этом уверены, что нет нужды изучать, процессы, происходящие в человеческих нейросетях, я правильно Вас понял?

                            Я уверен, что это не обязательное условие для развития искусственного интеллекта.


                            1. semipro Автор
                              10.12.2018 16:30

                              ИИ ориентирован на задачу.
                              А задачу ведь человек ставит. Или у Вас есть другие примеры? Я не знаю таких задач, решаемых людьми, которые бы не были им нужны. А значит, инженеры, работающие над ИИ, делают приложения для пользователей-людей. И результат работы таких приложений будет интерпретироваться тоже людьми.


                              1. lair
                                10.12.2018 16:36

                                А задачу ведь человек ставит.

                                Задачу ставит человек, да. Но задача может выглядеть как "нам нужен поток измерений раз в микросекунду, точность такая-то, слать в формате таком-то", а на другом конце провода — какой-то вычислительный агент. Эта задача ориентирована не на человека, нет. Где-то там, далеко, в конце проекта, есть человеческая выгода, да. Но каждая конкретная подзадача вполне может к человеку отношения не иметь.


                                И результат работы таких приложений будет интерпретироваться тоже людьми.

                                Вы правда про сервисное взаимодействие никогда не слышали, или просто тактично замалчиваете?


                                1. semipro Автор
                                  10.12.2018 18:08

                                  Эта задача ориентирована не на человека
                                  В каком смысле? Не понял, результаты решения задачи не нужны авторам задачи? Давайте всё же о контексте задач поговорим.
                                  поток измерений
                                  Label-ы набору характеристик этого потока кто назначает? Человек.
                                  сервисное взаимодействие
                                  Протокол кто разрабатывает? Человек. Логи взаимодействия сервисов между собой кто анализирует? Человек. Нет ведь такого, чтобы сервисы друг другу что-то пропищали на непонятном человеку языке, и это осталось только между ними. Во всё, что делает человек, он вкладывает результат собственного мышления. Результат любой задачи так ли иначе анализируется человеком. И характеристику качества тоже даёт человек.
                                  каждая конкретная подзадача вполне может к человеку отношения не иметь.
                                  Конечный результат будет анализироваться человеком, и если подзадача решена плохо или неверно, конечный результат тоже будет хуже, и человек это увидит, поймёт это.


                                  1. lair
                                    10.12.2018 18:14

                                    Не понял, результаты решения задачи не нужны авторам задачи?

                                    Нужны, но не для собственного потребления. Их просто скормят следующей машинке.


                                    Нет ведь такого, чтобы сервисы друг другу что-то пропищали на непонятном человеку языке, и это осталось только между ними.

                                    Конечно, есть.


                                    Результат любой задачи так ли иначе анализируется человеком.

                                    Это не значит, что эта задача на него ориентирована.


                                    Впрочем, это очередной бессмысленный терминологический спор, не имеющий отношения к теме поста.


                                    1. semipro Автор
                                      10.12.2018 18:40

                                      Это не значит, что эта задача на него ориентирована.
                                      Вы правда не понимаете, о чём я? Если подзадача будет решена неверно, кто пострадает? Кто не получит нужный файл?


                                      1. lair
                                        10.12.2018 18:41

                                        Я боюсь, что вы тоже не понимаете, о чем я. А поскольку это не имеет отношения к тебе поста, особого смысла продолжать эту ветку я не вижу (особенно учитывая, что существенно более интересный вопрос из нее вы пропустили).


                                        1. semipro Автор
                                          10.12.2018 19:01

                                          Повторите, пожалуйста, более интересный вопрос. Я попробую на него ответить. Дело в том, что мне сыпется большое кол-во комментариев, да Вы и сами видите интенсив переписки, возможно что-то где-то упустил.


                                          1. lair
                                            10.12.2018 19:02

                                            А как ИИшники изучают опыт людей, не понимая, как формируется такой опыт?

                                            А как композиторы пишут музыку, не понимая механизмов ее воздействия?


                                            1. semipro Автор
                                              10.12.2018 20:11

                                              Я считаю, что музыка — это одно из проявлений процессов мышления, памяти, эмоций, продукты которых передаются через несколько знаковых систем: нотная запись, пометы дирижёра для музыкантов, как надо играть какую-то часть и т.д. Музыка — это тоже часть интеллекта. Пардон, глупый человек не может сочинить хорошей музыки.
                                              Знаки нотной записи служат для передачи обозначенных продуктов: ноты, интервалы, аккорды, может, что-то ещё, я не могу точно судить, т.к. у меня нет никакого музыкального образования.
                                              Могу сказать одно: мажорные аккорды я лично воспринимаю как «светлые», «победные», минорные — как «грустные», т.е. я их воспринимаю, как и было задумано. Консонансы и диссонансы я воспринимаю аналогичным образом.
                                              Т.е. если композитор закодировал минором грустную линию главного героя, я это пойму, я пойму эту мысль композитора.
                                              Насколько я понял, Вы не считаете это определением музыки.
                                              И ещё момент по поводу восприятия музыки. Считаю, что обычный человек и профессиональный музыкант несколько по-разному воспринимают одно и то же музыкальное произведение. Музыкант может больше понять, больше проанализировать, услышать знакомые комбинации. Обычный человек может даже не понять, сколько музыкальных инструментов играет сейчас.
                                              Я не стал приводит в статье мысль (выскажу здесь) о том, что кодирование смысл — знак не обязательно однозначно 1:1, т.е. разные знаки могут ссылаться на один смысл, а один смысл кодироваться разными знаками. Пример этого по музыке — выше. Т.е. знаки (звуки) как бы одни, но музыкант способен увязать большее кол-во смыслов, чем неподготовленный слушатель. Поэзия туда же. Прочитай Есенина дяде Коле слесарю, не поймёт, почему любители поэзии Есенина с ума сходят. Науки, образование туда же. Всему классу один и тот же учитель с помощью одних и тех же слов объяснял материал, кто-то сделал домашку, а кто-то нет. Хотя до внутреннего уха долетали одни и те же синусоиды.


                                              1. DjSapsan
                                                10.12.2018 20:18

                                                Что мешает ИИ быть изоморфным человеку?


                                                1. semipro Автор
                                                  10.12.2018 20:58

                                                  Ничего. Человек давно нарисовал робота в виде угловатого человека.


                                              1. lair
                                                10.12.2018 22:45
                                                +1

                                                Это все прекрасно, конечно, но ничто из этого не объясняет, как музыка действует на человека. О чем я, собственно, и говорил.


                                                Могу сказать одно: мажорные аккорды я лично воспринимаю как «светлые», «победные», минорные — как «грустные», т.е. я их воспринимаю, как и было задумано.

                                                Неа. Не "как задумано". У вас нет никакого основания думать, что мажорные аккорды задуманы светлыми и победными (а если вы так думаете, то послушайте до-мажорную прелюдию и фугу Шостаковича из восемьдесят седьмого опуса), вы просто придумали себе такую модель, и она вас устраивает.


                                                Но даже не в этом дело — а в том, что вы, конечно, можете лично воспринимать мажор как победный, но вы не знаете, почему. И композитор не знает, почему вы это так воспринимаете. И я, с семнадцатью годами музыкального образования и дипломом по истории и теории музыки, не знаю, почему. И мои научные руководители не знают.


                                                То, как работают музыканты и композиторы (и музыковеды) — это всего лишь наблюдения: такая-то музыка воздействует так-то, такая-то — так-то. Иногда мы можем проследить до какой-то причины, навроде того, почему D ассоциируется с войной, но это всего-лишь правила ассоциаций, не более того (и этим пользуются музыковеды; композиторам на это глубоко наплевать, они просто знают, что это работает).


                                                Ничего не напоминает, нет? А должно бы: это то, как работают системы машинного обучения — множество наблюдений, из которых построена закономерность без понимания ее причин. Ровно то, возможность чего вы отрицаете.


                                                1. semipro Автор
                                                  11.12.2018 08:11
                                                  -1

                                                  Неа. Не «как задумано». У вас нет никакого основания думать, что мажорные аккорды задуманы светлыми и победными (а если вы так думаете, то послушайте до-мажорную прелюдию и фугу Шостаковича из восемьдесят седьмого опуса), вы просто придумали себе такую модель, и она вас устраивает.
                                                  У меня нет основания думать, я просто говорю, о чём думаю, а именно, я только что прослушал эту фугу, по первым же нотам ощущение спокойствия и уверенности, т.е. позитив. И даже если бы Вы мне не сказали, что там до-мажор, я почувствовал бы тоже самое. И потом, это имеет какое-то значение? На вкус и цвет товарища нет. Это еще один пример того, что
                                                  Прочитай Есенина дяде Коле слесарю, не поймёт, почему любители поэзии Есенина с ума сходят.

                                                  Ничего не напоминает, нет? А должно бы: это то, как работают системы машинного обучения — множество наблюдений, из которых построена закономерность без понимания ее причин. Ровно то, возможность чего вы отрицаете.
                                                  Конечно буду отрицать такой подход к моделированию интеллекта. Это несерьёзно. Мы построили самолёт, не понимая, как он летает? Почему специалисты ИИ упорно верят, что статистика определяет казуистику? Прослушав миллион нот, можно теперь сочинять самому? Откуда такая самоуверенность? Я извиняюсь, но это нелепо. Композитор учится сочинять музыку, не за счёт прослушивания миллионов нот других композиторов, а потом тупо копируя их. Он мыслит, обрабатывает ранее услышанное, использует приобретённые знания, привносит свои наблюдения, свой опыт. А как учился первый композитор? У него не было миллиона нот предыдущих композиторов.

                                                  построена закономерность без понимания ее причин
                                                  И это будет возить нас по улицам города? Мама.


                                                  1. lair
                                                    11.12.2018 11:35

                                                    И потом, это имеет какое-то значение?

                                                    Вы пропустили следующие два абзаца, где рассказывается, какое. Ничего, я повторю еще раз.


                                                    Во-первых, вы не просто утверждаете, что вы что-то чувствуете (с этим утверждением, понятное дело, спорить сложно), вы еще и утверждаете "я их [аккорды] воспринимаю, как и было задумано". С одной стороны, не очень понятно, на основании чего вы думаете, что было задумано именно так, как вы воспринимаете? А с другой: вот вы воспринимаете одним образом, я — другим (и практически противоположным), так как же было задумано?


                                                    А во-вторых: пусть даже вы воспринимаете так, как было "задумано". Пусть. Почему это происходит? Почему конкретный аккорд оказывает на вас такое воздействие, а не другое?


                                                    Конечно буду отрицать такой подход к моделированию интеллекта.

                                                    Нет уж, давайте не будем уходить от музыки. Вы понимаете, как она работает (на уровне ответа на вопрос "почему" выше)? Нет. Композитор — тоже нет. "Это несерьезно"? Это работает или нет?


                                                    И это будет возить нас по улицам города?

                                                    "Это" уже пишет вам музыку. Вы готовы от нее отказаться?


                                                    1. semipro Автор
                                                      11.12.2018 11:43

                                                      «Это» уже пишет вам музыку. Вы готовы от нее отказаться?
                                                      Сначала уточню по этому, а потом попробую ответить на остальные Ваши вопросы. 1) можно послушать? 2) от прослушивания могут погибнуть люди?


                                                      1. lair
                                                        11.12.2018 11:45

                                                        Я про обычных человеческих композиторов говорю.


                                                        1. semipro Автор
                                                          11.12.2018 12:23

                                                          Вам интересна музыка, а мне интересна безопасность.

                                                          Мы построили самолёт, не понимая, как он летает?
                                                          А раз не понимаем, то и не знаем, когда он может упасть?


                                                          1. lair
                                                            11.12.2018 13:41

                                                            Если вам интересна безопасность, не используйте решения, безопасность которых вы не можете проанализировать.


                                                        1. semipro Автор
                                                          11.12.2018 12:28
                                                          -1

                                                          И ещё, я правильно понимаю, что Вы пытаетесь убедить меня в том, что раз мы не понимаем, что такое музыка, но при этом не видим принципиальных проблем пользоваться её, то это означает, что нет ничего плохого или страшного в том, чтобы пользоваться чем угодно, чего мы не понимаем?


                                                          1. lair
                                                            11.12.2018 13:42

                                                            Нет, я всего лишь демонстрирую, что утверждение "нельзя пользоваться знаковой системой, не понимая, как она работает" в общем случае неверно.


  1. SEN7759
    09.12.2018 15:52

    1. Сознание связано с ОТРАЖЕНИЕМ, моделированием, распознаванием, анализом,
    обработкой и хранением информации (память).
    Мозг сравнивает отраженные образы/модели. Долговременная память связана с образованием специальных белков в нейронах и сетями нейронов, т.е. дискретна.
    2. Простой, логичный, выразительный язык — эсперанто. Он позволяет почти дословный перевод, лёгок для людей, а робот сможет на нем выразить больше, яснее, точнее… До многих никак не может дойти, что нужно распространять единый вспомогательный международный язык (второй, после родного). Это даст большее взаимопонимание народов, снизит возможные искажения инфы, манипуляции, позволит приобщить к культуре детей в экономически отсталых странах…


    1. semipro Автор
      09.12.2018 15:54

      Он позволяет почти дословный перевод
      Перевод чего? Ваших мыслей? А у робота какие мысли? Что он будет переводить?


      1. lair
        09.12.2018 15:57

        А у робота какие мысли? Что он будет переводить?

        Да такие же, как у человека: отображение его внутреннего состояния. Только вместо "я хочу есть" — "батарейка села наполовину".


        1. semipro Автор
          09.12.2018 17:00

          Понравилось. Вот уже что-то. Надо дальше двигаться. Мотивация какая? Ну там заработать денег, чтобы купить жене сапоги :) Если серьёзно, он понял, что батарейка села, или это просто алгоритмом заложено, который человек разработал? Я когда есть хочу, прям буквально животом чувствую, могу это словами описать, действия попробовать предпринять. Компьютер вот прям своей материнской платой чувствует, что питание кончается?


          1. lair
            09.12.2018 17:24
            +1

            Если серьёзно, он понял, что батарейка села, или это просто алгоритмом заложено, который человек разработал?

            Что значит "понял"? Как отличить по формальным признакам одно от другого?


            Компьютер вот прям своей материнской платой чувствует, что питание кончается?

            Ну да. Там есть датчик, датчик шлет сигнал.


            1. semipro Автор
              09.12.2018 19:08

              Ну да. Там есть датчик, датчик шлет сигнал.
              В этом ключ. Кому он шлёт сигнал? Я сам себе. Сам иду на кухню или кричу: «жона, жрать давай!» :) А компьютер кому шлёт сигнал? Оператору ЭВМ? Я знаю о существовании холодильника и/или жены. А компьютер знает о существовании оператора? Он надеется получить питание? Он умеет надеяться? Если да, как это можно доказать?


              1. lair
                09.12.2018 19:12
                +1

                Кому он шлёт сигнал?

                А кому человек озвучивает свои мысли?


                Я сам себе.

                А зачем вам для этого знаковая система?


                Но началось-то все с вопроса "что компьютер будет переводить". Вот вам и пример.


                Он умеет надеяться? Если да, как это можно доказать?

                А как вы можете доказать, что человек умеет надеяться?


                1. semipro Автор
                  09.12.2018 20:16

                  А кому человек озвучивает свои мысли?
                  Их необязательно озвучивать. Могу молча пойти на кухню, могу отметить: «однако пора бы подкрепиться.»

                  А как вы можете доказать, что человек умеет надеяться?
                  Легко. Надежда — это результат отработки мышления (а возможно или даже скорее всего других психических процессов) по анализу определённой информации и подготовке на этой основе вывода. Вот Вам пример надежды. Если французы проиграют испанцам, а нигерийцы сыграю вничью с японцами, есть надежда, что мы выйдем из группы. Ещё пример.
                  — Я надеюсь, завтра не будет дождя.
                  — Почему?
                  — По прогнозу — солнце.


                  1. DjSapsan
                    09.12.2018 20:51

                    Первые в мире самостоятельные роботы как раз были разработаны с чувством голода. Сначала они бегают по комнате, а когда чувствуют голод — сразу к зарядной станции. Никакого вмешательства человека в этот процесс не было.


                  1. lair
                    09.12.2018 22:04
                    +1

                    Легко

                    Подождите, где доказательство-то? Вы просто привели ситуацию, и назвали ее "надеждой". Я с таким же успехом могу сказать, что компьютер, показывая табличку "заряд <5%" надеется, что его зарядят.


                    (а еще вы подменили надежду ожиданием, но не суть)


                    1. semipro Автор
                      10.12.2018 09:51

                      Если бы у меня были доказательства, я бы печатался в научном журнале, а не здесь. Вы точно также не можете привести ни одного доказательства того, что без исследований нашего собственного интеллекта удалось создать полноценный искусственный интеллект, не уступающий или превосходящий естественный.

                      (а еще вы подменили надежду ожиданием, но не суть)
                      А ещё вы придираетесь к словам, делая вид, что не понимаете, о чём я говорю.


                      1. lair
                        10.12.2018 12:04
                        +2

                        Если бы у меня были доказательства, я бы печатался в научном журнал

                        Гм.


                        — как вы можете доказать, что человек умеет надеяться?
                        — Легко. Надежда — это [...]
                        — Где доказательство-то?
                        — Если бы у меня были доказательства, я бы печатался в научном журнале


                        Гм.


      1. SEN7759
        09.12.2018 23:54

        Перевод с одного языка на другой. Читайте внимательнее, и контекста ясно, что приводилось свойство языка эсперанто. О роботах написано дальше…


        1. semipro Автор
          10.12.2018 08:11

          Забудем про эсперанто. Как вообще делается перевод с одного языка на другой? Как перевести фразу «Коля прибухнул»? Вот гугл-траслейт предлагает вариант "Nick arrived". А Вы бы какой вариант предложили? Знаковая система не имеет значения. Согласитесь, если бы эта переписка велась на английском или эсперанто, мы бы обменивались теми же самыми мыслями.


          1. SEN7759
            10.12.2018 08:38

            Знаковая СИСТЕМА имеет значение (если не сводить ее лишь к алфавиту, а включать грамматику и соответствие букв звукам). Это отлично понимали уже Декарт, Лейбниц и др. (и писали об этом). Простота, логичность, выразительность/гибкость — важнейшие качества вспомогательного международного языка (есть и другие качества: например, набор аффиксов для научной терминологии).


            1. semipro Автор
              10.12.2018 08:42

              Хорошо, я не против, учите эсперанто, дело Ваше, может, изучая эсперанто, Вы поймете, как работает наш мозг и как создать ИИ. Я тут уже ответил:

              Кажется мы уткнулись таки в необходимость изучения Ифкуиля.
              Не уверен, что всё, что придумано человеком, необходимо изучать :)


              1. SEN7759
                10.12.2018 18:40

                Похоже, что Вы мало что поняли… Это показывает приведенная цитата (пусть и не Ваша) про сложный язык Ифкиуль и Ваш ответ на нее.


                1. semipro Автор
                  10.12.2018 18:59

                  Что я должен понять? Что человек «извратился» и придумал какой-то сложный искусственный язык? Да мало ли что люди придумывают. На ютубе полно роликов, где на нём песни поют. Я извиняюсь, чудаков полно. Или Вы искренне считаете, что изучение Ифкуиля нас приведёт к чему-то полезному?


                  1. SEN7759
                    10.12.2018 19:48

                    Вы сами вбрасываете мусорную фразу про Ифкиуль и Вашу "борьбу" с ней. Поскольку к ранее изложенным идеям это не имеет абсолютно никакого отношения, поэтому и получили вышеприведенный ответ. Ваш же вопрос про изучение Ифкуиля и направляйте по назначению...


                    1. semipro Автор
                      10.12.2018 20:20

                      Вы можете конкретно объяснить свою мысль про Ифкуиль? Я в Ифкуиле вижу игру ума: сложные уровни языка (фонетика, грамматика), не имеющие аналогов в естественных языках. Я тут уже высказывал мысль о том, что мы не мыслим по законам математической логики. А в Ифкуиле как раз и предпринята попытка засунуть мат. логику. В любом языке есть логически объяснимые структурные элементы (с исключениями конечно), позволяющие его осваивать. Но Ифкуиль, это же какой-то монстр, совсем не вдохновляющий на его анализ и изучение.


                      1. SEN7759
                        10.12.2018 20:40

                        У меня не было мыслей об Ифкуиль! Были мысли о связи сознания/смысла с отражением и т.д; о важности эсперанто в связи с идеями в Вашей статье… Хотел помочь, но был не понят :)


                        1. semipro Автор
                          10.12.2018 21:07
                          -1

                          Вы лучше лайками помогите :) а то люто минусуют :) я бы не стал минусовать пост только потому что я не согласен с тезисами автора. Но все мы разные, кто-то минусует, кто-то нет.
                          А на счёт эсперанто я вынужден вас разочаровать. Это просто ещё один язык, не более. Сравните с языками программирования. Одни приходят, другие уходят. Нет какого-то абсолюта.


  1. DjSapsan
    09.12.2018 20:05

    Почему в последнее время статьи про ИИ столь категорические? Зачем переносить свойства одних систем на все? Учитывая, что есть множество решений, которые обходят указанные «ограничения» (или обойдут позже)
    Например, автор не видел субтитры на Ютубе. Пример с «ама ыла аму» некорректный. Алгоритмы видеохостинга как раз подгоняют слова под известные. И я полностью уверен, что именно это высказывание Ютуб поймет правильно.
    Говорить о отсутствии чувств в машинах нет смысла. В кремнии не протекают такие химические реакции как в мозгу. Также и в мозгу ток не идет так, как в процессоре. Так что полное соответствие чувств у сущностей человек<->машина невозможно. Но изоморфизм составить можно. Например, боль у машины может быть представлена как «штрафы» внутреннему решателю. А удовольствие как «бонусы». Цель решателя — максимизировать очки. В итоге машина с этим решателем будет избегать болючих для себя действий.


    1. semipro Автор
      09.12.2018 20:43

      Где я сказал, что не видел субтитров? Я их как раз видел. В каждом предложении ошибка, и даже был мат. Мне пришлось вручную исправлять эти с позволения сказать «субтитры». Мусор получился, а не субтитры, вот в чём беда. А пример «ама ыла аму» совсем не про видеохостинг. К сожалению, Вы напутали информацию из статьи и комментариев.
      Как бы Вы назвали процесс

      будет избегать болючих для себя действий
      ? Если бы он действительно был реализован, я бы его назвал мышлением, частью интеллекта.


      1. DjSapsan
        09.12.2018 20:56

        semipro Ваши же слова

        Для ИИ же все три слова в предложении отсутствуют в словаре русского языка. Домысливания, «подгонки» под какой-либо понятный, известный смысл нет, т.к. в памяти ИИ собственно вообще нет никаких сохраненных смыслов

        Подгонка есть и у человека и у ИИ.

        Если бы он действительно был реализован, я бы его назвал мышлением, частью интеллекта.
        Это УЖЕ реализовано. Практически все интеллектуальные решатели избегают боли (со своей точки зрения). Начиная от арканоида (пропуск мяча), заканчивая автопилотами (ДТП)


        1. semipro Автор
          09.12.2018 21:01

          Т.е. игра арканоид под управлением алгоритмов ИИ — это пример мышления, интеллекта? Кстати, опять об играх. Когда тексты начнём переводить? ИИ как играл в игры, так и играет. Я понял.


          1. DjSapsan
            09.12.2018 21:13

            Вы живете в каком-то средневековье. Автопилот по вашему игры? И как обучить ИИ без игр? Ваши предложения.


            1. semipro Автор
              09.12.2018 21:21

              Два момента:
              1) где они, эти Ваши автопилоты? Вот, например, у меня сейчас во дворе куча машин с двигателем внутреннего сгорания и ни одной с автопилотом;
              2) мне всё равно, как обучать ИИ. Почему именно через игры? Аргументы? Мне видится, что инженеры не нашли более безобидного и безопасного «подопытного», чем игры, вот и стали с ними работать, что называется, доступно, дёшево и сердито. Люди обучаются по-разному: и с играми, и без. Мне припомню, чтобы была какая-то игра для научения меня решать квадратные уравнения.


              1. DjSapsan
                09.12.2018 21:26

                1) везде
                2) без игр обучится невозможно. Как иначе подбирать параметры?
                3) люди всегда обучаются с играми.


                1. semipro Автор
                  09.12.2018 21:44

                  1) вы про самолёты? Ну там вроде про ИИ не кричат;
                  2)

                  Как иначе подбирать параметры?
                  почему меня, как пользователя, должно это волновать? Мне кажется, это — профессиональная деформация специалистов по ИИ. Чуть что сразу игры или сравнение с детьми;
                  3)
                  всегда
                  сильное утверждение. Вы при получении проф образования играли в игры? Я нет, просто ходил на лекции, делал курсовые, в игры играл дома на компьютере.


                  1. DjSapsan
                    09.12.2018 21:55

                    1) Машины, самолеты, погрузчики, дроны и тд. Прямо сейчас ИИ экономит миллиарды долларов разным компаниям.
                    2) Вы хоть раз писали код? Я даже не спрашиваю про нейронку.
                    3) Без игр люди сдохнут на ровном месте, т.к. не будут знать как поступать в «реальной» ситуации. И вообще, дайте такое определение слову «игра», при котором можно чему-то научится не играя вообще. Ваша курсовая была реальная? Вы чертежи для реальных домов/машин рисовали? Вы на автокурсах сразу сели за руль? Нет! Вы делали всё «понарошку» или воображали действие. И только после закрепления знаний вам доверяют реальные дом/машину/руль.


                    1. semipro Автор
                      09.12.2018 22:30

                      Прокомментирую только 3-й пункт. Не, не так. Вы можете на симуляторе сколь угодно долго играть, но научиться водить машину можно, только водя эту самую машину. То же самое и про курсовые. «Забудьте чему Вас учили в школе и институте» — не я сказал. Навыки всегда адресны, нельзя чему-то научиться впрок. Сам должен прочувствовать, чтоб до автоматизма, до мозга костей. Вот где хранится это «до мозга костей» и как научить этому компьютер, вот это пока не поддаётся пониманию.


                      1. DjSapsan
                        09.12.2018 23:02

                        дайте такое определение слову «игра», при котором можно чему-то научится не играя вообще

                        Жду определение…


                        1. semipro Автор
                          10.12.2018 07:12

                          Ждите. Играя в игру, можно научиться играть в игру, и всё. Можно научиться играть в шахматы, но это никак не поможет улучшить навыки в плавании или решении прикладных задач на работе.


                          1. DjSapsan
                            10.12.2018 10:44

                            Ясно понятно. Тогда вот мой совет — прямо сейчас садитесь и учите программирование, тогда и поговорим


                            1. semipro Автор
                              10.12.2018 11:33

                              Т.е. люди, не изучавшие программирование, не умеют жить?

                              Можно научиться играть в шахматы, но это никак не поможет улучшить навыки в плавании или решении прикладных задач на работе.
                              Опровергните, иначе «садитесь и учите программирование» — это не лучше, чем «бе-бе-бе».


                              1. DjSapsan
                                10.12.2018 14:25

                                При чем тут шахматы к плаванию?
                                Для каждого навыка сначала идет отработка необходимых движений/методов. Или вы с рождения можете решить любую задачу?


                                1. semipro Автор
                                  10.12.2018 15:34

                                  Нет, не могу. Но навык конкретен. Чтобы научиться готовить, нужно стоять у плиты, а не играть в игрушечную кухню. Какой процент школьных знаний Вы используете по работе? Ну таблицу умножения в лучшем случае. Многолетнее изучение орфографии тоже заметных плодов не имеет, пишут почти все с ошибками. Уравнения хим реакций пригодились?
                                  Где вы приобрели навыки для выполнения Вашей повседневной работы: играя в садике, в школе, или всё-таки на самой работе?


                                  1. DjSapsan
                                    10.12.2018 16:31

                                    Тотальный бред. Я ухожу


                                    1. semipro Автор
                                      10.12.2018 17:37

                                      Без проблем, но захотите вернуться, я не буду против. А собственно почему бред-то?


                          1. Fracta1L
                            10.12.2018 14:30

                            Играя в игру, можно научиться играть в игру, и всё

                            Надо срочно донести эту гениальную мысль до человечества. Нафиг, например, пилотов обучают на каких-то детских симуляторах? В игрульки только играются, дураки. Сразу сажать их за штурвал набитого пассажирами лайнера, и норм.

                            И всё это смещение образовательных и обучающих процессов в игровую плоскость, характерное для последних десятилетий — тоже глупость детсадовская. Прочитать теорию по книжке, да выпнуть в суровую реальность! Люди, чай, не железяки тупые, мигом разберутся что к чему XD


                            1. semipro Автор
                              10.12.2018 15:37
                              -1

                              Нафиг, например, пилотов обучают на каких-то детских симуляторах?
                              А они ведь не детские. Там обстановка как в настоящем самолёте.

                              И всё это смещение образовательных и обучающих процессов в игровую плоскость
                              О чём речь? Я не в курсе.


  1. tivita
    09.12.2018 20:18

    Попытка осмыслить мышление с помощью мышления напоминает деятельность небезизвестного барона Мюнгхаузена, пытающегося вытащить себя самого из болота за волосы.
    Системное противоречие невозмозможно решить на уровне этой системы, как доказывает теорема Геделя о неполноте и теория логических типов Рассела. Поэтому проблема мышления будет решена коллективными усилиями и коллективным разумом на более высоком уровне. И если у единичного человека не будет ресурсов понять это, ничего страшного. Вот сейчас нет человека, который понимает в полном объеме как работает процессор нового поколения, Windows10 или новый космический корабль. Что не мешает всему этому успешно работать и выполнять свои функции. Так и непонимание отдельным человеком всей глубины и сущности мышления никак не мешает ни созданию ИИ, ни совершенстванию человека.


    1. DjSapsan
      09.12.2018 20:58

      Вот! Вот чего не хватает современным диванным Ньютонам. Нужно преподавать Дугласа Хофштадтера в школах, чтобы меньше таких выскочек было.


      1. semipro Автор
        09.12.2018 21:06

        А вот и оскорбления подтянулись, не могу сказать, что ждал, но не исключал. Ньютоном меня ещё никто не называл, спасибо :) Диванный, правда, стрёмно как-то :/ А если серьёзно, Хабр — не научный журнал, и моя статья не должна соответствовать критериям научной работы, Вашим ожиданиям. Правил публикации я не нарушаю, так что, хотите дискутировать, дискутируйте, без перехода на личности.


        1. DjSapsan
          09.12.2018 21:29

          Да тут есть такой на хабре newton2, не знаю почему вы отреагировали на это. Я вообще подразумевал множество авторов, которые публикуют статьи, даже не читавши википедию


          1. semipro Автор
            09.12.2018 21:46

            А ну тогда извиняюсь. Вот видите, живой пример ошибки интерпретации знаков :)


  1. Fracta1L
    09.12.2018 21:33

    Абсолютно неинтересная статья, по одной простой причине: в ней нуль рациональных аргументов и попыток что-либо осмыслить, есть только одно — танцы вокруг ни на чём* не основанного убеждения, что компьютер не может мыслить и чувствовать.

    *ни на чём — потому что основывать убеждение на репризах типа «компьютер не может мыслить потому что не может» — это всё равно что отсутствие всякого основания


    1. semipro Автор
      09.12.2018 22:05

      Ну статьи разные бывают. Это первое. А второе — это Ваша личная интерпретация воспринятой информации, согласны? Приведите, пожалуйста, контрпримеры, что компьютер умеет мыслить и чувствовать.


      1. Fracta1L
        09.12.2018 22:38
        +2

        это Ваша личная интерпретация воспринятой информации

        Судя по комментариям, моя интерпретация укладывается в консенсуальную реальность. А информации в вашей статье — нуль. Потому что не содержит ничего нового, ничего интересного, ничего полезного.

        Приведите, пожалуйста, контрпримеры, что компьютер умеет мыслить и чувствовать.

        А толку? Я даже знаю наперёд, что вы на это ответите — что-то из этих вариантов:
        — это примитивная имитация
        — вы что, всерьёз верите, что машина мыслит?!
        — оно ведёт себя не так, как надо (а как надо — я сам не знаю, но не так)
        — ну и что? вон, в таком-то году в такой-то стране машина ошиблась на такой-то задаче, о каком мышлении может идти речь?!
        — думаете, машина может испытать удовольствие или злость? я считаю, что нет, просто потому что


        1. semipro Автор
          10.12.2018 06:50

          Судя по комментариям
          Это — выборка каких-то людей, имеющих отношение к ИИ и отвечающих тут на Хабре. Согласитесь, это, мягко говоря, не отражает мнение всей когорты людей, занимающихся ИИ.

          А информации в вашей статье — нуль. Потому что не содержит ничего нового, ничего интересного, ничего полезного.
          Зачем Вы тогда сюда залезли? Проходите мимо. Комментируйте интересные и полезные статьи. А об интересе можно судить по кол-ву просмотров и комментариев, а не по Вашему одному мнению.

          А толку?
          Я уже понял стиль ответов. Прошу привести конкретные примеры, уходят в сторону. Привожу ссылки на ошибки распознавания, минусуют.

          — это примитивная имитация
          — вы что, всерьёз верите, что машина мыслит?!
          — оно ведёт себя не так, как надо (а как надо — я сам не знаю, но не так)
          — ну и что? вон, в таком-то году в такой-то стране машина ошиблась на такой-то задаче, о каком мышлении может идти речь?!
          — думаете, машина может испытать удовольствие или злость? я считаю, что нет, просто потому что
          Всё так. А я не имею права так считать? Или я тоже должен жевать мантру, что то, что сейчас называют искусственным интеллектом, и есть пример интеллектуальной деятельности?


          1. Fracta1L
            10.12.2018 07:52

            Всё так. А я не имею права так считать?

            Имеете. Только место таким смутным душевным переживаниям — не на Хабре, а где-нибудь на Пикабу. Хотя и там такую бессмысленную статью заминусуют и скажут унести её в ЖЖ.

            Или я тоже должен жевать мантру, что то, что сейчас называют искусственным интеллектом, и есть пример интеллектуальной деятельности?

            Можете жевать, можете не жевать, можете соглашаться или нет, но если вы пишите статью на Хабр, то будьте любезны постараться подойти к проблеме с рациональной стороны — изложить свои аргументы, с которыми можно работать. С упёртостью, которая основана на циклических определениях и личной предубеждённости, работать невозможно, и никакой полезной информации она не несёт. Вы просто сводите обсуждение ИИ (научный вопрос) к спору о субъективных предпочтениях (типа кому какая музыка нравится).


            1. semipro Автор
              10.12.2018 08:22

              Имеете. Только место таким смутным душевным переживаниям — не на Хабре, а где-нибудь на Пикабу. Хотя и там такую бессмысленную статью заминусуют и скажут унести её в ЖЖ.
              А почему статья бессмысленная? Бессмысленны (для человека) топики, выдаваемые LSA.

              личной предубеждённости
              Она есть у всех. Вы же убеждены, что современный ИИ — это есть пример интеллектуальной деятельности человека? Пока я вижу, что специалисты в ИИ считают, что всё, что выдают алгоритмы ИИ, по умолчанию считается продуктом интеллектуальной деятельности. Мне показалось, что их не заботит, что, с точки зрения человека-пользователя, эти продукты зачастую вообще неадекватны. Вот в чём я вижу проблему.


              1. Fracta1L
                10.12.2018 10:00

                Вы же убеждены, что современный ИИ — это есть пример интеллектуальной деятельности человека?


                Я вижу, что уже сейчас (когда ИИ использует, в общем-то, далеко не огромные мощности, по сравнению с человеческим мозгом) ИИ в ряде областей выдаёт качественный результат, сравнимый с человеческим или превосходящий его. Примеры таких областей уже озвучивали в треде. Вот и всё, убеждённость тут ни при чём, простые выводы из фактов.

                с точки зрения человека-пользователя, эти продукты зачастую вообще неадекватны

                Результаты работы исполнителей-людей тоже зачастую неадекватны. Люди здесь в более выигрышном положении только потому, что используют намного более мощные и прокачанные нейросети (aka головной мозг), и это позволяет им выявлять и исправляеть ошибки не тупо в лоб, а опираясь на сторонний опыт. Ожидать этого от нынешних ИИ, учитывая, как я уже сказал, их очень небольшую мощность — неадекватно. Вы ещё начните предъявлять претензии к школьникам за то, что они не могут спроектировать дом или расследовать преступление.


                1. semipro Автор
                  10.12.2018 10:16

                  простые выводы из фактов
                  Я стараюсь быть объективным и, если успехи есть, я их признаю, но я также вижу и противоположные факты.

                  Ожидать этого от нынешних ИИ, учитывая, как я уже сказал, их очень небольшую мощность — неадекватно.
                  Если не стоит ожидать, зачем тогда называть это интеллектом?

                  к школьникам
                  Опять мантра про детей. Почему тогда решения ИИ не называют решением уровня детей? Например, мы разработали автопилот, он водит машину, как школьник. Нет же, вместо этого заявляется, что взрослые профессиональные водители будут уволены. Если Ваш ИИ на уровне школьника, ну так и говорите об этом прямо.


                  1. Fracta1L
                    10.12.2018 11:01
                    +3

                    Если не стоит ожидать, зачем тогда называть это интеллектом?

                    Потому что интеллект это не божественная суперспособность идеально решить любую задачу и сотворить шедевр. Интеллект: «it can be described as the ability to perceive or infer information, and to retain it as knowledge to be applied towards adaptive behaviors within an environment or context. Intelligence is most often studied in humans but has also been observed in both non-human animals and in plants.»

                    Опять мантра про детей

                    Это не мантра, а факт. Впрочем, называть нынешние ИИ детским интеллектом — сильно льстить ИИ. Они сейчас много слабее, нежели у детей. Может быть, за исключением отдельных примеров.

                    Нет же, вместо этого заявляется, что взрослые профессиональные водители будут уволены

                    Так мы тут, оказывается, обсуждаем ваши батхёрты от чьих-то изнасилованных заявлений. А я думал, что проблемы искусственного интеллекта.

                    P.S. Вангую, что следующим вашим шагом будет батхёрт от процитированного выше определения интеллекта. А ответом на мой вопрос «а что тогда, по-вашему, интеллект?» будет что-то вроде «ну это как у психики!». А психика это что-то такое непонятное, но оно точно есть только у человека, да.


                    1. semipro Автор
                      10.12.2018 11:45

                      Intelligence is most often studied in humans but has also been observed in both non-human animals and in plants.
                      Не знаю, откуда цитата, но где про машины-то?

                      называть нынешние ИИ детским интеллектом — сильно льстить ИИ
                      Хорошее признание. Как видите пути развития ИИ? Нейросети — это пример живой природы, зачем они вам?

                      ваши батхёрты
                      Факты. Например, гугл-транслейт не может мне помочь в моей профессиональной деятельности. Только факты.


                      1. Fracta1L
                        10.12.2018 12:39

                        Не знаю, откуда цитата, но где про машины-то?

                        Дальше: «Intelligence in machines is called artificial intelligence, which is commonly implemented in computer systems using programs and, sometimes, appropriate hardware. „

                        Нейросети — это пример живой природы, зачем они вам?

                        Потому что это самый простой и очевидный путь — копировать то, что очевидно порождает интеллект.

                        Например, гугл-транслейт не может мне помочь в моей профессиональной деятельности

                        Бида-пичаль. А должен?
                        Вы вот никак не можете помочь мне в моей деятельности. Делаю вывод, что интеллектом вы не обладаете XD


                        1. semipro Автор
                          10.12.2018 14:33

                          Потому что это самый простой и очевидный путь — копировать то, что очевидно порождает интеллект.
                          Т.е. анатомия нам интересна, а физиология нет?

                          А должен?
                          Нет, не должен, но, пожалуйста, не называйте это интеллектом, не говорите, что человек-переводчик — это профессия прошлого, не выдавайте желаемое за действительное.


                          1. Fracta1L
                            10.12.2018 15:32
                            +1

                            Т.е. анатомия нам интересна, а физиология нет?

                            Физиология тоже интересна, конечно. Не вижу никаких преград для воссоздания физиологии в «железе» — любые гормональные и прочие воздействия можно переложить на цифровые сигналы.

                            не называйте это интеллектом

                            Это интеллект, нравится вам это или нет.

                            не говорите, что человек-переводчик — это профессия прошлого, не выдавайте желаемое за действительное

                            Обращайтесь непосредственно к тем, кто изрекает такие обидные для вас утверждения. Пишите гневные письма журналистам, например.


  1. tivita
    09.12.2018 22:44
    +1

    Споры о том, может ли компьютер мыслить ничем не отличаются от споров на тему, сколько ангелов может поместиться на острие иголки, если не определено четко и однозначно предмет спора.
    Что такое мышление и интеллект?
    Мыслит ли ребенок возрастом 1 мин? 1 день? 1 год? 10 лет?
    Мыслит ли собака, кошка, шимпанзе, шимпанзе, которое выучило 100, 300, 1000 слов?
    Чем отличается мышление человека при решении задачи 2+2=? от деятельности калькулятора и для этого обязательно нужны чувства, эмоции, и прочие компоненты?
    Какие виды мышления существуют? Как они осуществляются? Где локализуются?
    И таких вопросов возникнет миллион.
    Люди описывают свои модели реальности и модели себя с помощью одних и тех же слов, и склонны смешивать описание моделей с самой моделью, а модель с тем, что она отражает.
    А в случае моделирования мышления получается, что модель начинает моделировать сама себя. Подпрограмма, которая вызывает сама себя в качестве подпрограммы… Множество, включающее само себя в качестве подмножества… И далее по списку все апории, парадоксы и прочие извращения.


    1. semipro Автор
      10.12.2018 06:58

      Ответьте на такие вопросы. Вы какую и чью деятельность моделируете? Что такое искусственный интеллект? Вот тут приводили примеры вроде классификации или кластеризации. Или всё тот же машинный перевод. Чью и какую деятельность пытаюсь сэмулировать?


      1. tivita
        10.12.2018 13:05

        Человек с помощью языка моделирует свою собственную деятельность и деятельность других (окружающую ситуацию). А собственно деятельностью занимается другая часть психики и соответственно другая система мозга — моторная. А обратную связь для этого поставляет еще одна система — сенсорная. Эмоции управляют вниманием и мотивацией, объективизируя потребности. Ничего сверхестественного и сверхсложного в этих процессах нет.
        Что такое искуственный интеллект, можно определить только после того, как будет выработано общепринятое определение естественного интеллекта, с чем в настоящее время сложности. Поэтому на мои вопросы в предыдущем комментарии каждая наука, научное направление или конкретные люди дадут разные определения, иногда взаимоисключающие.
        Машинный перевод не обязан эмулировать мышление человека. Он просто должен учиться все более полно и правильно учитывать контекст.
        Что и людям с их возможностями мышления удается не всегда.
        Вот, например, я перевел с русского фразу в Гугльтранслейте и получил перевод:
        «I ate the cake yesterday».
        Надеюсь, вы умеете лучше думать, чем робот Гугла?
        Поэтому лучше, чем он, восстановите исходную русскую фразу?
        Принимаете вызов?


        1. semipro Автор
          10.12.2018 14:38

          Что такое искуственный интеллект, можно определить только после того, как будет выработано общепринятое определение естественного интеллекта, с чем в настоящее время сложности.
          Т.е. создаются приложения, при этом не понимаем, что именно эмулируем, ну раз нет общепринятого определения естественного интеллекта?

          Машинный перевод не обязан эмулировать мышление человека. Он просто должен учиться все более полно и правильно учитывать контекст.
          Мышление человека — это как великолепный пример понимания контекста.

          I ate the cake yesterday
          Мой вариант перевода: я съел кекс вчера.


          1. tivita
            10.12.2018 15:35

            Гугль переводит похоже:
            «Я съел торт вчера.»
            А исходное предложение было:
            «Я ела пирожное вчера.»
            Можете сами проверить.
            Искажены все основные смыслы предложения — субьект, объект и само действие.
            И это не особенность машинного перевода, это особенности языков.
            Каждый язык по своему структурирует реальность, передавая одни параметры ситуации и упуская другие.
            Карта не есть территория. А описание карты словами тем более…
            У каждого человека свой жизненный опыт, своя карта. Поэтому перевод всегда будет субъективным.
            У компьютера пока мало возможностей по учету контекста. Но я не вижу принципиальных препятствий к их существенному улучшению. И для этого совсем не обязательно, чтобы он имел эмоции и умел думать, как человек. Достаточно, чтобы он эффективно решал алгоритмические задачи и умел извлекать закономерности из Big Data.


            1. semipro Автор
              10.12.2018 16:39

              Искажены все основные смыслы предложения — субьект, объект и само действие.
              Ну всё верно. И что это доказывает? Это доказывает, что смысл знакам придаёт наше мышление, потому языковую знаковую систему разработали мы в ходе развития, и нам с ней работать. Это доказывает, что важен контекст, впрочем это банально, этот Вам любой переводчик скажет. Это доказывает, что в знаковой системе важны все знаки, в ней использующиеся. В общем, это не доказывает ничего нового.

              Карта не есть территория. А описание карты словами тем более
              Об этом моя статья.

              У каждого человека свой жизненный опыт, своя карта. Поэтому перевод всегда будет субъективным.
              О том и речь. А какой жизненный опыт у ИИ?

              извлекать закономерности из Big Data
              Самый главный вопрос — как ИИ поймёт, что извлечённые закономерности полезны и понятны нам, людям, и раз так, то их можно и нужно показывать на экране?


              1. tivita
                10.12.2018 16:49
                +2

                А какой жизненный опыт у ИИ?

                Так как раз у ИИ и огромная фора — опыт всего человечества, изложенный в книгах, статьях и прочих источниках, и возможность это все обрабатывать. А вот как понимать когда это полезно нам, зависит только от нас и той обратной связи, которую мы дадим.
                Так что проблема ИИ не в ИИ, а в слабости человеческого интеллекта, который пока не сумел правильно поставить задачи и подготовить стартовые алгоритмы.
                Вот если ваш компьютер отправить лет на 100-200 назад, много ли пользы извлекут из него получатели сего дара? И кто в этом будет виноват, тупой и примитивный компьютер?


                1. semipro Автор
                  10.12.2018 18:22
                  -1

                  Это не опыт. Вы прочитали книгу, у Вас теперь есть опыт героев книги? Я вот, например, знаю, как варить гречку, потому что я её варил, и у меня есть соответствующий опыт. Но я не умею готовить плов, потому что ни разу его не готовил. Прочтение инструкции по приготовлению плова не научит меня готовить плов. Я должен начать его готовить, сделать «первый блин комом» и в итоге научиться готовить плов какого-то качества. Оценку целесообразности продолжить готовить плов я дам сам на основе ряда факторов: затраченное время, деньги, силы, органо-лептические показатели плова. На основе этой оценки я приму решение, продолжать ли мне готовить плов дома или проще ходить в кафе, где его готовят профессиональные повара. Вот я привёл пример интеллектуальной деятельности: постановка задачи, оценка ресурсов, работа, оценка результатов работы, принятие решений в течение всего процесса, запоминание каких-то моментов. При этом мне пришлось читать миллион инструкций, анализировать миллион фотографий, чтобы понять, а я вообще плов готовлю или голубое небо, или готов ли мой плов, потому что на миллионе картинок он желтоватый или оранжевый, а у меня почему-то белый. ИИ способен на что-нибудь подобное?
                  Повторю: какой опыт у ИИ?

                  Так что проблема ИИ не в ИИ, а в слабости человеческого интеллекта, который пока не сумел правильно поставить задачи и подготовить стартовые алгоритмы.
                  О чём и беседуем.


                  1. DjSapsan
                    10.12.2018 18:33

                    Что вы там об играх рассказали?


                    1. semipro Автор
                      10.12.2018 18:54

                      Там — это где?


                      1. DjSapsan
                        10.12.2018 20:23

                        Я должен начать его готовить, сделать «первый блин комом»

                        Играя в игру, можно научиться играть в игру, и всё


                        1. semipro Автор
                          10.12.2018 21:03

                          Т.е. приготовление плова в первый раз — это игра? Несколько странный подход. Я думал, что делать что-то в первый раз — это всего лишь делать что-то в первый раз. А играть в игру — это играть в игру. В игру также можно играть в первый раз, и также, как с готовкой, после нескольких игр в игру можно научиться играть в игру. Для меня игра — это, например, морской бой. Играем в него в первый раз, потом в 25-й раз. Собственно и всё.
                          Добавим огоньку в чат :) Кто-то в первый раз занимается сексом. Он играет или просто в первый раз занимается сексом?


  1. vselekula
    10.12.2018 06:58

    Кажется мы уткнулись таки в необходимость изучения Ифкуиля.


    1. semipro Автор
      10.12.2018 06:59

      Не уверен, что всё, что придумано человеком, необходимо изучать :)


  1. michael_vostrikov
    10.12.2018 12:08
    +1

    Вы слишком упрощаете и потому делаете неправильные выводы. Да, у текущих реализаций ИИ понимания недостаточно для требуемых задач. Нет, это не значит, что сделать ИИ принципиально невозможно, или что для этого надо эмулировать человеческие эмоции.

    Главное это принципы обработки информации. Нам известно что есть на входе и частично что есть на выходе, а про то что происходит в середине пока мало данных. Потому и мало предположений, как оно может быть устроено.


    1. semipro Автор
      10.12.2018 14:27

      у текущих реализаций ИИ понимания недостаточно для требуемых задач
      Пойду напьюсь. Вы — первый, кто это признаёт в этой дискуссии.

      не значит, что сделать ИИ принципиально невозможно
      Я этого не говорил. Статья про текущее положение дел. Будущее неизвестно.

      Главное это принципы обработки информации.
      Именно. Но хорошим примером интеллектуальной деятельности служит наша умственная деятельность, реализуемая нашим головным мозгом, а какие принципы обработки информации он используют пока неизвестны. Или кто-то доказал, что у нас в голове крутится kNN, когда мы отделяем мух от котлет? Беда в том, что мы, люди, отличаем мух от котлет надёжнее, качественнее и более предсказуемо, чем kNN. Да, мы естественно тоже ошибаемся, но эти ошибки находятся в рамках нашей картины мира (слоны сами не летают). При этом утверждается, что kNN — это интеллект. Нет, это — алгоритм. Тут удовлетворение представляли логистической регрессией. Это весьма опрометчиво, на мой взгляд.
      Пока интеллектом наделены только мы. Возможно, с точки зрения инопланетян, наш интеллект и не интеллект для них. Но мы-то разрабатываем приложения для себя, для людей. Компьютер должен (ожидаем от него) выдавать результат, интерпретируемый человеком. А если он выдаёт, с точки зрения человека, плохой результат, то значит это — плохой результат. Критерий тут один — готов ли человек использовать этот ИИ в своих конкретных жизненных приложениях. А иначе получается вот такой анекдот:
      — Мы вывели формулу площади прямоугольника!
      — Круто, какая же она?
      — S=ab.
      — Вау, так просто? Круто!
      — Но есть одно «но»: формула работает только, если a<=1 и b=>2.
      — А для других значений? Допустим, у меня есть зал и спальня, я могу посчитать для них площадь?
      — Надо перестраивать всю модель, возможно придётся даже менять формулу.
      — Понятно :/. А почему тогда это называется интеллектом?
      — Потому что.


      1. michael_vostrikov
        10.12.2018 15:40
        +1

        При этом утверждается, что kNN — это интеллект.

        Конкретно такого утверждения я не встречал. В статье на Википедии ничего не говорится про интеллект. Есть понятие "сильный искусственный интеллект", нейросети относятся к слабому искусственному интеллекту. Алгоритмы, используемые в них, это просто алгоритмы. Никто не говорит, что сильный ИИ уже изобретен, а слабым интеллектом нейросети вполне можно назвать.


        Тут удовлетворение представляли логистической регрессией. Это весьма опрометчиво, на мой взгляд.

        Вы слишком антропоцентричны, у человека нет каких-то особых свойств, которые нельзя смоделировать на компьютере. Но с точностью до атомов моделировать не получается по техническим причинам. Любая положительная обратная связь это аналог удовлетворения, но только аналог. Но играть роль биологического удовлетворения в обучении ИИ она может.


        — А почему тогда это называется интеллектом?
        — Потому что.

        С вами спорят не потому что все считают это интеллектом, а потому что вы не говорите конкретные критерии, почему это интеллектом считать нельзя. Люди просто применяют ваши методы к вашим утверждениям (хотя обсуждение действительно иногда уходит не в ту сторону). И не надо смешивать все проявления под одним словом "интеллект", разделение на сильный и слабый не просто так придумали.


        1. semipro Автор
          10.12.2018 16:54

          Вы слишком антропоцентричны
          А почему я не должен быть антропоцентричен? Чат-боты, решатели и прочие smart-приложения разрабатываются для пчёл?

          у человека нет каких-то особых свойств, которые нельзя смоделировать на компьютере
          Я не встречал доказательств этому. Я, например, считаю, что мышление (а наш интеллект — продукт его работы в том числе) не обязательно алгоритмично, и что не всякий процесс мышления можно запрограммировать на современном компьютере.

          Речь о том, что для того чтобы слабый ИИ стал сильным, неплохо бы преодолеть обозначенные в статье барьеры. А чтобы их преодолеть, неплохо бы попытаться отвлечься от работы со знаковыми системами вроде лингвистики, компьютерной в частности, и математики, и продолжить изучение процессов, происходящих в нашей голове, т.к. критерием наличия или отсутствия интеллекта в полезном для человека смысле будет наша же голова. Приходит разработчик ИИ к директору бюро переводов, показывает результат перевода, директор восклицает: беру куртку! Если же разработчик начнёт блеять о том, что это — пока только опытный образец, натренированный на строго определённом корпусе, директор не купит его программу. Вот и все критерии практического использования результатов любой технологии. Прошу прощения, что не указал это явно в статье.


          1. michael_vostrikov
            10.12.2018 18:09

            А почему я не должен быть антропоцентричен? Чат-боты, решатели и прочие smart-приложения разрабатываются для пчёл?

            А какая разница, для кого они создаются? Наличие/отсутствие интеллекта в программе от этого не зависит.
            Антропоцентризм здесь это то, что вы без доказательств приписываете человеку некие магические свойства, которые принципиально не могут быть свойственны никому другому (например машине для обработки информации). А удобство использования человеком можно назвать "антропоориентированность".


            Я, например, считаю

            Так неважно, что вы считаете, важно, как вы можете это обосновать.


            Я не встречал доказательств этому.

            Ну вот вам доказательство.
            Человек состоит из атомов, которые участвуют в физических процессах. Атомы и физические процессы можно смоделировать на компьютере. Следовательно, если смоделировать все атомы и процессы, можно смоделировать человека, в том числе и его интеллектуальную деятельность.


            А чтобы их преодолеть, неплохо бы попытаться отвлечься от работы со знаковыми системами вроде лингвистики

            Складывается впечатление, что вы кроме маркетинговой информации ничего про ИИ не читали. Лингвистика это просто одни из направлений, другими люди тоже занимаются, распознаванием изображений например, или звуков. И теории тоже строят, и биологические процессы изучают.


            1. semipro Автор
              10.12.2018 18:38

              А какая разница, для кого они создаются?
              Зато честно.

              которые принципиально не могут быть свойственны никому другому (например машине для обработки информации)
              Сейчас да, будущее покажет. У Вас есть неоспоримые доказательства, СИИ без заглядывания в голову человека уже создан?

              Следовательно, если смоделировать все атомы и процессы, можно смоделировать человека, в том числе и его интеллектуальную деятельность.
              Согласен, почему бы и нет, вопрос только, насколько это возможно и когда станет возможно. Просто тут в переписке высказывается мнение, что моделировать человека вовсе необязательно, чтобы создать ИИ.

              биологические процессы изучают.
              А тут говорят, что не надо изучать биологические процессы, чтобы построить ИИ. Так надо или не надо изучать человека и моделировать его биологические процессы?


              1. michael_vostrikov
                10.12.2018 19:49

                Зато честно.

                Я не понял, причем тут честность. Я говорю про логику.


                Сейчас да, будущее покажет.

                Слово "принципиально" означает "вообще никогда", потому что принцип некоторого явления такой, что это невозможно.


                У Вас есть неоспоримые доказательства, СИИ без заглядывания в голову человека уже создан?

                Из того, что он не создан сейчас, никак не следует, что его не создадут в будущем. И так же не следует, что он еще не создан потому что у человека есть какие-то магические свойства.


                200 лет назад информацию мог обрабатывать только человек. И на тот момент из этого никак не следовало, что изобретение компьютеров невозможно.


                Доказательство я привел выше. Можно смоделировать процессы на машине, и у нее будут свойства, присущие человеку. Можете оспорить это утверждение?


                Просто тут в переписке высказывается мнение, что моделировать человека вовсе необязательно, чтобы создать ИИ.

                Так это и необязательно, в том смысле, который подразумеваете вы. Чувства, эмоции — это все необязательно, чтобы анализировать входящую информацию. Необязательно радоваться или грустить для открытия теоремы Пифагора. Обнаружение несоответствий на основе опыта это лишь следствие интеллекта, интеллект это то, как этот опыт приобретается.


                А тут говорят, что не надо изучать биологические процессы, чтобы построить ИИ. Так надо или не надо изучать человека и моделировать его биологические процессы?

                Люди их изучают независимо от того, кто что пишет на Хабре.
                Я же говорю, вы слишком упрощаете, и потому подменяете понятия. Надо или не надо для изобретения летательного аппарата изучать аэродинамические процессы в крыльях птицы? А просто аэродинамические процессы? А на птицу действуют какие-то особые законы аэродинамики, или те же самые?
                Изучать процессы надо, но в подробностях моделировать необязательно. Важно найти принципы.


                Вот вам пара ссылок, чтобы получить представление, чем занимаются люди:
                Книга "Глаз, мозг, зрение"
                Human Brain Project


                1. semipro Автор
                  10.12.2018 20:48
                  -2

                  Слово «принципиально» означает «вообще никогда»
                  В Вашем словаре?

                  человека есть какие-то магические свойства.
                  У человека нет магических свойств. Я про магию даже не говорил, это — Ваша интерпретация. У человека есть слабо изученные психические процессы. Слабо в том смысле, что их пока не удалось промоделировать на каком-то устройстве, не факт, что это будет обычный компьютер, когда (и если) научатся моделировать.

                  200 лет назад информацию мог обрабатывать только человек.
                  Нет, не только человек. Были счёты, это — устройство по хранению и обработке информации. Изобретение инструмента по хранению и обработке информации не одно и то же, что моделирование процессов в голове человека, с помощью которой человек в частности смог изобрести и счёты, и компьютер.

                  Доказательство я привел выше.
                  Доказательство чего Вы привели выше? Того, что 200 лет назад не было компьютера, но это не означало, что его рано или поздно не изобретут? Это не доказательство ничего. А если бы компьютер не изобрели через 200 лет? А что ещё мы не изобрели из того, что наверное вполне могли бы изобрести? Простите, но этот Ваш тезис мимо.

                  Можно смоделировать процессы на машине, и у нее будут свойства, присущие человеку.
                  Ну, наверное, можно, а может и не можно. Сейчас мне неизвестно о таких моделях. Это чистой воды схоластика — рассуждать на тему, что можно, а что не можно. Сделаем, тогда докажем, что это возможно.

                  Надо или не надо для изобретения летательного аппарата изучать аэродинамические процессы в крыльях птицы?
                  Надо, потому и полетели собственно, что изучили эти процессы. Изучим процессы в голове — построим человекоподобный ИИ.

                  в подробностях моделировать необязательно. Важно найти принципы.
                  Аэродинамическая сила — это гораздо проще, чем понять, что же именно такое прямо сейчас происходит в моей голове, что я веду осмысленный диалог (даже полилог) с людьми, нахожусь в сознании, и знаю о том, что через 5 минут пойду пить кофе. Бумажный самолётик уже летит. Я что-то не видел бумажного интеллекта.


                  1. michael_vostrikov
                    10.12.2018 23:18
                    +2

                    В Вашем словаре?

                    Принципиальный — связанный с принципами, вытекающий из принципов; чрезвычайно важный.
                    Принцип — основное начало, на котором построено что-нибудь.


                    Соответственно, "принципиально невозможно" означает невозможность, вытекающую из принципов, из внутреннего устройства. А принципы "чего-то" не меняются, иначе это уже будет "что-то другое". Поэтому ваше выражение "сейчас принципиально невозможно, а потом это может поменяться" это нонсенс.


                    Я про магию даже не говорил
                    не факт, что это будет обычный компьютер
                    когда (и если) научатся моделировать.

                    Ну как это не говорили, вот же сказали. Вы говорите, что есть какая-то непонятная штука, которую по неизвестной причине невозможно смоделировать на устройстве, на котором можно моделировать физические процессы. Ну не магия ее назовите, а абракадабра, суть не поменяется.


                    Нет, не только человек. Были счёты, это — устройство по хранению и обработке информации.

                    Счеты разве сами костяшки перемещали? Нет, человек управлял каждым изменением. Сейчас человек не ставит вручную каждый бит, компьютеры могут работать вообще без участия человека.


                    Изобретение инструмента по хранению и обработке информации не одно и то же, что моделирование процессов в голове человека

                    "Процессы в голове человека" это обработка информации.
                    И я не сказал, что это одно и то же, я сказал, что выводы можно сделать одни и те же. Из того, что когда-то чего-то не было, не следует, что это сделать невозможно или что для изобретения надо искать неизвестную магию.


                    — у человека нет каких-то особых свойств, которые нельзя смоделировать на компьютере.
                    — У Вас есть неоспоримые доказательства?
                    — Доказательство я привел выше.
                    — Доказательство чего Вы привели выше?

                    Вы следите за дискуссией или решили в троллинг скатиться? Зачем вы вырываете слова из контекста? Я написал, доказательство чего я привел, в следующем предложении. На всякий случай повторю — доказательство того, что можно смоделировать все свойства человека на компьютере с достаточной производительностью. И на всякий случай уточню — для полного моделирования производительности не хватает, для функционального неизвестны механизмы преобразования информации. Но это именно механизмы, все сводится к правильным расчетам.


                    Ну, наверное, можно, а может и не можно. Сейчас мне неизвестно о таких моделях.

                    Это следует из возможности моделировать физические процессы. Электричество там, движение молекул. Вы никогда про это не слышали? Ну вот отсюда начните хотя бы, или отсюда.
                    Либо вы утверждаете, что в интеллекте есть какие-то нефизические процессы, либо возможность моделирования доказана.


                    Сделаем, тогда докажем, что это возможно.

                    Есть такая штука "логика") Она позволяет доказывать что-то не из опыта. Можно доказать возможность чего-то и не делая это.


                    Надо, потому и полетели собственно, что изучили эти процессы.

                    В открытии подъемной силы птицы играют не самую важную роль. Оно появилось при изучении движения в жидкости.


                    1. DjSapsan
                      11.12.2018 03:20

                      1. semipro Автор
                        11.12.2018 07:14

                        Спасибо, я об этом проекте знаю, ждём результатов.


                    1. semipro Автор
                      11.12.2018 07:13

                      Соответственно, «принципиально невозможно» означает невозможность, вытекающую из принципов, из внутреннего устройства
                      И тем не менее, «принципиально» не означает «вообще никогда», Вы это домыслили.

                      Ну как это не говорили, вот же сказали. Вы говорите, что есть какая-то непонятная штука, которую по неизвестной причине невозможно смоделировать на устройстве, на котором можно моделировать физические процессы. Ну не магия ее назовите, а абракадабра, суть не поменяется.
                      А что, факт, что это будет обычный современный компьютер? Докажите. Были такие арифмометры. По тем временам они считались современными вычислительными устройствами. Современный компьютер — не другое ли вычислительное устройство по отношению к арифмометру? Вы сейчас уверенно можете сказать, на каком именно компьютере будет промоделирован человеческое мышление?

                      компьютеры могут работать вообще без участия человека.
                      Скайнет? :) Других примеров я не знаю.

                      Из того, что когда-то чего-то не было, не следует, что это сделать невозможно или что для изобретения надо искать неизвестную магию
                      Схоластика. Из того, что когда-то чего-то не было ровным счётом ничего не следует: ни возможность, ни невозможность.

                      доказательство того, что можно смоделировать все свойства человека на компьютере с достаточной производительностью
                      Приведете, пожалуйста, ещё раз это доказательство. И второй вопрос: а зачем нам моделировать свойства человека, коль скоро, как мне говорят тут, а) для создания ИИ нет необходимости повторять эти самые свойства и б) как оказывается, не все приложения ИИ ориентированы на человека, т.е. зачем моделировать свойства человека, если компьютеры общаются между собой и человек для такого взаимодействия не нужен?

                      Либо вы утверждаете, что в интеллекте есть какие-то нефизические процессы, либо возможность моделирования доказана.
                      Там ещё химические процессы :) А если серьезно, возможность моделирования не доказана. То, что что-то можно было смоделировать будет доказано после создания модели этого чего-то. У нас уже есть модель ЕИ?

                      Она позволяет доказывать что-то не из опыта. Можно доказать возможность чего-то и не делая это.
                      Примеры? Я не знаю.

                      В открытии подъемной силы птицы играют не самую важную роль. Оно появилось при изучении движения в жидкости.
                      Я не знаток аэродинамики, хорошо, пускай будет движение в жидкости. Но принцип был открыт. А на каком принципе ЕИ строится ИИ? Что именно моделируется?

                      P.S. Мне этот Ваш пост лишний раз напомнил об ореоле романтизма, фантастики и юношеского максимализма в области ИИ: «возможность моделирования доказана», «компьютеры могут работать вообще без участия человека». К чему этот трёп? Вы сделайте, и я заткнусь, а пока не сделали, не сотрясайте воздух. Человек может моделировать физические процессы во Вселенной, это доказывает, что человек может сделать Вселенную?


                      1. michael_vostrikov
                        11.12.2018 08:29
                        +2

                        И тем не менее, «принципиально» не означает «вообще никогда»

                        "Принципиально невозможно" означает "вообще никогда".


                        А что, факт, что это будет обычный современный компьютер?

                        Да. Он уже имеет необходимые возможности для моделирования. Различие может быть в производительности, количестве процессоров, памяти, но не в принципиальных возможностях.


                        Скайнет? :) Других примеров я не знаю.

                        Любые сервера, роутеры, контроллеры чего-либо, размещенные в полях или закопанные под землей. Ежедневный запуск перерасчетов по расписанию — статистика, деньги, обслуживание аппаратуры.


                        Из того, что когда-то чего-то не было ровным счётом ничего не следует: ни возможность, ни невозможность.

                        Ну вот, а вы говорите "почему он до сих пор не создан, если ему не нужна всякая чепуха вроде эмоций и удовольствия?". Потому что это вероятный вариант — он еще не создан, но эмоции не нужны.


                        Приведете, пожалуйста, ещё раз это доказательство.

                        Ctrl+F "Ну вот вам доказательство", следующий абзац.


                        И второй вопрос: а зачем нам моделировать свойства человека, коль скоро, как мне говорят тут, а) для создания ИИ нет необходимости повторять эти самые свойства

                        Некоторые надо повторять, некоторые нет. На некотором уровне обобщенности надо повторять, на более детальных нет. Те, про которые вы говорите, повторять не надо. Вы правы в подозрениях, но делаете неправильные выводы.


                        А если серьезно, возможность моделирования не доказана. То, что что-то можно было смоделировать будет доказано после создания модели этого чего-то.

                        Возможность моделирования — это и есть возможность создания модели. Мы это уже доказали, основываясь на том, что там есть только физические процессы.


                        Примеры? Я не знаю.

                        Примеры логики? Вы в школе геометрию изучали, или физику? Много раз вы по-настоящему стреляли из пушки вертикально вверх, чтобы решить задачу? Про открытие позитрона еще можете почитать, он тоже сначала в уравнениях появился.


                        А на каком принципе ЕИ строится ИИ? Что именно моделируется?

                        Вот люди это и изучают. Но так как по техническим причинам нельзя отслеживать каждый нейрон, то изучают на более высоком уровне — определяют входы и выходы и пытаются предположить, как происходит преобразование. Вопрос изучается более широко, чем вы можете прочитать в комментах на Хабре.


                        1. semipro Автор
                          11.12.2018 08:50
                          -2

                          Он уже имеет необходимые возможности для моделирования. Различие может быть в производительности, количестве процессоров, памяти, но не в принципиальных возможностях.
                          А что если выяснится, что такой компьютер должен быть размером с Землю или Солнечную систему, т.е. практически создан быть не может. Что будем делать дальше?

                          Любые сервера, роутеры, контроллеры чего-либо, размещенные в полях или закопанные под землей. Ежедневный запуск перерасчетов по расписанию — статистика, деньги, обслуживание аппаратуры.
                          Т.е. они работают в каком-то сферическом вакууме, и людей не волнует, чем они там занимаются?

                          Ctrl+F «Ну вот вам доказательство», следующий абзац.
                          Атомы и физические процессы можно смоделировать на компьютере. Следовательно, если смоделировать все атомы и процессы, можно смоделировать человека, в том числе и его интеллектуальную деятельность.
                          Это не доказательство, это — умозрение, просто Ваше мнение. Я не слышал о компьютерной модели атома, откуда Вы это взяли? Или квантовая физика закончила свою работу и может быть свободна?
                          А может человек весь воздух с Земли откачать? Ну, наверное, может. Но здравый смысл подсказывает, что вряд ли это возможно на практике. А можем мы к звёздам полететь? Ну, наверное, можем. Только непонятно, каких ресурсов это потребует, как и когда это будет реализовано на практике.
                          Ваше «можно» — это схоластика. Разговор на тему «если бы у бабушки были яйца, она была бы дедушкой».

                          Про открытие позитрона еще можете почитать, он тоже сначала в уравнениях появился.
                          Так его всё-таки получили в лаборатории, не на бумаге. Была предложена модель, которая и была подтверждена на практике. Учёные, к счастью, здравомыслящие люди и не отождествляют гипотезы с теориями. Продемонстрируй гипотезу на практике, тогда поговорим о теории. Это же ещё сэр Ньютон сказал: «hypotheses non fingo», то бишь, «гипотез не выдвигаю». Умничка же был.
                          А в случае с ИИ, где модель? Но зато уже есть какие-то практические результаты, выдаваемые за интеллектуальную деятельность. Телега впереди лошади.

                          Но так как по техническим причинам нельзя отслеживать каждый нейрон
                          Человек состоит из атомов, которые участвуют в физических процессах. Атомы и физические процессы можно смоделировать на компьютере. Следовательно, если смоделировать все атомы и процессы, можно смоделировать человека, в том числе и его интеллектуальную деятельность.
                          Так можно или нельзя? Признаёте схоластичность своих умозаключений?


                          1. michael_vostrikov
                            11.12.2018 10:18
                            +1

                            А что если выяснится, что такой компьютер должен быть размером с Землю или Солнечную систему, т.е. практически создан быть не может.

                            Вот когда вы логически докажете, что есть какие-то предпосылки чтобы так считать, тогда и будем рассматривать этот вариант. Пока таких предпосылок нет, люди размером гораздо меньше Земли, значит это возможно.


                            Т.е. они работают в каком-то сферическом вакууме, и людей не волнует, чем они там занимаются?

                            Не подменяйте понятия. "Не волнует людей" и "могут работать без людей" это разные вещи. Первое результат, второе процесс его получения. Я говорил про процесс ("обрабатывать информацию").


                            Или квантовая физика закончила свою работу и может быть свободна?

                            Квантовые эффекты, представьте себе, тоже можно моделировать на обычном компьютере, хоть и не в реальном времени. Вот когда вы докажете, что есть предпосылки предполагать участие квантовой физики в работе интеллекта, тогда и будем рассматривать этот вариант. Пока что квантовые устройства крайне неустойчивы к внешним воздействиям, в том числе комнатной температуры.


                            А в случае с ИИ, где модель? Но зато уже есть какие-то практические результаты, выдаваемые за интеллектуальную деятельность.

                            Да с чего вы это взяли-то? Никто за сильный ИИ эти практические результаты не выдает. За слабый выдают, и это корректно.


                            Так можно или нельзя?

                            Вы снова подменяете понятия, причем сразу несколько.
                            Первое, в одной цитате говорится про нейроны, в другой про атомы. Нейроны это более высокий уровень, и для их моделирования нужно меньше ресурсов.
                            Второе, вы понимаете разницу между принципиальной невозможностью и техническим ограничениями? Нельзя там означает технические ограничения, я про это явно написал. Нейроны сложно отслеживать не потому что в них какая-то магия, а потому что их много и они маленького размера, а также потому что сложно брать с них сигнал не разрушая соседние.
                            Третье, "отслеживать сигнал реальных нейронов" и "создать информационный аналог, который будет работать так же" это абсолютно разные вещи. Нельзя в том предложении относится к первому и имеет значение "технически сложно". Первое для всех нейронов реализовать нельзя (но для части можно), второе сделать можно теоретически для атомов, нельзя практически для атомов, можно и теоретически и практически для нейронов.


                            Я там ссылку приводил на Human Brain Project, его частью является SpiNNaker, суперкомпьютер для моделирования нейронов.


                            Это не доказательство, это — умозрение, просто Ваше мнение.

                            Доказaтельство — рассуждение по определенным правилам, обосновывающее какое-либо утверждение.


                            Извините, с вашей стороны это уже троллинг. Продолжать вам объяснять школьные термины я не буду.


                            1. semipro Автор
                              11.12.2018 10:52
                              -2

                              когда вы логически докажете, что есть какие-то предпосылки чтобы так считать, тогда и будем рассматривать этот вариант
                              Почему я должен что-то логически доказывать? Вы против процесса научного познания мира? Гипотеза — эксперимент — практика. У Вас какая-то своя логика?

                              Я говорил про процесс («обрабатывать информацию»).
                              А программку в Ваш компьютер кто залил? Или он сам её сочинил? Человек может сочинить программу и залить её в компьютер для решения его, человека, задач.

                              За слабый выдают, и это корректно.
                              Мне здесь так и не объяснили, почему это корректно. Алгоритм по решению квадратного уравнения — это слабый ИИ?

                              про нейроны, в другой про атомы
                              А нейроны не из атомов состоят? Вы же собрались моделировать атомы человека, значит и нейроны туда попадут промоделированными на уровне атомов.

                              Нельзя там означает технические ограничения, я про это явно написал.
                              Техника, она ведь конкретна. Ещё раз, а если технические ограничения таковы, что невыполнимы на данном этапе? Вы почему-то упорно цепляетесь за слово «принципиально», я уже боюсь его использовать. Давайте говорит невозможно сейчас, на данном этапе развития науки и техники.

                              Нейроны сложно отслеживать не потому что в них какая-то магия, а потому что их много и они маленького размера, а также потому что сложно брать с них сигнал не разрушая соседние.
                              А кто-то говорит, что в них какая-то магия? Объясните, почему нельзя наблюдать электрон?

                              можно теоретически для атомов, нельзя практически для атомов
                              Я не понимаю, что это за теория, которую нельзя проверить на практике. Какая будет польза от этой теории, если она будет оставаться на бумаге?

                              Доказaтельство — рассуждение по определенным правилам, обосновывающее какое-либо утверждение.
                              Атомы и физические процессы можно смоделировать на компьютере. Следовательно, если смоделировать все атомы и процессы, можно смоделировать человека, в том числе и его интеллектуальную деятельность.
                              Это не доказательство. Физические процессы можно смоделировать на компьютере, атомы — пока нет, поэтому всё, что идёт после слова «следовательно», отнюдь не следует. Смотрите: атомы и физические процессы можно смоделировать на компьютере -> Вселенная состоит из атомов и физических процессов (в том числе пока неизвестных) -> (следовательно) если смоделировать все атомы и процессы (непонятно, как быть с неизученными процессами), можно смоделировать Вселенную. Я доказал, что можно смоделировать Вселенную? А по-моему, я ничего не доказал, а просто сделать какие-то предположения, умозаключения, не более. Любое доказательство, как известно, должно быть проверено. Человек доказал теорему, его доказательство проверяют. Как можно проверить модель Вселенной, если её нет, но есть ничем не подтверждённые умозаключения, что такая модель возможна?

                              Извините, с вашей стороны это уже троллинг.
                              Нет никакого троллинга, я просто пытаюсь охладить присутствующий здесь «юношеский энтузиазм».


                              1. michael_vostrikov
                                11.12.2018 11:39
                                +2

                                Почему я должен что-то логически доказывать?

                                Вы утверждаете, вам и доказывать.


                                А программку в Ваш компьютер кто залил?

                                Какая разница? Счеты ее исполнять не могут, компьютер может.


                                Мне здесь так и не объяснили, почему это корректно.

                                А вы не объяснили, почему некорректно. Вы просто говорите "мне это не нравится".
                                Это корректно по определению. Определение слабого ИИ найдите пожалуйста сами, это несложно.


                                А нейроны не из атомов состоят?
                                значит и нейроны туда попадут

                                Прочитайте следующее предложение. Один уровень может быть технически сложно моделировать, другой гораздо проще.
                                Да, и нейроны туда попадут, я нигде не утверждал обратного. Просто процессоров понадобится больше.


                                Вы почему-то упорно цепляетесь за слово «принципиально»

                                Потому что если что-то нельзя "принципиально", то и изучать это или делать устройства нет смысла, они все равно не будут работать. Здесь 3 варианта, а не 2 — "доказано, что можно", "доказано, что невозможно", "не доказано, можно или нет".


                                А кто-то говорит, что в них какая-то магия?

                                Вы говорите, что есть что-то, для чего надо изобретать особые компьютеры с другими возможностями.


                                Я не понимаю, что это за теория, которую нельзя проверить на практике.
                                Это не доказательство. Физические процессы можно смоделировать на компьютере, атомы — пока нет

                                Атомы и их взаимодействие смоделировать можно, я не знаю почему вы решили что нельзя. Вопрос в количестве. Или вы опять подменяете разные смыслы слова "нельзя"?


                                Вы можете проверить ее на практике, смоделировав часть атомов. Чем больше у вас денег, тем больше компьютеров вы купите и тем больше атомов смоделируете. Или можете объединить миллион атомов в одну простую модель нейрона и потратить меньше денег. Сами решайте, что вам удобнее.
                                Если у вас нет денег на достаточное количество компьютеров, значит и смоделировать то что вы хотите нельзя. Но не в смысле "никому нельзя" или "невозможно", а в смысле "нельзя только вам здесь и сейчас". И из этого "нельзя" никак не следует, что моделировать нужно эмоции.


                                Это не доказательство.

                                Понятно. Возвращайтесь когда научитесь доказывать свои утверждения и читать определения.


  1. Nutwood
    10.12.2018 16:18

    Технически автор прав. Для знаковых систем имеется сформулированная еще в 1976 году гипотеза Ньюэла-Саймона о Физической Символьной Системе: «Физическая символьная система имеет необходимые и достаточные средства для произведения основных интеллектуальных операций». О критике этой гипотезы можно ознакомиться по ссылке:
    cortexistenz.com/article/about-pssh-ns-critique


    1. semipro Автор
      10.12.2018 16:18

      Спасибо за ссылку, почитаю.


  1. Kriminalist
    10.12.2018 16:29

    Но хорошим примером интеллектуальной деятельности служит наша умственная деятельность, реализуемая нашим головным мозгом, а какие принципы обработки информации он используют пока неизвестны

    Так себе пример. Принципы обработки информации мозгом вполне себе известны — рецепторы, синапсы, рефлексы, вся эта томография мозга.
    Хорошей попыткой создания ИИ была бы попытка поиска от противного — т.е. создать для начала ИИ, имитирующие идиота и слабоумного, и понять разницу между ними.


    1. semipro Автор
      10.12.2018 17:36

      Так себе пример
      Вы знаете другие примеры интеллектуальной деятельности, которые были бы понятны и применимы для человека?

      Принципы обработки информации мозгом вполне себе известны — рецепторы, синапсы, рефлексы, вся эта томография мозга.
      Это не принципы обработки информации, это — структурные элементы (рецепторы, синапсы), процессы (рефлексы) и технологии изучения мозга (томография мозга).

      Хорошей попыткой создания ИИ была бы попытка поиска от противного — т.е. создать для начала ИИ, имитирующие идиота и слабоумного, и понять разницу между ними.
      «Слабоумный», как Вы выразились, человек — это человек, у которого психические процессы, протекают не так, как у большинства здоровых людей: нарушена память, нарушено мышление, нарушена эмоциональная сфера. Этим занимается психология и психиатрия.
      создать для начала ИИ, имитирующие идиота
      Вот люблю я человеческий ум, чем бы дитя не тешилось :) Встречный вопрос: а почему бы не создать ИИ, имитирующий психически здорового человека? Не полезней будет?


      1. Kriminalist
        10.12.2018 18:30

        Вы знаете другие примеры
        Ну вот поэтому так себе пример — если он единственный, как-то странно его примером называть.

        Это не принципы обработки информации
        Спасибо что разжевали, а то я путался :)

        «Слабоумный», как Вы выразились, человек
        Деменция — это вполне себе термин. Дело не в большинстве «здоровых» людей, а именно, как вы совершенно верно отметили, в особом, непродуктивном, способе функционирования компонентов психики — памяти, мышления, эмоций.

        а почему бы не создать ИИ, имитирующий психически здорового человека?
        потому что это сложнее. Деменция — это редукция по сравнению с человеком изначально умным, логично что стоит идти от простого к сложному.

        Вы так и не поняли, о чем я говорил —
        Умственную отсталость как врождённый психический дефект отличают от приобретённого слабоумия, или деменции (лат. de — приставка, означающая снижение, понижение, движение вниз + лат. mens — ум, разум). Приобретённое слабоумие — снижение интеллекта от нормального уровня (соответствующего возрасту), а при олигофрении интеллект взрослого физически человека в своём развитии так и не достигает нормального уровня, и она является непрогредиентным процессом.


        Т.е., если создать ИИ олигофренический, то это тупик — он не сможет вырасти до полноценного. Создав же ИИ слабоумный, дементный, можно ретроспективно его «вылечить», получив полноценный разум, аналогичный человеческому. Теперешние ИИ — это олигофрены.


        1. semipro Автор
          10.12.2018 18:53

          Ну вот поэтому так себе пример — если он единственный, как-то странно его примером называть.
          Ну да, я забыл, вашему же брату нужны миллионы примеров :)

          потому что это сложнее. Деменция — это редукция по сравнению с человеком изначально умным, логично что стоит идти от простого к сложному.
          Откуда такая уверенность, что мозг «слабоумного» работает проще, чем мозг здорового человека? Я бы не был так категоричен. Бывает продуктивная симптоматика, например, зрительные галлюцинации, там зрительная кора поактивней работает, чем у здорового.

          Теперешние ИИ — это олигофрены.
          В мемориз! Я не знаю, что ответить, но судя по выдаваемым порой результатам, может, и правда ИИ — это олиги.


  1. Akon32
    10.12.2018 18:21
    +1

    Вы пишете об "ИИ" так, как будто он, этот ИИ, уже существует.
    На деле на данный момент существуют решения неких "задач ИИ" — тех задач, которые невозможно было ранее решить алгоритмически.
    Многие из этих решений как из кирпичиков строятся из классификаторов, нейросетей, перебора, поиска и при необходимости настраиваются, калибруются под текущую задачу.


    ИИ не знает, что такое страх, соответственно, он не может сопоставить страху какой-либо знак вообще. И ощутить какой-либо распознанный знак как страх он тоже не в состоянии.

    Лишь потому, что алгоритму для классификации изображений или поиска музыки страх ни к чему, он же не озабочен сохранением жизни хлипкого тела. Если страх (или другая эмоция) будет нужен — достаточно натренировать ещё один классификатор.
    Точно так же можно натренировать классификатор на распознавание произвольного "слона в комнате" как дополнительного выхода, который можно назвать "я сомневаюсь" или "что-то тут сильно не так".


    1. semipro Автор
      10.12.2018 18:45

      Если страх (или другая эмоция) будет нужен — достаточно натренировать ещё один классификатор.
      А на чём натренировать? А ещё у людей бывает, что они не только приобретают какой-то навык, рефлекс или эмоцию, но и теряют. Например, человек перестаёт бояться. Как растренировать классификатор?