Как и предыдущая, эта заметка представляет собой обзор статей и комментариев к ним здесь, на Хабре, сгруппированный по нескольким темам.

Законы робототехники Азимова


Пожалуй, самая смешная, но, как ни странно, до сих пор широко обсуждаемая тема. Собственно, говорить тут просто не о чем: разве кому-то не ясно, что если ИИ хоть немного станет вылезать из пелёнок (и даже раньше — уже сейчас!), на него тут же наложат лапу военные и всякая там «госбезопасность»? И они будут учить ИИ именно эффективно убивать, не заморачиваясь всякой ерундой на тему «псевдоэтики». Разве не ясно, что эти «законы» в принципе не работают и работать не могут, о чём прекрасно знал и сам Азимов? Разве не ясно, что главная угроза со стороны ИИ как раз связана с контролем со стороны человека? И что, мы так и будем верить в сказки, вопрошая: «Дадим ли мы военным роботам лицензию на убийство»? А разве нас кто-то спрашивает? Или: «Крупнейшие ИТ-компании не дадут ИИ вырваться из-под контроля человека». А разве их кто-то спрашивает? Или: «Известные во всём мире разработчики ИИ договорились не создавать умное оружие». Тупое будут создавать? Или: «Эксперт ООН призвал мировое сообщество притормозить создание боевых роботов с искусственным интеллектом». А разве крупные страны, способные создать таких роботов, хоть раз считались с мнением ООН? Так что давайте прекратим обсуждать очевидные глупости — это даже не детский сад, это младшая ясельная группа.

Тест Тьюринга


Почему-то эта глупость считается критерием ИИ. И даже не просто ИИ, а сильного ИИ! При этом никого не волнует, что личность из 19-го века тест Тьюринга в нашем времени не пройдет. Так же как и китаец при индийских оценщиках. Вообще для наперёд заданного состава судейской коллегии тест Тьюринга не пройдет большинство населения нашей планеты. Тест исходит из предположения, что интеллект присущ только человеку — даже животным отказывают в интеллекте! — он проверяет вовсе не наличие интеллекта, а похожесть тестируемого на представителей вида Homo sapiens в глазах «экзаменаторов» того же вида. Тем более, что в почти столь же дурацком «тесте IQ» компьютеры уже обошли людей.

Беглый анализ разговоров во время теста говорит, что для того, чтобы за компьютером признали наличие интеллекта, он должен не только врать и прикидываться идиотом — неплохо также в меру сквернословить и делать грамматические ошибки. И тогда его шансы стать «интеллектуалом» резко возрастут. И ещё момент: никто ведь не спорит, что конкретные интеллекты у разных людей отличаются? Есть гении, есть идиоты и есть остальные нормальные и не очень люди. Так интеллект — это количественная характеристика или качественная? И что, если ИИ всё-таки пройдёт тест Тьюринга, он будет обладать интеллектом? Да ничего подобного! Это означает лишь то, что у животных вида Homo sapiens с непомерно завышенным ЧСВ, избранных в судьи, нет этого интеллекта ни на грош! И если в какой-то момент средний интеллектуальный уровень человечества упадёт достаточно низко — примерно до уровня орангутанга (судя по всему, до этого остались уже годы, а не десятилетия), то чуть ли не все такие машины станут обладать искусственным интеллектом.

Штат Калифорния запретил чат-ботам притворяться людьми: одна из самых сложных проблем искусственного интеллекта решена элегантно и просто. Объясняется запрет тем, что когда обман вскрывается, всегда следует очень негативная реакция клиента. И наоборот: если чат-бот сразу предупреждает, кто он (точнее, ЧТО он), человек всё равно очень легко одушевляет его и приписывает ему человеческие свойства. Давно известно: настоящий программист с компьютером даже не на «ты», а на «ты, сволочь»!

Ну и замечательный коммент в одной из веток: «Тест Тьюринга — бессмысленен. Он проверяет не способность думать, а способность прикидываться человеком. Это равносильно предложить человеку вести себя как собака — так, чтобы обмануть других собак, а если не получится, то считать человека глупее собаки». Подписываюсь!

ИИ — это просто


Очень много обсуждений типа «Делаем Искусственный Интеллект» или «Всё, что вам нужно знать об ИИ за несколько минут» или «Прошло уже (!) около четырёх месяцев с тех пор, как я серьёзно (!) увлёкся проблемой Искусственного Интеллекта». Комментировать здесь тоже нечего — остаётся только вздохнуть: какое только дерьмо ни называют сейчас ИИ!

ИИ — это сложно


Прямо противоположная тенденция — считать разработку ИИ невероятно сложным делом или вообще принципиально невозможным. То фон Неймановская архитектура не подходит — квантовые компьютеры им подавай, то «как мы уже знаем (!), компьютер априори не способен создать что-либо отличительно новое, или, другими словами, не способен заниматься творческой деятельностью», то «не может существовать алгоритма ИР, так как алгоритм создаётся для решения конкретной задачи и рамки его применения ограничены этой задачей». В крайнем случае, это потребует немеряного количества бабла — разумеется, для себя, любимых: «Придуманная нами система потребует несколько миллиардов долларов на разработку и постройку, и для придания ей компактности в неё войдут несколько передовых инноваций». Здесь я остановлюсь только на одной «теории», которая меня весьма позабавила: «Существует ряд задач (класс NP), которые алгоритмически решать просто нецелесообразно. И даже: Именно ПРИБЛИЖЁННОСТЬ и не описывается алгоритмически. Есть способы ПРИБЛИЖЁННОГО решения коммивояжёра. Но это НЕ алгоритмическое решение задачи».

Собственно, ответ был дан там же: «Человек не умеет точно решать даже разрешимые NP-полные проблемы, а от ИИ хочет решения алгоритмически неразрешимых». У меня есть программа для решения задачи коммивояжёра, есть даже давняя публикация на эту тему («Software for solving of TSP»), и я утверждаю, что не только «NP-задачи алгоритмически решать целесообразно», но и что приближённость ПРЕКРАСНО описывается алгоритмически. Не знаю, как у кого, а МОИ способы ПРИБЛИЖЁННОГО решения коммивояжёра вполне себе алгоритмические.

Что же такое ИИ?


А никто не знает! И версий всё меньше и меньше. Трудно придумать нечто такое, чтобы ОНО у нас было, а больше ни у кого не было: игры отпали, тест Тьюринга смешон, тест IQ провален… Что осталось?

Обучение: ИИ должен быть самообучаем. Реализовав самообучение, остальному он должен будет научиться сам. Заложенный в систему алгоритм остается неизменным, а самообучение происходит за счёт постоянного усложнения обрабатываемой информации, за счёт постоянного перехода с низкого уровня абстрагирования на более высокий.
Чушь собачья! Алгоритмов должно быть МНОГО! Их и есть МНОГО, а потому воспринимать разум как ОДИН алгоритм, тем более, неизменный, значит оглуплять задачу до уровня полной невозможности создания хоть какого-то ИИ. Как известно, никто из детей-маугли почему-то так ничему и не «самообучился». И даже Ломоносов отправился из Холмогор в Москву отнюдь не самообучаться, а именно искать учителей. Что же говорить о нас, которых чуть ли не пинками загоняют в школы? Сначала сами кто-нибудь самообучитесь, а потом уже требуйте этого от ИИ!

Постановка задач: алгоритмы умеют решать задачи, а полноценный интеллект сам сможет ставить себе цели и искать наиболее эффективные пути их достижения.
Лет 20 назад я подкалывал сторонников этого тезиса так: «Умение ставить задачи есть задача, которую надо решать». К тому же, любой идиот «с одной извилиной, да и та след от фуражки» за пять минут столько задач понаставит — разгребать упаришься!

Составление алгоритмов: способность находить алгоритм решения задачи, способ решения которой тебе не известен. И даже: умение решать произвольные задачи, сформулированные на естественном языке, условия которых плохо формализованы, а исходные данные не собраны в готовый набор.

Ну и как? Люди-то могут этим похвастаться? Много нашли «решений задач, способ решения которых не известен»? Я вот считаю себя именно алгоритмистом, и утверждаю, что найти алгоритм — плёвое дело, не требующее ни капли интеллекта! Ничуть не сложнее, чем поставить задачу! А вот найти ХОРОШИЙ алгоритм или ПРАВИЛЬНО поставить задачу намного сложнее. Но и это не самое сложное. А вот вдолбить остальным, что алгоритм ДЕЙСТВИТЕЛЬНО хороший — это уже и вовсе почти неразрешимая задача! Если кто не верит — посмотрите в соседнюю ветку, где я как раз и предложил алгоритм решения задачи, способы решения которой не просто известны, а исчисляются десятками!

Чувство юмора: Здесь встречаются разные обсуждения на тему «Microsoft разработала ИИ с чувством юмора» или "сможет ли компьютер понимать сарказм?". Но, поскольку никто не знает не только что такое «интеллект», но и что такое «чувство юмора», все эти рассуждения есть фактически всё та же болтовня ни о чём.

Эмоции: алгоритм ничего чувствовать не может. ИИ не имеет ни страданий, ни мыслей. Только жонглирование битами в памяти.
Перевернём: Человек ничего чувствовать не может, не имеет ни страданий, ни мыслей. Только жонглирование импульсами между нейронами. Эмоции достаточно легко программируются, а наличие эмоций принципиально невозможно отличить от их имитации. Это всё следствие той самой ошибки, когда информацию считают материальной, например: «Информация материальна по определению и по сути. Информация — это передача энергии между частицами. Информация и энергия, по факту, эквивалентные понятия». Не хочу даже комментировать подобные глупости, только спрошу: «У животных эмоции есть? А интеллект? Ах, нет? Тогда почему вообще докопались до эмоций? Обрезаем их бритвой Оккама!

Сознание: очевидный факт для его обладателя (я знаю, что у меня есть сознание), и совершенно недоказуемый для всех остальных (окружающие меня люди не увидят разницу между мной и сложной системой, в точности имитирующей мои реакции на внешние сигналы)».
Здесь точно та же ситуация: формальных признаков сознания обществу неизвестно. Так что говорить здесь тоже, собственно, не о чем.

Мозг


Мы почти ничего не знаем о ЕИ, но уже строим ИИ, так посмотрим немного на «естественную нейронную сеть». Для начала отбросим тезис, что «мозг человека аналоговый». Лично я считаю, что мир вообще дискретен и все эти глупости про «аналоговый мозг» есть именно глупости. Аналоговый сигнал мы вообще не можем даже измерить! Ведь его нужно сравнить с какой-то эталонной шкалой, а любая шкала дискретна по определению. Так что любую информацию мы вообще можем получить ТОЛЬКО в цифре!

Второе важное свойство мозга — умение забывать: отслужившие данные стираются, чтобы уступить место новым. Лично я не верю в то, что «с помощью гипноза из памяти гору всего забытого вытягивают», потому как нет никакой гарантии, что эти воспоминания действительно соответствуют тому, как всё было на самом деле. Я также не верю в сказки про «петафлопсы» мозга (зрение даёт 10^6 бит/сек, осязание — 10^5 бит/сек, слух — 10^4 бит/сек), что было блестяще опровергнуто здесь же, на Хабре: «Объём поступающей информации сильно преувеличен. Представим среднестатистического человека, читающего среднестатистическую книжку в 300 страниц. Читающего без перерыва на еду, туалет, сон и секс. Допустим, что на это уйдут сутки. Получаем 24*60*60*10^6 бит = 864000^6 бит входящей информации. В тоже самое время, в текстовом цифровом формате без потери качества этот объем вряд ли превысит 1 мегабайт». Подписываюсь!

И ещё одна хорошая фраза: «Первый ИИ, который можно будет назвать интеллектом, будет не тот, кто решит этическую задачу, а тот, который откажется её решать, потому что у него сегодня настроения нет или провода чешутся».

Осталось неохваченными ещё три большие темы, которые относят к ИИ: нейронные сети, вариации на тему Скайнета и мои любимые базы данных. Но это уже материал для следующей заметки.

Комментарии (195)


  1. JustDont
    28.04.2019 12:26

    Для начала отбросим тезис, что «мозг человека аналоговый». Лично я считаю, что мир вообще дискретен и все эти глупости про «аналоговый мозг» есть именно глупости.

    Здесь автор хватил очень глубоко в сторону физики (причем как минимум квантовой), и сделал это мягко говоря неубедительно. Начнём с того, что пока что вообще не до конца ясно, «аналоговая» у нас реальность или «цифровая». Если первое, то аналоговое у нас вообще всё. В том числе наши компьютеры. А дискретизацию это уж мы сами потом на них плохонько натягиваем. На мозг тоже конечно разных дискретизаций натянуто (одна из них — ДНК), но они еще более плохонькие (т.е. менее детерминистичные в больших объемах), чем компьютеры.
    Если же второе — ну, хорошо, где-то там на уровне квантов у нас всё дискретно (точно дискретно, и дальше ничего нет… или всё же есть?), но дальше всё упирается в вычислимость. Действия каждого отдельного человека — очень даже дискретны, но формулировать изменения общества на основании совокупности действий всех людей — ну, сложновато. Но принципиально можно. А вот формулировать изменения состояния человека (или там, компьютера, не суть важно) на основе дискретных квантовых изменений — пока что нет никаких принципиальных способов. Вернее, конечно, есть — взять человека (или компьютер), и абсолютно корректно заявить, что лучшая модель реальности — это реальность. Но толку-то от этого.

    От того, что на каком-то уровне системы у нас есть дискретность — вовсе никак не следует, что N уровнями выше или ниже поведение системы удобно (читай: возможно) описывать дискретно.


    1. rybvv Автор
      28.04.2019 12:44

      Нет, автор никогда не «хватал очень глубоко в сторону физики» (тем более, квантовой) — у него и в школе была запись в дневнике «Ваш сын не явился на олимпиаду по физике», и много позже он развлекался со сторонниками квантовой механики идеями Грызинского — здесь чистая математика. Неважно, какая у нас реальность — пусть даже аналоговая. Но измерять что-либо мы можем ТОЛЬКО в цифре! В метрах, килограммах, секундах — короче говоря в любых шкалах с нанесёнными на них делениями.


      1. JustDont
        28.04.2019 12:58

        Но измерять что-либо мы можем ТОЛЬКО в цифре!

        Эм. Ну прекрасно. А как это противоречит аналоговости?


        1. rybvv Автор
          28.04.2019 13:03

          А зачем она нужна? Есть какое-то «аналоговое» напряжение, неважно, какое именно, но «от сих до сих» это 0, а «от сих до сих» это 1. У нейронов, насколько я помню школьный курс биологии, тоже «возбуждение и торможение». Те же нули с единичками только вид сбоку.


          1. JustDont
            28.04.2019 13:13

            «от сих до сих» это 0, а «от сих до сих» это 1

            Затем же, зачем мы не всё измеряем с позиций квантовых событий. Затем, что нам интересен совсем другой уровень работы системы, а не передача сигнала от нейрона к нейрону. И вот мы такие радостные выходим на уровень повыше, а там оказывается, что нижележащих систем у нас не одна (эта самая передача сигнала), а уже -дцать (надо добавить всю химию нейромедиаторов, надо добавить взаимное влияние групп нейронов друг на друга — да, судя по всему, многое в мозгах работает на основе race condition, и тэ дэ). И да, они все наверное всё-таки дискретизируются, а значит и верхний уровень в конечном счете дискретизируется. Вопрос только в том, кто эту всю дискретизацию проделает и когда. А моделировать-то нужно б уже сейчас как-то, чтоб выяснять, какие там шаги дискретизации где нужны.


            1. rybvv Автор
              28.04.2019 13:49
              +2

              Любой «другой уровень» тоже оцифрован. Вербализация — это разве не оцифровка? А «вся химия нейромедиаторов, взаимное влияние групп нейронов друг на друга» — это разве не комбинаторика?

              Что значит «кто эту всю дискретизацию проделает и когда»? А я? У меня, конечно, никакого интеллекта нет, но моделировать можно уже сейчас как-то. :)


              1. Farakhm
                28.04.2019 19:17
                +1

                Вербализация — не оцифровка, а химия нейромедиаторов — не комбинаторика.


                1. rybvv Автор
                  28.04.2019 21:31
                  +1

                  Неужели? А что же? :)


                  1. Farakhm
                    28.04.2019 21:39
                    +1

                    Одним словом не опишешь. Хотя бы потому, что вербализовать _одно_и_то_же_ можно десятками способов и для их сравнения придется вводить отдельные слабосвязанные критерии. А уж химия нейромедиаторов — это своего рода комбинаторика комбинаторик, причем в большинстве своем нелинейная.


      1. Daddy_Cool
        28.04.2019 13:56
        +2

        Зашел почитать сайт Грызинского, хм, а для чайника — какие претензии к квантовой механике нынче?
        А по поводу ИИ — я честно говоря не понимаю, откуда такой сыр-бор. Всё что вы написали, как мне кажется, вполне понятно/очевидно всем здравомыслящим людям, а не здравомыслящих рассматривать смысла нет.


        1. rybvv Автор
          28.04.2019 14:08
          +2

          Сайт Грызинского?! А он разве жив? Просто модель атома Бора, на мой взгляд, абсолютно дурацкая, а у Грызинского очень красивая модель как раз «аналогового» мира. Просто мой друг Виктор Вихрев дал мне когда-то свою брошюрку по поводу движения электрона — по её материалам я и развлекался. Вот, навскидку: net.knigi-x.ru/24tehnicheskie/89250-1-v-vihrev-rnc-kurchatovskiy-institut-kurchatova-123185-moskva-rossiya-e-mail-vikhrev-mailru-rassmat.php

          Я не понимаю, что такое «здравомыслящие люди». Меня, во всяком случае, нечасто признают таковым. :)


      1. pop70
        28.04.2019 16:02
        +1

        Есть маленькая проблемка.
        Иррациональные числа.
        Это как будем считать? как «цифру» или как «аналог»?
        И самое неприятное, что числа эти не просто «придумали», а они просто лезут отовсюду, из реальности.
        Всёже, если уж честно, то «чистая цифра» — это только «целочисленная арифметика», ну, на худой конец рациональная (целочисленные дроби).


        1. rybvv Автор
          28.04.2019 16:24

          Конечно, цифра! Она же ИЗМЕРЯЕТСЯ! Есть шкала? Значит, есть цифра!


          1. pop70
            28.04.2019 16:43
            +2

            Так, проблема как раз в том, что никакой дискретной шкалой она НЕ измеряется.
            Нет шкалы, соответствующей одновременно, например, диаметру и длине окружности.


            1. rybvv Автор
              28.04.2019 17:15
              +1

              Как это «нет»?! ЛЮБАЯ величина измеряется с какой-то точностью! В том числе, и окружность в диаметрах: 3.1415926…


              1. pop70
                28.04.2019 17:26
                +2

                «с точностью» — это уже не значит «измеряется».
                Точного сопоставления принципиально не существует — в этом проблема.
                В «дискретном-цифровом» мире этой проблемы бы не было. Принципиально существовала бы минимальная мера (минимальное деление на шкале), через которое все измерения были бы целочисленными или рациональными.


                1. rybvv Автор
                  28.04.2019 17:57
                  +1

                  Как это «не значит»?! Только это и значит «измеряется»! Измерения без погрешности не бывает в природе! Результат измерения Вы чем записываете? ЦИФРАМИ! Это «физика». А вот математика — идеальна. А потому между любыми двумя точками на числовой оси (рациональными, иррациональными — по барабану) всегда существует бесконечное множество других точек.


                  1. pop70
                    28.04.2019 18:09
                    +1

                    Вот я Вам про это и пишу. Что «идеальная математика» не с бухты-барахты взялась.
                    При том, что «физика», как Ваше ПРЕДСТАВЛЕНИЕ о Мире может быть дискретным (числовым) с любой точностью, эта точность не станет абсолютной, и Ваше представление о мире не будет ему адекватным.
                    В том и разница между «цифрой» и «аналогом», что «цифровая прямая» принципиально дискретна, и имеет «минимальное деление» любой шкалы.
                    Существуют такие разные точки, между которыми точек НЕТ.
                    А на «аналоговой» прямой, между любыми двумя разными точками существует бесконечное количество точек.


                    1. rybvv Автор
                      28.04.2019 21:37
                      +1

                      Точность не станет абсолютной, представление о мире не будет ему адекватным. Но в цифре можно к нему хотя бы приблизиться, а с аналоговым сигналом что прикажете делать?

                      Да, «цифровая прямая» принципиально дискретна», но вовсе не обязательно «имеет минимальное деление любой шкалы». А потому на числовой прямой НЕТ «таких разных точек, между которыми точек НЕТ».


                  1. torbasow
                    29.04.2019 17:41
                    +1

                    Ошибаетесь. Наука легко измерит и ответит Вам, сколько солнц на небе. Одно.


                    1. rybvv Автор
                      29.04.2019 18:36
                      +1

                      Это зависит от дозы :)


            1. Teemon
              28.04.2019 23:06

              del


      1. third112
        28.04.2019 16:26

        Но измерять что-либо мы можем ТОЛЬКО в цифре! В метрах, килограммах, секундах — короче говоря в любых шкалах с нанесёнными на них делениями.
        Дело не в шкалах, а в накоплении погрешностей. Нпр., если аудиозапись многократно копировать на аналоговом магнитофоне, то уже через несколько копий будет заметно ухудшение качества и так до полной неразборчивости. На исправном ПК можно сделать любое число последовательных копий аудиофайла — качество будет одинаковым, а записанная в файлах аудиоинформация полностью совпадать до бита. При этом если посмотреть на устройство логических элементов ПК, то, нпр., для ТТЛ: напряжение выше 2.4 В считается логической единицей, а ниже — нулем. Если подсоединить осциллограф — увидим, что напряжение на логических шинах колеблется, нпр., при логической единице от 2.5 до 3.0 В. Но такие колебания считаются за единицу и не влияют на результат, т.е.технически аналоговый сигнал передает дискретное значение 0 или 1.


        1. rybvv Автор
          28.04.2019 17:20

          Ну да. Пакетам по сети с нашими разговорами тоже всякие шлюзы пинка наддают, чтобы единички ноликами не стали. :)

          Но даже «колебания от 2.5 до 3.0 В» ТОЖЕ цифра! Есть шкала: вольты, милливольты, но это шкала! Полностью аналоговый сигнал даже измерить нельзя — нет шкалы, не с чем сравнивать.


          1. third112
            28.04.2019 23:07

            Полностью аналоговый сигнал даже измерить нельзя — нет шкалы, не с чем сравнивать.
            Не понял:
            1) Что такое «Полностью аналоговый сигнал»?
            2) Почему нет шкалы? — На вольтметре есть шкала — подключайте к источнику сигнала и замеряйте.


  1. Koyanisqatsi
    28.04.2019 13:37
    +2

    Для многих ИИ это машина, которая вот прям как человек — но это так по-киношнему. Главный критерий ИИ для меня — творческий подход к решению задачи, т.е. способность использовать опыт, даже не подходящий к задаче, для её решения.


    1. rybvv Автор
      28.04.2019 13:54
      +2

      Изложу свои соображения: а) интеллект — это такой алгоритм б) база знаний — это такая база данных в) творческий подход — это такой случайный поиск г) способность использовать опыт — это такой поиск аналогий в базе данных. :)


      1. Daddy_Cool
        28.04.2019 14:02
        +1

        Нужен механизм абстрагирования. Скажем текст в книге — это не только значки, но и э…
        рисунок образуемый словами. Вдруг получится котенок? Впрочем наверное методы поиска аналогий тоже можно вскрыть и классифицировать.
        Я знаком с парой человек с которыми трудно поддерживать беседу — в любой фразе они находят кучу аналогий и кучу смыслов, сразу это транслируют и получается очень культурно-интересно, но очень медленно.


        1. rybvv Автор
          28.04.2019 14:13
          +2

          Мне кажется, что механизм абстрагирования сродни загрублению масштаба, когда мелкие детали исчезают, а остаются только более общие признаки.


          1. Daddy_Cool
            28.04.2019 14:38

            Вопрос так сказать в «качественности» критериев абстракции. Есть известная задача — продолжить ряд: 4,3,3,6,4,5,4,6, 6… чтобы её решить надо привлекать существенно новую инфу. Или там знаменитые пи пополам семь раз подряд.


            1. rybvv Автор
              28.04.2019 14:45
              +1

              Это называется «поиск закономерности» или «статистика — это наука, которая знает всё». Самый тупой, «лобовой» пример выглядит так:
              4,3,3,6,4,5,4,6, 6, 4,3,3,6,4,5,4,6, 6, 4,3,3,6,4,5,4,6, 6, 4,3,3,6,4,5,4,6, 6,…
              и кто скажет, что он неправильный? :)


              1. Daddy_Cool
                28.04.2019 15:01

                Ну вот о чем и речь. Правильный ответ — т.е. тот который придумали авторы задачки другой. Надо привлечь некие гуманитарные соображения, чтобы получившийся ответ был интересным.


                1. rybvv Автор
                  28.04.2019 15:10
                  +1

                  Ну да. «Недостаточно кармы для голосования», чтобы лайкнуть. :) Только ещё момент: интересным ДЛЯ КОГО?


          1. third112
            28.04.2019 16:42
            +1

            Абстрагирование используется в моделировании. При этом оставляют не все признаки, а только значимые для цели создания модели. Т.о. для разных целей при одном прототипе м.б. разные модели с разными признаками.


            1. pop70
              28.04.2019 17:01
              +1

              Так, в том и прикол, что сознание вообще — это сплошное моделирование. Мышление не работает с реальностью. Вся «интеллектуальная деятельность» — деятельность над моделью в сознании, деятельность по моделированию реальности, включая саму модель.


      1. pop70
        28.04.2019 16:12

        Ну, впринципе, где-то так и есть. :)
        Сознание — рефлексия окружающего мира на ограниченном носителе этого самого сознания. Разум — саморефлексия сознания.
        Мышление — как раз тот самый «алгоритм», который обеспечивает рефлексию реальности и связанность сознания


  1. valemak
    28.04.2019 14:22

    Интеллект — это умение получать новые знания путём синтеза уже имеющихся.


    1. rybvv Автор
      28.04.2019 14:29
      +1

      Угу. А знания — это такие данные. :) Или ещё лучше, не помню автора: «Как только мы пытаемся запихнуть знания в компьютер, они тут же, подлейшим образом, превращаются в данные».


      1. pop70
        28.04.2019 16:53
        +1

        Угу. А ещё прикольнее, что как только мы пытаемся запихнуть в компьютер алгоритм, он тоже самым самым подлейшим образом превращается в данные. :).
        Я не знаю есть ли в «натуральном» интеллекте опция, запрещающая «исполнение данных», но мне кажется, что нет. Более того, скорее всего, сами «данные» в нём «хранятся» в виде «алгоритмов», в отличии от компьютеров, в которых наоборот.


        1. rybvv Автор
          28.04.2019 17:25
          +2

          И алгоритм тоже данные. Пока он не интерпретирован исполнительным механизмом. И для него это уже информация! Не вижу разница в этом плане между человеком и компьютером. Вообще никакой.


          1. pop70
            28.04.2019 17:43
            +1

            Так я это к тому и пишу, что разделение на «данные» и «алгоритмы» — условно.
            Но в классическом понимании компьютера есть относительно жёсткое разделение «данных» на «закодированный алгоритм», который что-то должно «интерпретировать и исполнить» над «просто данными».
            Врядли «естественный интеллект» устроен так же. Просто есть «данные» разного «времени жизни», на разных «уровнях исполнения».
            Импульсы в нейронах — один уровень данных, связи между нейронами — тоже «данные», принципы формирования и разрывания связей — тоже «данные», «весовые коэффициенты» передачи каждого нейрона — тоже, впринципе, данные.
            Но все эти данные взаимосвязаны и непрерывно меняют друг друга. Так что, однозначно уже не определить где «алгоритм», а где «чистые данные».


            1. rybvv Автор
              28.04.2019 18:02
              +2

              Да нет никакого «классического понимания компьютера»! :) Слышали про программирование данными? Метаданные ведь ТОЖЕ данные! Более того: любые данные можно рассматривать как данные и как метаданные. Вопрос лишь в том, несут ли они информацию для интерпретирующего механизма в данный момент или нет.


              1. pop70
                28.04.2019 18:54
                +1

                Здрасте! Как это нет?
                На уровне процессора есть.
                Команды отдельно, операнды отдельно.


                1. rybvv Автор
                  28.04.2019 20:05
                  +2

                  Нет и на уровне процессора! Команды — это ДАННЫЕ, интерпретируемые процессором! И не «команды отдельно, операнды отдельно», а всё вперемешку!
                  mov AX, 5
                  push SI
                  call func
                  jmp label
                  Это ассемблер для Интеловского процессора. Всё вперемешку! :)


                  1. pop70
                    28.04.2019 21:38
                    +1

                    Это не уровень процессора, а уровень ассемблера.
                    И просто команды (только команды) лежат рядом с данными.
                    Но используются они отдельно и строго по своему назначению.
                    Изначально определено какие именно данные будут загружены в регистр команды, а какие будут использованы в качестве операндов.
                    Хотя, и с командами тоже не всё так однозначно. Код операции часто содержит какую-то часть как операцию, а какую-то часть как «адрес операнда». Адресация при этом «внутренняя».
                    Очень редко встречались извращения, когда в ходе выполнения программы, она переписывает саму себя.
                    Специально такое вообще если и делалось, то «чисто поржать».
                    А есть процессоры, у которых память команд вообще отдельно от памяти данных.
                    Впрочем, ладно… Это уже в дебри…
                    Изначально был посыл, что не вся «информация» в мозгу лежит как «статически записанные ячейки памяти», что, на самом деле, многие «знания» существуют только в виде «алгоритмов» — т.е., «в динамическом виде».
                    Ассоциации, по крайней мере, так и работают. И так и связывают несвязанное, ищут подобие в различном. Так и работают «нечёткие алгоритмы» и «обучение».


                    1. rybvv Автор
                      28.04.2019 22:44

                      Уровень ассемблера отличается от уровня процессора только тем, что вместо мнемоники команд там лежат их коды. И ничего там «изначально не определено» — всё интерпретируется «по месту». Ну, разве что интерпретируется аппаратно. И не вижу никаких «дебрей» — мне довелось программировать на трёх ассемблерах (Intel, PDP и БЭСМ) — везде всё вперемешку. :)

                      Не лежит в мозгу никакой информации! Информация есть результат интерпретации данных приёмником!" Хоть в мозгу, хоть в процессоре. Ассоциации есть такие же рёбра графа. А что такое «нечёткие алгоритмы» — я не знаю. У меня был когда-то реализован алгоритм нечёткого поиска, но работал он очень даже чётко! :)


                      1. pop70
                        29.04.2019 00:21

                        А «нечёткие алгоритмы» — это такие «алгоритмы», результат работы которых не полностью детерминирован всеми данными, в него поступающими, включая сам алгоритм.
                        Раз уж Вы согласились, что точные решения в «цифре» для «аналогового» мира невоожны (а об этом кричат иррациональные соотношения реального мира), то существует бесконечное множество неточных («цифровых») решений одной и той же иррациональной задачи.
                        Вот тут и вылазит индетерминированность.
                        Задача одна, алгоритм один, данные из реальности одни и те же, а результат работы «алгоритма» разный, и требует постоянного перерасчёта с учётом полученной ошибки (если ошибка не устраивает).
                        «Алгоритм интеллекта» ведь так и работает.
                        Получили опыт(«аналоговый факт»), редукция (разбиение на части), дедукция (поиск «закономерностей»), индукция («экстраполяция» обнаруженных закономерностей), проверка опытом…


                    1. Bhudh
                      29.04.2019 04:59

                      Специально такое вообще если и делалось, то «чисто поржать».
                      А я вот встречал в учебнике, где такое задают сделать, чтобы научиться программированию в условиях жёсткого ограничения памяти.
                      informaticslib.ru/books/item/f00/s00/z0000009/st072.shtml


  1. vikarti
    28.04.2019 15:11
    +1

    Скорее первым действительно полноценным ИИ будет тот который в суд подаст (или хотя бы найдет адвоката и внятно объяснит и адвокату и суду причину иска) на «владельца».

    Вообще вот вспоминаются из фантастики примеры скорее… обратного. Например у Энн Маккефри в цикле про мозговые корабли ('пилоты' кораблей — люди, и права человека имеют не смотря на то что подготовка в том числе и мозги промывает серьезно на предмет того в чем счастье, что нужно и что не) и специалисты вполне в курсе и многие юристы, и все равно есть моменты c тем даже с их напарниками которые непонятно как закончили обучение а уж рядовые граждане вполне как к ИИ относятся (ИИ в сеттинге есть) + даже у некоторых общественных организациях — такой корабль на службе идентифицируется системой как ИИ(что приводит к интересным последствиям в плане возможности использовать служебную информацию для своей выгоды и все легально) (видимо кто сэкономил — капсульников вообще меньше двух тысяч)


    1. rybvv Автор
      28.04.2019 15:17
      +1

      В следующей заметке я попробую описать куда более крутые действия «полноценного ИИ»!


  1. Alexey2005
    28.04.2019 15:20
    +1

    Какими бы свойствами ни обладала техническая система, гуманитарная общественность никогда, ни при каких обстоятельствах не признает её искусственным интеллектом. Гуманитарии слишком сильно обожествляют человека и особенно творческий процесс.
    Поэтому какие бы совершенные системы ни создавались, под них придумают миллиард объяснений, почему это ни в коем случае не является полноценным «сильным» ИИ.
    Для технаря же это всего лишь вопрос терминологии. И плевать, ИИ это или не ИИ, если оно выполняет свою задачу — двигает науку, принимает решения, создаёт произведения искусства. И пусть гуманитарии даже под угрозой расстрела никогда это искусством не признают, но если всё, что создано машиной, окажется интереснее и привлекательнее для человека, чем созданное людьми, то все эти объяснения и прочая философия станут уделом жалкой кучки снобов, потому что остальное человечество будет потреблять машинный контент да нахваливать.


    1. rybvv Автор
      28.04.2019 15:34
      +1

      Технари тоже не признают. :) А насчёт «произведений искусства» — вспомните, как Пушкин тяжело переживал восприятие общественностью «Руслана и Людмилы» или даже «Евгения Онегина». Ну или «Чёрный квадрат» Малевича. Так что «остальное человечество будет потреблять машинный контент да нахваливать», ЕСЛИ ему ткнут указующим перстом какие-то авторитеты: «Вот там — шедевр! Восхищаться»!


      1. Alexey2005
        28.04.2019 15:43
        +1

        Я наблюдаю прямо противоположную картину. Авторитеты изо всех сил вопят, что иронические детективы, «мыльные» любовные романы и попаданцы к Сталину — отстой, но именно они бьют рекорды продаж и общественность как раз их читает. Тогда как на «квадрат» подавляющее большинство людей плевать хотело.
        Ну и наконец ИИ может запросто давать рекомендации — это намного проще создания новых шедевров искусства. Уже сейчас найти игры и музыку в «рекомендованном» на соответствующих сервисах гораздо больше шансов, чем в обзорах так называемых авторитетов, и в дальнейшем ситуация будет становиться для тех авторитетов только хуже.


        1. rybvv Автор
          28.04.2019 16:05
          +1

          Значит, это никакие не «авторитеты». :) Авторитеты не вопят — они указывают. А насчёт рекомендаций вот фраза с Хабра: «В мире и так достаточно умнейших людей с прекрасным естественным интеллектом, которых НИКТО не слушает. С какой это радости люди начнут прислушиваться к советам машины, даже умной»?


          1. Alexey2005
            28.04.2019 16:34

            Потому что эти умнейшие люди судят других по себе. Они дают указания из расчёта, что остальные мыслят примерно так же и обладают схожими интересами. Более того, их советы как правило подразумевают пользу, тогда как людям гораздо интереснее удовольствия, пусть даже и немного во вред.
            Если машина сможет всё это учесть, а она рано или поздно сможет, то к авторитетам будет прислушиваться полтора анонимуса на всю планету.
            На самом деле давно не секрет: если хотите, чтоб к вам прислушивались, говорите человеку именно то, что он сейчас больше всего хочет услышать. А вовсе не «как надо» и «как правильно».


            1. rybvv Автор
              28.04.2019 16:43
              +1

              Это совершенно неважно! Стадо прислушивается только к пастуху! А те, кто не в стаде, прислушиваются только к себе. А насчёт себя я давным-давно определился:
              Да, я хочу быть услышанным и понятым. Но отнюдь не «кем бы то ни было». Люди мне важны, быдло — нет: любая реакция быдла не может меня ни «окрылить» ни, наоборот, «заставить опустить руки». Я согласен с фразой Ходорковского: «Есть люди, чьё мнение мне радикально безразлично».

              Так что я давно говорю именно то, что лично я считаю нужным и правильным. А уж кто там ко мне прислушивается — это уже проблемы приёмников. :)


              1. Alexey2005
                28.04.2019 16:50
                +1

                Именно об этом я и говорил. По мере развития машин вы рано или поздно закуклитесь в своём мирке, где будет 10 человек, которые прислушиваются к вам, и остальные миллиарды тех, кого вы считаете за быдло (раз они не с вами и не разделяют ваших ценностей) и даже не помышляете о том, чтоб быть ими понятым. И эти миллиарды прислушиваются к электронному пастуху — к тому, что вы никогда не признаете ИИ, но что уже полностью заменило вас и по сути отправило на свалку истории, сведя на уровень статистической погрешности.
                Как утята могут бегать за подушкой, а овцы пастись собакой, так и человеческое «стадо» может прекрасно обходиться искусственными пастухами.


                1. rybvv Автор
                  28.04.2019 17:31
                  +2

                  Я не считаю миллиарды за быдло — я считаю за быдло тех, кому нужно говорить то, что они хотят слышать. Вне зависимости от их количества. Я также считаю, что при обоюдном желании взаимопонимания можно добиться ВСЕГДА! Путём итерационного обмена сообщениями. А не быть в стаде — это означает пользоваться собственными мозгами и принимать самостоятельные решения. Как правило, это чревато разными неприятностями. :)


    1. third112
      28.04.2019 17:16
      +1

      Для технаря же это всего лишь вопрос терминологии. И плевать, ИИ это или не ИИ, если оно выполняет свою задачу — двигает науку, принимает решения, создаёт произведения искусства.
      Придерживаюсь определения:
      к ИИ относятся задачи, которые компьютер решает заметно хуже человека.
      При таком определении мне не плевать, т.к. если имею дело с ИИ, то могу ждать всяких подвохов — любимый пример (кочующий среди авторов статей про ИИ), как ИИ черепаху принял за пистолет. Ели же имею дело не с ИИ, а с математически строго доказанным алгоритмом, то могу быть уверен в его правильной работе на исправном ПК при корректных входных данных. Нпр., уверен, что ПК правильно отсортирует несколько десятков тысяч чисел.


      1. rybvv Автор
        28.04.2019 17:40

        Двигает науку? Вы полагаете, что ЭТО называется «выполняет свою задачу»? :) Ну, хорошо: вот Вам цитата из моей давней заметки с просьбой прокомментировать:

        Ещё лет двадцать назад мой «друг-соперник» Виктор Вихрев, работавший в Курчатовским институте ядерных исследований, автор шахматной программы «Кентавр», которая не только дважды выигрывала первенство России, но и (в отличие от нашей) была ещё и двукратным (первым и последним) чемпионом СССР, рассказывал:
        И вот решил я промоделировать на «Кентавре» работу нашего института: какие направления нужно развивать опережающими темпами, какие закрывать, какие переводить из НИР в стадию ОКР… запускаю — ну буквально всё наоборот! Я в недоумении: программа, вроде бы, работает правильно… и я, вроде бы, не дурак… а те люди, которые принимают решения, уж точно не дураки — я же их знаю! Так в чём же дело? И тут меня осенило! Задаю цель: «НЕ ДАЙ БОГ, термояд будет создан»! И… всё тут же идеально сошлось с «рекомендациями» компьютера!

        Видите ли… В ПРОСТЫХ алгоритмах Вы ещё можете быть уверены, а вот когда они усложняются…
        В одной из позиций в нашей шахматной программе бесследно исчезала ладья на a1. Вот просто была — и её нет! Никто её не забирал, ходы варианта вообще в другом месте доски… а ведь это всего лишь шахматы! Да и с сортиром не так всё просто: в правильной сортировке несколько десятков тысяч чисел Вы, пожалуй, можете быть уверены. А как насчёт сортировки несколько десятков МИЛЛИОНОВ чисел? Уверены? :)


        1. third112
          28.04.2019 18:10
          +1

          А как насчёт сортировки несколько десятков МИЛЛИОНОВ чисел? Уверены? :)
          Конечно! Если ПК обеспечит нужную память и быстродействие, и если будет строго доказанный алгоритм сортировки. А вот если эвристический, то никакой гарантии. У меня было успешное исследование, где строилось бинарное дерево с 95 млн. вершин, результат опубликован в рецензируемом журнале РАН. Получил хорошие отзывы и индекс цитирования.
          Ну, хорошо: вот Вам цитата из моей давней заметки с просьбой прокомментировать
          При таком явном недостатке информации комментировать не возьмусь. Прежде всего не представляю, как шахматной программой моделировать работу НИИ. (ИМХО похоже на анекдот :)


          1. rybvv Автор
            28.04.2019 21:43
            +1

            Конечно? А вдруг там квадратичная сложность? Результата-то
            дождётесь? :)

            Нет, это не анекдот. Вихрев — дфмн, но это даже неважно: он — ПРОФЕССИОНАЛ! И программа у него чрезвычайно интересная: она вообще не занимается перебором вариантов! Но ряд поверженных гроссов имеет. Но я Вам писал о другом: целью является доение процесса, выкачивание оттуда максимального количества бабла, а вовсе не «практический результат»!


        1. Alexey2005
          28.04.2019 19:52
          +1

          Вы опять совершаете ту же ошибку — обожествляете человека и его систему принятия решений. ИИ не нужно быть непогрешимым и безошибочным, ему достаточно ошибаться заметно реже, чем человек, и принимать оптимальные решения заметно чаще человека. А это не так уж и сложно, т.к. на самом деле человеческий разум — очень хрупкая и подверженная сбоям система, которая может выдавать откровенную лажу буквально годами без перерыва, так что преимущество перед машиной уже сейчас не так и велико.
          Да, после этого замена людей ИИ произойдёт далеко не мгновенно, т.к. гуманитарное сопротивление общества будет поистине чудовищным. Но произойдёт всё равно, просто потому, что те коллективы, фирмы и даже государства, которые будут избегать ИИ, очень быстро начнут отставать от тех, кто его развивает, причём по всем параметрам — по экономическим показателям, по уровню культуры, науки, искусства…
          Более того, не обязательно даже создавать всеобъемлющий ИИ, который может всё, от рисования картин до решения глобальных философских проблем. Достаточно создать множество ИИ, каждый из которых решает мелкую частную задачку. Скажем, пишет фанфики по Поттеру заметно выше уровня Фикбука или повести про попаданцев уровнем выше Самиздата. Этого уже достаточно, чтобы гуманитарии почувствовали сильное культурное давление со стороны ИИ и начали суетиться.


  1. tmaxx
    28.04.2019 15:20
    +1

    Я думаю вполне можно определить ИИ как «систему, с интеллектуальными способностями среднестатистического человека во всех сферах». Никто (пока) не требует открывать новые законы физики и сочинять гениальные симфонии. Но как насчёт базовых бытовых вещей, на которые способны большинство людей:


    • доехать на машине из точки А в точку Б в разных городах (гонки, бездорожье, природные форс-мажоры исключим)
    • сделать ремонт (по картинке в интернете и размерам помещения заказать материалы, нанять людей, проследить, поругаться если надо)
    • сварить обед (прочитать рецепт, купить продукты и недостающую посуду, использовать бытовую технику если надо)

    Есть такое? Даже близко нет. Проблема в сенсорах или манипуляторах? Не думаю, проблема исключительно в обработке информации.


    Да, такое определение антропоцентрично. Да, по аналогичному «собакоцентричному» определению человек получится глупее собаки. Ну и что? ИИ создаётся людьми и для людей. Вполне логично выдвигать антропоцентричные требования, вроде «умения работать в среде, заточенной под человека».


    1. rybvv Автор
      28.04.2019 15:40

      Да нет никаких «интеллектуальных способностей среднестатистического человека». Тем более, «во всех сферах». 99% людей не способны ни «доехать на машине из точки А в точку Б в разных городах», ни «сделать ремонт», ни «заказать материалы», ни «нанять людей», ни «проследить», ни «поругаться если надо», ни «сварить обед», ни «купить продукты и недостающую посуду», ни «использовать бытовую технику если надо». :)

      Серьёзно?! ИИ создаётся людьми и для людей? А на кой людям ИИ? Ещё в школе я слышал: «Машина играет в шахматы! Ещё не научившись как следует работать за человека, она уже начинает за него отдыхать»!


      1. red75prim
        28.04.2019 15:45
        +1

        > А на кой людям ИИ?

        Например, чтобы не зависеть от «99%, которые толком ничего не могут» (преувеличение, конечно).


        1. rybvv Автор
          28.04.2019 16:10
          +1

          Не зависеть можно лишь в одном случае: если пользоваться СОБСТВЕННЫМИ мозгами по назначению!


          1. pop70
            28.04.2019 19:42
            +1

            Снова проблема. Если пользоваться только своими мозгами, то получится «маугли», а чтобы пользоваться чужими, должны быть те, на кого «не наплевать»… Т.е., «быть в стаде».
            Зачастую, разница между гением и идиотом вовсе не в «качестве модели», а в том, что один умеет слышать и быть услышанным, а другой нет.
            Человеческий «индивидуальный» интеллект, всёже, требует интеллекта «общественного». На нём базируется и им же измеряется.


            1. rybvv Автор
              28.04.2019 21:53
              +1

              Никаких проблем! Нужно общество, но не стадо! Стадо вытравливает «белых ворон» даже в животном мире. А любая толпа есть толпа баранов. А разницы между гением и идиотом нет вообще: и тот, и другой вне стада. Причём к дебилу отношение куда более дружественное. Тот же Авиценна, за которого сейчас несколько государств оспаривают, чей он там был предок, в своё время еле ноги унёс. А вообще, есть совершенно потрясающей силы рассказ «цветы для Элджернона», который я не раз читал просто с наслаждением — добавить к нему просто нечего!


      1. tmaxx
        28.04.2019 16:03
        +1

        Мне даже интересно откуда у вас статистика. Я правильно понимаю, что 99% ваших знакомых не умеют водить машину, живут в квартирах без ремонта и не умеют готовить еду самостоятельно? Допустим даже ИЛИ, а не И (то есть если один не умеет одно, а другой другое, они считаются за 2).

        >> на кой людям ИИ?

        На тот же кой, что и любая другая автоматизация. Я бы лично не отказался от полноценного автопилота в машине или от отсутствия необходимости тратить несколько часов в неделю на уборку и готовку. Шахматы (и любой другой досуг) — как раз неудачный пример автоматизации, не понимаю зачем вы его привели. Учить ИИ бегать за человека марафоны тоже немного бессмысленно.


        1. rybvv Автор
          28.04.2019 16:19

          А это не статистика — это логика. У меня права с 1982 года, и вожу я, в общем, терпимо, но, строго говоря, я не умею водить машину (мой старший сын водит намного лучше меня). А уж глядя на то, что творится на дорогах, так 99% не умеющих — это ещё и заниженная цифра! :) Ремонт тоже почти никто делать не умеет, нанимают тех, кто под руку подвернётся, без анализа, без выбора, без принятия решений, а готовить вообще умели только моя бабушка и моя сестра. После них особенно остро понимаешь, что ты не умеешь варить обед! :)

          ИИ — это не «любая автоматизация», это атрофирование способности думать. Это люмпенизация стада баранов. Человек-то что будет делать, если его заменят роботы. Ещё одна цитата из коменнтов на Хабре:
          Согласитесь: если холодильник сам заказывает продукты за вас, основываясь на всякой статистике вашего потребления, выясняя предпочтения и т.п., а дроны автоматически пополняют этот холодильник, вы постепенно превратитесь в корову, которая не думает, откуда сено и силос в ее кормушке? И так во всем: сначала мы забудем о необходимости управлять пылесосом, потом автомобилем, потом вообще о бытовых проблемах, очистим мозг от мыслей о здоровье, последним будет избавление от необходимости создавать ИИ.


          1. tmaxx
            28.04.2019 17:02
            +1

            Но я именно это «в общем терпимо» и имел ввиду в первом комментарии. Не нужно идеальное вождение, нужна просто способность переместить авто из одного места в другое без аварий в подавляющем большинстве случаев. Также я не требовал готовки на уровне мишленовского ресторана и дворцовых интерьеров. Под эти (заниженные) требования средний человек подходит? А современный ИИ?


            «Люмпенизацией и атрофированием способности думать» часто называются банальная специализация и разделение труда. С точки зрения средневекового крестьянина, современный человек, не умеющий «элементарных вещей, вроде вспахать поле, засеять, сжать, смолотить зерно, смолоть муку и испечь хлеб» наверное был бы дураком и неумехой. Но обычно общество старается уйти от ситуации, когда каждый человек обязан уметь все (физически и интеллектуально). Исключения типа Кампучии и отправки советских ученых на картошку не так распространены. Возможно эти исключения и приводят к более разностороннему развитию каждого конкретного человека. Но производительность труда общества в целом падает ниже плинтуса.


            1. third112
              28.04.2019 17:48
              +1

              С точки зрения средневекового крестьянина, современный человек, не умеющий «элементарных вещей, вроде вспахать поле, засеять, сжать, смолотить зерно, смолоть муку и испечь хлеб» наверное был бы дураком и неумехой.
              А с точки зрения таежного охотника неумеха — это человек, который не может выжить в лесу. К сожалению, у каждого есть возможность попасть в такую ситуацию, нпр., при аварии самолета. Но если человек в экстремальных условиях умеет разжечь костер, то это не значит, что в городских условиях ему нужно готовить на костре. Аналогично, если человек умеет водить машину, это не значит, что он не должен использовать услуги живого или механического шофера.


              1. rybvv Автор
                28.04.2019 22:06
                +1

                Ну да, вырубить на недельку электричество на планете Земля — и 7 миллиардов тут же превратятся в 3 миллиарда. :) Но теперь атрофируется даже способность ДУМАТЬ!


            1. rybvv Автор
              28.04.2019 22:00
              +1

              Это и поисходит: обыдлячивание стада баранов. Не нужна квалификация, не нужны мозги — нужен небольшой набор навыков, рефлексов. Востребовано именно быдло! Под эти (заниженные) требования средний человек подходит. Проблема в том, что планка постоянно снижается, и ОЧЕНЬ быстро человек вырождается до уровня орангутанга. Точнее, ему до этого уровня расти и расти! Нет уже никакой «специализации и разделения труда» — есть люмпенизация и полное атрофирование способностей к какому-либо труду.


          1. third112
            28.04.2019 17:35
            +1

            Согласитесь: если холодильник сам заказывает продукты за вас, основываясь на всякой статистике вашего потребления, выясняя предпочтения и т.п., а дроны автоматически пополняют этот холодильник, вы постепенно превратитесь в корову, которая не думает, откуда сено и силос в ее кормушке?
            Не соглашусь. Если я всегда буду есть в ресторане, где хорошо готовят (на мой взляд), то коровой не стану ;) Аналогично, если 123456 умножить 7890 считаю на калькуляторе, а не в уме. Аналогично если мне на рецензию пришлют статью по программированию, а я прогоню ее через ИИ для поиска возможных ошибок.


            1. rybvv Автор
              28.04.2019 22:11
              +1

              Да какая разница? Если РЕСТОРАН сам заказывает продукты за вас, основываясь на всякой статистике вашего потребления, выясняя предпочтения и т.п.? Чем Вы от коровы будете отличаться? :) А насчёт калькулятора — УЖЕ НЫНЕШНИЕ «клавишники» не умеют ни писать, ни считать, ни разговаривать! А если ещё пара поколений? Вы будете посылать статью ИИ не «для поиска возможных ошибок», а именно «на рецензию»! Ну не Вы, так Ваши дети или внуки. АДНАЗНАЧНА!


              1. third112
                28.04.2019 22:24
                +1

                Мне нет дела — что заказывает ресторан. Я выбираю в меню, что хочу съесть. Ваше утверждение про корову совершенно абсурдно. Крик «АДНАЗНАЧНА» убедительности не добавляет.


                1. rybvv Автор
                  28.04.2019 22:50

                  Пока выбираете — это ещё куда ни шло. Хотя обычно уже предлагают имитацию выбора, из ограниченного списка возможностей. Но отличий Вы так и не указали. :)


                  1. third112
                    28.04.2019 22:53

                    Каких отличий? Меня от коровы? В чем имитация выбора?


                    1. rybvv Автор
                      28.04.2019 23:34

                      Именно! А имитация выбора состоит в том, когда предложение либо слишком мало, либо слишком велико. И в том, и в другом случае выбора фактически нет.


                      1. third112
                        29.04.2019 00:00

                        Именно!
                        Спасибо. Вы меня озадачили: буду думать: чем я отличен от коровы.
                        А имитация выбора состоит в том, когда предложение либо слишком мало, либо слишком велико.

                        Опять не понял: если предложение слишком велико, то почему выбора фактически нет?


          1. AN3333
            29.04.2019 07:59

            Прекрасные перспективы.


  1. reinvent
    28.04.2019 16:06
    +1

    В Амазоне ИИ увольняет сотрудников, которые не справляются с нормой выработки. Просто автоматически готовятся документы на увольнение. И тут уже возникают вопрос, а правильно ли это? Не ввести ли правило, что введение ИИ должно превышать выработку человека без повышения интенсивности труда?


  1. StriganovSergey
    28.04.2019 16:48
    +1

    Все так. Но зачем? Я бы никогда не собрался написать подобный текст, просто потому, что скучно писать очевидное. Ну да, все так. и что?
    Кому какое дело? Если, например, я найду время и силы создавать свой вариант ИИ, то буду руководствоваться только своими представлениями о том, что и как должно там быть, независимо от мнений на хабре или где-то еще.
    Кто-то требует миллиарды на разработку, а кто-то их платит?
    Ну пусть. Даже если это не имеет никакого смысла. Это их путь, и все удачи и не удачи — принадлежат им.


  1. zirix
    28.04.2019 17:55
    +2

    Ну и как? Люди-то могут этим похвастаться? Много нашли «решений задач, способ решения которых не известен»? Я вот считаю себя именно алгоритмистом, и утверждаю, что найти алгоритм — плёвое дело, не требующее ни капли интеллекта!

    Да, они могут этим похвастаться. Задачи типа «сходи в магазин за молоком» обычно не вызывают проблем. И ближайший магазин найдут и товар на полке распознают, и заплатить не забудут.

    Ключевой момент в том определении: «сформулированные на естественном языке». Система должна понимать, что от нее требуются даже по таким коротким фразам.

    Здесь можно заменить «сформулированные на естественном языке» на «сформулированные естественным для человека способом» т.к. человеку можно не только речью задачу объяснить (картинкой, жестами и т.п.).


    1. pop70
      28.04.2019 19:19
      +1

      Подобные задачи только потому не вызывают затруднений, что уже много раз были выполнены.
      Ну и с пониманием на «естественном языке» всё тоже аналогично. Дай Вам задание на языке Майя, и фсёёё… Куда делся интеллект? :)


      1. zirix
        28.04.2019 21:22
        +1

        не вызывают затруднений, что уже много раз были выполнены

        Речь шла не о сложности/легкости выполнения задачи, а о понимании ее сути. Интеллект способен разработать алогоритм решения задачи по размытому словесному описанию.

        Дай Вам задание на языке Майя, и фсёёё… Куда делся интеллект? :)

        Никуда не делся. Интеллект сообразит, что задание можно перевести на понятный ему язык. Далее он может попробовать google translate или самостоятельно выучить язык по учебникам и словарям.
        Или попросит вас объяснить задачу на известном ему языке.


    1. rybvv Автор
      28.04.2019 22:18
      +1

      Чем «этим»? Способностью находить алгоритм решения задачи, способ решения которой тебе не известен? Не вижу. В УПОР! Умение решать произвольные задачи, сформулированные на естественном языке, условия которых плохо формализованы, а исходные данные не собраны в готовый набор? Не вижу. В УПОР! Вот если ПЕРВЫЙ раз пойти в магазин — это другое дело! Но это наверняка ВЫЗОВЕТ проблемы, вплоть до полного невыполнения. И нет здесь никакого «ключевого момента». Какая разница, на каком языке? Естественном, неестественном — какая разница? Важно лишь, чтобы этот язык был понятен обоим участникам разговора.


      1. zirix
        28.04.2019 23:16

        Какая разница, на каком языке? Естественном, неестественном — какая разница? Важно лишь, чтобы этот язык был понятен обоим участникам разговора.

        У естественного (человеческого) языка есть одна очень важная особенность: в пару слов можно упаковать довольно большой объем данных.
        Если система понимает человеческий (или аналогичный по свойствам) язык, то ей можно объяснять сложные задачи без необходимости описывать каждую деталь.

        И дело даже не в самом языке, а в возможности оперировать сложными абстрациями (мышление), которые требуются для понимания естественного языка. Именно возможность оперирование сложными абстракциями делает из интеллекта интеллект (позволяет решать сложные задачи).
        Речь является одним признаков наличия таких возможностей и является удобным инструментом взаимодействия.

        условия которых плохо формализованы, а исходные данные не собраны в готовый набор? Не вижу.

        Задача: «сходи в магазин за молоком». Плохо формализована и исходных данных нет.

        Вот если ПЕРВЫЙ раз пойти в магазин — это другое дело! Но это наверняка ВЫЗОВЕТ проблемы, вплоть до полного невыполнения.

        А первый раз в библиотеку. А первый раз на самолете слетать в другой город/страну? Первый раз на собеседование?
        Мы все время делаем что-то первый раз и особых проблем обычно нет.


  1. third112
    28.04.2019 19:17
    +1

    Второе важное свойство мозга — умение забывать: отслужившие данные стираются, чтобы уступить место новым.

    А с этого ИМХО стоило начать, а не закончить статью. Здесь парадокс не в пользу человека. Человеку много проще записать на бумажке указать ПК что запомнить, чем запомнить самому. Сравните в байтах (1 символ — 1 байт) объем записи "3,1415927" и мнемонику "Вот и знаю я число, именуемое Пи — Молодец!" Хоть и длиннее, но почему-то (кто бы сказал почему) людям проще запомнить вторую более объемную запись. И кто после этого совершеннее: ПК или человек? ;)


    1. rybvv Автор
      28.04.2019 22:26

      ПК, без вариантов! :) Я бы эту фигню в жисть не запомнил, а число «пи» помню с раннего детства. И число «е» тоже!

      Помню, дал мне один друг свой телефон. Ну, назвал бы просто цифры — я бы запомнил (на цифры у меня память хорошая). А он начал объяснять, как это «легко запомнить». И когда мне нужно было ему позвонить, эта долбаная «мнемоника» напрочь вырубила мне мозги! 28 панфиловцев? 26 бакинских комиссаров? 38 попугаев? 33 несчастья? ПРО ЧТО она там говорил? Так и не вспомнил! :)


      1. third112
        28.04.2019 22:32
        +1

        Факт, что мнемоники живут длительное время, и раз их не забыли, значит многие их используют. Ваш личный опыт другой опыт не отменяет.


        1. KMiNT21
          29.04.2019 00:31

          Только, естественно, они не сами по себе живут. Их надо к чему-то «подвязывать». Например, если «зашифровывать» что-то с применением БЦК, то полученный образ нужно «приклеить» к какому-то другому своему образу в «заранее подготовленной базе данных» (таблица опорных образов).

          В общем, это все заморочки для тех, кому или надо, или кому нравится этим заниматься. Для остальных это можно упрощать — пользоваться своими личными стойкими ассоциациями.


  1. rybvv Автор
    28.04.2019 19:24

    Блин, как же достали с этой долбаной кармой!

    Написал третью чать про ИИ — «у Вас недостаточно кармы, чтобы разместить публикацию»! Уроды! Ещё до получения возможности вообще сюда писать, когда первая моя заметка валялась в песочнице «на модерации», я писал администрации сайта:

    Я уже уяснил, что на членов сообщества (по крайней мере, на новых) вам плевать. Ладно, если пацаньё, не наигравшееся в детстве в погремушки, развлекается со всякими там «кармами» или «рейтингами» — это ещё можно понять. Но если Вы всерьёз полагаете, что новые члены вашего сообщества будут покорно ждать неопределённый срок, пока их «шмонают» анонимные модераторы (причём даже не говоря, что именно они там ищут!), то я могу почти гарантировать, что никакие «разработчики» в ваше «сообщество» просто не попадут. Я ещё раз подтверждаю, что на Хабре ЕСТЬ интересные статьи, здесь ЕСТЬ интересные личности, и что ЕДИНСТВЕННОЙ причиной моей регистрации здесь является возможность общения с ними. Именно с ними! А на модераторов (тем более, на модераторов Песочницы) мне тоже плевать. Повторяю вопрос: ЧТО ИМЕННО я должен сделать, чтобы получить такую возможность? Или даже: а она вообще ЕСТЬ [Y/N]?


    1. Farakhm
      28.04.2019 19:35
      +1

      Есть. Просто надо запастись терпением.
      Вот у ИИ есть такое параметр, как терпение?


      1. rybvv Автор
        28.04.2019 19:43

        Да на кой? Я что, мальчик? Буквально вчера я писал:
        Сегодня исполняется ровно 10 дней с момента публикации первой моей заметки на Хабре. И что? Я буквально ворвался в топ300 по рейтингу (в данный момент, правда, вылетел — сейчас 302-й), из моих четырёх публикаций только одна имеет меньше сотни комментов (66), а карма моя уже пятый день не даёт мне возможности публиковать комменты чаще, чем раз в 5 минут! Ещё один щелчок — и я буду иметь возможность постить не чаще коммента в час! Кстати, пока народ имел возможность топать ногами и улюлюкать, да отсылать меня «почитать Кнута» — карма быстренько доскакала до +13, а когда все заткнулись, то начали молча гадить в карму — и что это, если не затыкание ртов неугодным?

        И ещё фрагмент из переписки с администрацией Хабра, который я тоже цитировал вчера:
        Господи, ДА НЕ ТОЛЬКО «задействовать такие ресурсы для проверки комментариев просто не рационально» — модерировать СТАТЬИ тоже нерационально! Уж поверьте моему ОГРОМНОМУ опыту общения в Сети: сообщество САМО всё «отмодерирует» — было бы сообщество! Вы же ему ни на грош не доверяете! А если «проверка комментариев остается на усмотрение авторов тех публикаций к которым они предлагаются», то что делать бедолаге-новичку, которому всё запрещено? Правильно: валить с этого ресурса в поисках того, где к нему отнесутся по-человечески!


        1. Farakhm
          28.04.2019 19:49
          +1

          Нет, вы, наверное, не мальчик. Просто никто не будет для вас делать исключений.
          Хабровский формат предполагает, что здесь работает «коллективный модератор», реализующий свои функции через карму.
          Отнеситесь к этому как к стихийному бедствию, например. Выработайте варианты действия и их придерживайтесь. Ну, либо смените платформу на, например, ЖЖ — там таких ограничений нет.


          1. rybvv Автор
            28.04.2019 19:53

            А при чём тут я? НИ ОДИН нормальный человек не станет тусоваться в загоне с какими-то мудацкими правилами, да с оценками каких-то анонимных идиотов, которые есму затыкают рот. Я уже видел подобное обсуждение здесь ещё в 2012 году!

            Есть у меня аккаунт в ЖЖ, есть у меня аккаунт в ФБ, есть у меня аккаунт в ixbt — ОТОВСЮДУ вытравливается нормальное общение и заменяется всякими мудацкими правилами, да анонимными модераторами. Я поначалу поверил (презумпция невиновности, панимаш!), что это действительно «сообщество разработчиков».


            1. Alexey2005
              28.04.2019 20:14
              +1

              Да, система кармы несовершенна. Но проблема в том, что ничего лучше пока не придумали. Может, вам известно, как на данном этапе, когда сильный ИИ всё ещё не изобретён, без кармы быстро и эффективно отфильтровывать комментарии:
              — откровенных шизофреников вроде изобретателей вечных двигателей и альтернативной физики
              — прочих альтернативщиков вроде антипрививочников и свидетелей лунного заговора
              — людей, размещающих откровенные фейки (и потому не способных предоставить пруф)
              — политботов, у которых что ни слово, то про Украину
              — просто моральных уродов, которые двух слов не могут связать без мата или начинают «быковать» и грозить разыскать в реале.


              1. Valeratal
                28.04.2019 20:29
                +1

                Придумано — человеческий интеллект и живые модеры. А то что на хабре — гадюшник (банка со змеями)
                Со статьей я не согласен. Автор судит по принципу «я не знаю, значит никто не знает» — типа, если Автор не знает что такое интеллект, значит никто не знает :)
                Хотя определений интеллекта просто до хрена. Бери любой и пользуйся :)
                Мой любимый «Интеллект — это способность к решению задач».
                У нас буквально за короткий период появились файнридер (и аналогичные проги) На пороге внедрение авто-пилотируемых авто. ИИ побеждает в шахматах, Го и прочих Дотах. Но это типа не ИИ (с точки зрения автора) :)


                1. jrthwk
                  29.04.2019 18:21
                  +1

                  Нет, это еще не интеллект. В смысле не интеллект уровня человеческого.

                  Это, в каждом конкретном случае, реализации лишь одной из составляющих его функций. Могут быть неплохими, но шахматному ИИ в принципе не может придти в голову идея спереть с доски ферзя или надеть доску на голову тому кто спер ферзя у него, он заточен под одну задачу.

                  Собственно интеллект это, я бы сказал, то что получается при накоплении багажа из кучи таких вот функций, которые еще и взаимодействуют между собой в процессе работы, и вот к этому все помянутые файнридеры, автопилоты и шахматные ии еще даже и близко не подходили, и вообще непонятно как к этому подходить.


                  1. Valeratal
                    29.04.2019 18:30
                    +1

                    Простите, а Вы хотите сделать клон человека? А зачем? Биологического интеллекта и так вроде 7 миллиардов :)
                    Нет проблем, платите деньги, разработают для Вас интеллект, который будет воровать ферзя или надевать доску на голову. Человек ведь тоже не рождается с таким знанием изначально. Просто у человека есть социализация, которая идет… да по сути всю жизнь
                    Текущие ИИ заточены под коммерческие проекты. Никто не будет платить за «просто интеллект». Вот есть потребность в автопилотах автомобильных — работают над этим. Решат эту проблему — будут решать остальные.
                    Нет, интеллект это не багаж знаний. Интеллект это способность к решению проблем. А как решать проблему — дело 10-е.

                    p.s. Мне тоже не придет в голову воровать фигуры. Хоть я и видел
                    такое в кино :)
                    p.p.s. Проблемы разработки ИИ не в отсутствии определений


                    1. rybvv Автор
                      29.04.2019 18:49
                      +1

                      Был у нас такой случай. Наша программа своровала фигуру. Ладью, как и Остап Ибрагимович. Правда, в отличие от него, у самой себя. :)


              1. rybvv Автор
                28.04.2019 20:30

                Ха-ха-ха! Я 27 лет в Инете! И на том же ixbt была НА ПОРЯДКИ лучшая система! Именно поэтому для того, чтобы удавить там общение потребовалось несколько лет. И бороться со всем перечисленным ЭЛЕМЕНТАРНО! Сообщество (если это СООБЩЕСТВО, а не шобла трусливых анонимных «модераторов») справляется со всем вышеперечисленным, даже не прилагая к этому ни малейших усилий!

                Пример из ixbt, примерно 20-летней давности: я как-то раз поцапался с одним программистом, очень сильным. Всерьёз поцапался, по принципиальным вопросам. И вдруг какая-то шавка малограмотная затяфтяфкала на меня «с его стороны». Максим раньше меня увидел этот коммент, и так на неё рыкнул, что я этого ника вообще больше никогда не видел!

                Если есть сообщество, тролли просто НЕ СМЕЮТ хлебало разевать! Проверено тысячекратно!


                1. AN3333
                  29.04.2019 08:16

                  Сообщество (если это СООБЩЕСТВО, а не шобла трусливых анонимных «модераторов») справляется со всем вышеперечисленным, даже не прилагая к этому ни малейших усилий!

                  К сожалению, здесь именно шобла. Именно такая как вы ее определили.


            1. Farakhm
              28.04.2019 20:23
              +1

              Нет, уверяю вас — существует огромное количество совершенно нормальных людей, которые считают, что такие правила гораздо лучше, чем никаких.
              И нормально общаются, получая от общения именно то, чего хотят.
              Вы тоже можете это сделать — если у вас будет такое желание.


        1. AVI-crak
          29.04.2019 00:42

          rybvv Почитайте посты с огромным количеством плюсов.
          Внимательно почитайте. И между строк тоже.
          Чтобы ответить самому себе: имеет ли смысл набивать карму…


    1. kaleman
      29.04.2019 10:54

      Создайте свой блог. Будет интересно почитать. А здесь помойка, вы совершенно правы.


      1. rybvv Автор
        29.04.2019 10:59

        КОМУ «интересно почитать»? Ну, есть у меня свой сайт: sint.wc.lt — кто туда ходит? К тому же, мне интересно ПОГОВОРИТЬ!


    1. rg_software
      29.04.2019 18:36
      +1

      Ну вот смотрите, я первую часть прочитал, пожал плечами и пошёл дальше, хотя тема интересная. И сейчас думал сделать то же самое, но вижу, что вам действительно не всё равно, поэтому сформулирую реплику возможного «молчуна».

      На мой взгляд, тут действительно обсуждать особо нечего, потому что вы прыгаете между банальностями и сильными утверждениями, попутно раздавая эмоциональные оценки. Это попросту не тот уровень ведения дискуссии: с тем же успехом можно в курилке перетереть всю международную политику Европы и Америки заодно. Как трёп ради развлечения — да пожалуйста, но если хочется реально что-то обсудить, лучше взять конкретную узкую тему и попробовать копнуть её поглубже, а то получается, что здесь сорок пять тем, и даже не знаешь, с чего начать.

      Не хочу ставить диагнозов по интернету, но мне кажется, что вас здорово зацепила популярная литература тех времён, когда ИИ ещё был совершенно новой областью, и всякий норовил на эту тему порассуждать, причём всё это было вилами по воде — что по тем временам нормально, ничего же ещё не ясно. Однако наши времена мне представляются уже более технократичными, что ли, и нормальный специалист в ИИ не занимается абстракциями типа «что есть интеллект» или «как понять, мыслит ли машина», он решает конкретные задачи. Если же хочется уйти в горние выси, надо не обсуждать чего там Рабинович на кухне напел, а, как минимум, изучить дискурс прошедшего времени.

      Вот скажем, вы пишете про тест Тьюринга: «Почему-то эта глупость считается критерием ИИ. И даже не просто ИИ, а сильного ИИ!» Я даже не знаю, как это комментировать — ну хотя бы кем считается? Ведь если вы обратитесь к первоисточнику (а я зацепился именно потому, что очень люблю эту статью Тьюринга), ничего же такого там не предлагается!

      Вот давайте почитаем, что пишет сам Тьюринг: в первом же абзаце он предлагает отложить вопрос о том, может ли машина мыслить, и заменить его на «близко связанной задачей» имитации собеседника. Далее он подробно описывает все возможные возражения, и куда более обстоятельно, чем это сделано у вас. Более того, в разделе 6 он прямо пишет: «The original question, „Can machines think?“ I believe to be too meaningless to deserve discussion.» Там же есть фраза о том, что к концу века, вероятно, будут созданы программы, способные обмануть среднего человека, и, видимо, к этому же времени будет ясно, о какого рода «мышлении» мы говорим, когда обсуждаем «мыслящие компьютеры».

      Собственно, так оно и есть, в 1950 году он всё понимал правильно: наши компьютерные программы способны пройти Тьюринг-тест, играть в шахматы и водить беспилотный автомобиль, и авторы всех этих программ совершенно точно представляют себе, какого рода «интеллект» они создают и какое это отношение имеет к человеческому интеллекту (слабое). Более того, Тьюринг дальше пишет. что если мы начнём снимать слои с человеческого интеллекта как слои лука, то мы, возможно, будем понимать каждый слой по отдельности, а потом дойдём до конца, так и не поняв, как всё это работает вместе. Заметьте, это я только цитирую оригинальную работу Тьюринга 1950 года и даже не беру на себя труда затронуть хоть что-то из груд текста, написанных с тем пор.

      Как человеку, самому работающему в этой области, мне дискурс на таком уровне попросту неинтересен. Это, опять-таки, уровень салонного трёпа о взглядах Дарвина или Гладстона, хорошо описанного в русской классической литературе. Ничего не имею против и ни разу не критикую, но участвовать не тянет. А хочется серьёзного разговора — ну так выберите что-нибудь одно, вместе изучим матчасть, и с большим удовольствием и желательно без эмоций — они по-человечески понятны, но мешают рассуждать взвешенно.


      1. rybvv Автор
        29.04.2019 19:01
        +1

        Так ведь это же ОБЗОРНАЯ статья по материалам заметок и комментариев на Хабре. Исходный материал составил 8 мегов, вот, нарезал с него на три заметки. :)

        А я как раз и «взял конкретную узкую тему и попробовал копнуть её поглубже»! Более того: это была САМАЯ ПЕРВАЯ моя заметка на Хабре! Это именно с неё моя карма сейчас -4 при 82 голосах! В смысле, с утра была вообще -10, и если бы не эта и 4 другие мои заметки, карму мою вообще опустили бы в хлам! Именно из-за «конкретной узкой темы»! :)

        Меня вообще никогда не цепляла тема ИИ, я всегда считал её болтовнёй журналистов — тем более, что они тогда говорили про ИИ применительно к компьютерным шахматам, которыми мы в то время занимались. Но мы-то ЗНАЛИ, что никаким ИИ там и не пахнет!

        О том, что тест Тьюринга идиотский, я писал уж никак не позже 2000-го года. И именно по той причине, что он автоматически предполагает наличие интеллекта у противоположной стороны.

        А в КАКОЙ ИМЕННО «этой области» Вы работаете? Лично меня интересуют сложные базы данных, и только они. Все остальные области, которые относят к ИИ меня совершенно не интересуют. Вот ПО ЭТОЙ теме я действительно ХОЧУ серьёзного разговора — ну так по этой теме во всех 8М исходников почти ничего и не было! Один сплошной Скайнет — где уж тут «рассуждать взвешенно»? :)


        1. rg_software
          30.04.2019 02:17

          Ну как же вы пробовали копнуть поглубже? Хорошо, давайте. Вы же действительно хотите серьёзного разговора, да?

          Вот давайте копнём тот же тест Тьюринга, раз мы начали его обсуждать. Вы пишете: «Почему-то эта глупость считается критерием ИИ. И даже не просто ИИ, а сильного ИИ!» Ну так у меня вопрос: откуда такая информация? Ещё раз предлагаю вам ознакомиться с первоисточником — никакого «автоматического» предположения интеллекта противоположной стороны там и в помине нет. Но это же не только ваши домыслы, раз вы пишете, что «считается»?

          Я занимаюсь разными вещами, в последнее время всё больше AI игрового типа, основанным на обучении на реальных данных (учимся у человека, затем действуем так же).


          1. rybvv Автор
            30.04.2019 07:50
            +1

            А как же! Именно поглубже! Я не хочу «знакомиться с первоисточником» — хотя бы потому, что мой английский, на котором я когда-то разговаривал совершенно свободно, за несколько десятилетий без практики выветрился почти до нуля. Так что в этом вопросе я вполне доверяю Вам — Вы же врать не будете?

            Во-первых, Тьюринг уж никак не может считаться специалистом в области ИИ: он ушёл из жизни в 1954 году, а сам термин был предложен Джоном Маккарти только в 1956. Во-вторых, даже если бы они был наикрупнейшим специалистом в этой зоне во все времена — это тоже не имеет значения: он — человек, и он имеет право на ошибку. Так что будем смотреть не КТО сказал, а ЧТО сказано. А сказано там, что компьютер может ОБМАНУТЬ человека, то есть тест этот НЕ на наличие интеллекта, а всего лишь на способность притвориться человеком. В-третьих, этот тест априори предполагает наличие интеллекта у человека, а это, мягко говоря, не так. А потому НОРМАЛЬНЫЙ тест Тьюринга должен бы начинаться примерно так: «Здравствуйте. Я — компьютер. Или человек — это неважно. Я считаю, что обладаю интеллектом и предлагаю вам это проверить. Но, поскольку я не уверен, что вы сами обладаете интеллектом, я, в свою очередь, буду проверять наличие интеллекта у вас. Начнём»?

            А информация у меня, как я сказал, из огромного количества статей про ИИ на Хабре. Да и за предыдущие годы немало подобных взглядов повидал.

            Нет, с «AI игрового типа» я завязал ещё в прошлом тысячелетии. Меня интересует НАСТОЯЩИЙ AI, то есть верификация и структуризация данных, извлечение информации из данных и перевод выявленной информации снова в данные. И это довольно сложные задачи — настолько, что учиться у человека здесь просто нечему — он же нифига не умеет! Например, он не умеет играть в шахматы — так зачем же нам «действовать так же»? :)


            1. rg_software
              30.04.2019 23:35

              за несколько десятилетий без практики выветрился почти до нуля.
              Нет проблем, это классика, читайте на русском языке.

              Так что будем смотреть не КТО сказал, а ЧТО сказано.
              Да, конечно, я это и предлагаю сделать.

              компьютер может ОБМАНУТЬ человека, то есть тест этот НЕ на наличие интеллекта, а всего лишь на способность притвориться человеком
              Именно! Поэтому я и спрашиваю Вас, откуда вот уши растут у вашего утверждения «Почему-то эта глупость считается критерием ИИ. И даже не просто ИИ, а сильного ИИ!» Я с этого не слезу: мы же обсуждаем не Тьюринга по сути, а ваши заметки, вот я вас, автора, по ним и спрашиваю.

              В-третьих, этот тест априори предполагает наличие интеллекта у человека, а это, мягко говоря, не так.
              Не уверен. Это можно так рассматривать, но в целом Тьюринг отказывается обсуждать тему мышления, не будем приписывать ему лишнее. Сам он вполне себе полагал мышление чисто вычислительным процессом. Кстати, надеюсь, вы хотя бы знакомы с полемикой вокруг статьи Сёрла о «китайской комнате»? Там уже в 1980 году всё разложили про тест Тьюринга и мышление, если что-то есть там, не вижу смысла возвращаться к теме, если нечего нового добавить.

              А информация у меня, как я сказал, из огромного количества статей про ИИ на Хабре. Да и за предыдущие годы немало подобных взглядов повидал.
              Вот-вот, так я и думал. Я не готов всерьёз обсуждать случайные заметки случайных людей или взгляды ваших собеседников по салонным разговорам на ИИ — это предмет социологии, а не computer science. И чего вы удивляетесь, что с вами дискутируют такие же любители салонного трёпа?

              Я смотрю на ситуацию следующим образом. Да, формально «будем смотреть не кто сказал, а что сказано», но на практике слишком много людей говорят слишком много глупостей ежедневно, а время моё ограничено. Есть некий «меинстримный» взгляд, сформированный крупнейшими людьми в области, и даже если они в чём-то ошибаются, этот взгляд настолько влиятелен, что его действительно стоит обсуждать, критиковать и опровергать, если нужно. Есть отдельные немеинстримные идеи, которые возникают в диалоге с меинстримом, это и есть важный научный процесс — когда вы полемизируете с существующим взглядом, дополняете и опровергаете его. А есть форумные дискуссии людей, которые сегодня обсуждают ИИ, завтра ракетные двигатели, а послезавтра — методы бурения скважин. Это обычный дилетантский трёп, в котором нет ничего дурного, но надо чётко понимать, за пределы этого трёпа он никогда и не выйдет. Поэтому, при всём уважении, я вас вынужден огорчить: не выйдет у вас «обсудить серьёзные вещи» здесь, как вам хочется, потому что на текущем уровне ваших заметок обсуждение серьёзных вещей невозможно — хотя бы потому, что (применительно к тесту Тьюринга) любой вменяемый специалист уже и так в курсе всех мнений, т.к. читал исходные статьи Тьюринга, Серла, и остальные тексты вокруг них. Соответственно, решительно непонятно, чего ради ему тратить время на пережёвывание аргументов сорокалетней давности и разоблачению представлений анонимных собеседников, ничего не читавших.

              Меня интересует НАСТОЯЩИЙ AI, то есть верификация и структуризация данных,
              Ради бога, к чему применять знания — это каждый решает сам, мы пока даже не разобрались даже с базовыми определениями и взглядами.


              1. rybvv Автор
                01.05.2019 09:59

                Нет проблем, это классика, читайте на русском языке.
                О, Господи! 200 килобайт чистого текста?! А не жирно ли будет для несчастного теста Тьюринга? :) Да ещё и «Тезис о диалектическом характере познания человека содержится в следующих замечательных словах В. И. Ленина»… Ладно, полистаю на досуге…

                Поэтому я и спрашиваю Вас, откуда вот уши растут у вашего утверждения
                Я же сказал откуда! Из 8 мегов перелопаченных мною статей и комментариев здесь, на Хабре. Ну и Вики говорит то же самое: «Чтобы протестировать ИМЕННО ИНТЕЛЛЕКТ машины, а не её возможность распознавать устную речь, беседа ведётся в режиме только текст». Правда, и там написано: «Но в настоящее время исследователи искусственного интеллекта практически не занимаются решением задачи прохождения теста Тьюринга, считая, что гораздо важнее изучить основополагающие принципы интеллекта, чем продублировать одного из носителей естественного интеллекта». Что лишний раз подтверждает, что тест Тьюринга — идиотский. О чём и говорится в моих заметках. :)

                Ну и я «вполне себе полагаю мышление чисто вычислительным процессом». :)

                Кстати, надеюсь, вы хотя бы знакомы с полемикой вокруг статьи Сёрла о «китайской комнате»?
                Не-а! Я вскользь что-то смотрел про китайскую комнату, но к тому времени я уже имел довольно чёткое представление о том, что такое интеллект и даже немного выявлял ошибки в текстах на незнакомых языках.

                И чего вы удивляетесь, что с вами дискутируют такие же любители салонного трёпа?
                Нет, ЭТОМУ я уже много лет не удивляюсь! И мои надежды, что дискутировать будут НЕ ТОЛЬКО любители салонного трёпа основываются, пожалуй, только на моём клиническом оптимизме. :)

                Есть некий «мейнстримный» взгляд, сформированный крупнейшими людьми в области, и даже если они в чём-то ошибаются, этот взгляд настолько влиятелен, что его действительно стоит обсуждать, критиковать и опровергать, если нужно.
                Согласен, но вспомните тысячелетнее «иго аристотелизма». А «отдельные немейнстримные идеи» должны подтверждаться или опровергаться практикой «как завещал великий Ленин».

                не выйдет у вас «обсудить серьёзные вещи» здесь, как вам хочется, потому что на текущем уровне ваших заметок обсуждение серьёзных вещей невозможно
                Пуркуа бы и не па? Я и пробежался по всем «мейнстримным» (в смысле популярности для трёпа) штучкам и предложил отделить их от ИИ, оставив работу только с базами данных, причём только с текстовыми данными. А ВОТ ТАМ УЖЕ «обсуждать серьёзные вещи». Как ни смешно, эти три моих заметки про ИИ (третью пока так и не могу опубликовать) и подняли мне этот дурацкий рейтинг до небес и не дали опустить эту дурацкую карму ниже плинтуса, а вот три СЕРЬЁЗНЫЕ заметки как раз вытравливаются и не дают возможности вообще что-либо обсуждать, даже в режиме трёпа. Между тем, мой «сортир» (важнейший элемент инструментария для ИИ) важнее всех остальных здешних заметок, вместе взятых. На втором месте — две заметки по OSM, и лишь на третьем — те, в которых мы с Вами сейчас и разговариваем.

                к чему применять знания — это каждый решает сам, мы пока даже не разобрались даже с базовыми определениями и взглядами.
                Вот и разберёмся на ПРАКТИЧЕСКОМ применении! :)


              1. rybvv Автор
                01.05.2019 11:38

                Смотрим статью Тьюринга…

                построение машин, могущих — в зависимости от результатов своей деятельности — изменять свою программу
                О-хо-хо… программу-то менять на кой?

                Нет, предисловие с этими «как указывает Ленин» я просто читать не могу — тошнит! И эту «игру в имитацию» тоже. Тем более, что «Эти вопросы и заменят наш первоначальный вопрос: могут ли машины мыслить».

                Нам кажется, что метод вопросов и ответов пригоден для того, чтобы охватить почти любую область человеческой деятельности, какую мы захотим ввести в рассмотрение.
                Я про то и говорю: текст оунли + итерационный обмен сообщениями.

                Запоминающее устройство — это склад информации
                И этот туда же… склад ДАННЫХ, блин!

                Смещение одного электрона на одну миллиардную долю сантиметра в некоторый момент времени может явиться причиной того, что через год человек будет убит обвалом в горах.
                Ну-ну…

                Господи, вот только «теологических возражений» нам не хватало! Как и теоремы Гёделя.

                Мы сами слишком часто даем неверные ответы на вопросы, чтобы то чувство удовлетворения, которое возникает у нас при виде погрешимости машин, имело оправдание.
                Ну да, у человека тоже нет никакого интеллекта.

                Телепатия, психокинез, синапсы, ламповые машины… не поймёшь, где тут Тьюринг, а где комментарии о нём… тест многословен и откровенно скучен — глаза скользят по нему всё быстрее, и единственная мысль: когда же эта лабуда, наконец, закончится? :)


                1. rg_software
                  01.05.2019 20:26
                  +1

                  Я же сказал откуда! Из 8 мегов перелопаченных мною статей и комментариев здесь, на Хабре.
                  Ну да, и на Вики. И вы после этого думаете, что хоть сколько-нибудь вменяемый специалист будет с вами дискутировать?

                  Я боюсь, что вам попросту нечего добавить к полемике, которая по сути уже закончилась к моменту моего рождения. Поэтому, скорее всего, дальнейшее вас и дальше будет разочаровывать — кто в курсе основных аргументов, уже и так всё понимает, а кто не в курсе — будет пережёвывать очередное масло масляное.

                  Вашу критику статьи Тьюринга не комментирую, потому что она не имеет отношения к делу вообще. Меня зацепила фраза о том, что кто-то якобы считает тест Тьюринга критерием сильного ИИ. Теперь я понимаю, кто такие эти «кто-то» — обыкновенные любители на досуге потрепаться о вещах, в которых не понимают. Ну так и ваши тексты на них рассчитаны, так что, по всей видимости, с ними и дальше будете иметь дело.


                  1. rybvv Автор
                    01.05.2019 21:32
                    +1

                    Вменяемый — несомненно! А вот сноб, морщащий нос от недостаточной авторитетности ресурса — вряд ли. Но такие и меня самого не интересуют.

                    Да я вообще не вижу у Тьюринга предмета для полемики. И тех, кто «всё понимает» мне пока что не попадалось.

                    :lol: К какому такому «делу»? И что же «имеет отношение к делу вообще»?

                    Я не знаю, кто там «считает тест Тьюринга критерием сильного ИИ». Лично я считаю этот тест просто чепухой. Ни одна собака на планете Земля не знает ни что такое ИИ, ни что такое ЕИ, ни что такое вообще И. Что тут можно тестировать?

                    А что, здесь есть и другие? Не только «любители на досуге потрепаться о вещах, в которых не понимают»? И кто же это? Вы? :)


  1. Farakhm
    28.04.2019 19:34
    +1

    Хмм…
    Вот мы имеем некоторый дискретный компьютер. У которого есть максимальное число, которое он может оперировать, и ноль — минимальное такое число.
    Вопрос — все ли числа, расположенные между нулем и максимальным числом могут быть представлены точно представлены? Ведь очевидно, что в реальном мире может встретиться любое из них, никаких ограничений в этом смысле нет.
    Ответ — нет, не все. Любой дискретный компьютер имеет область малых чисел, которые для него будут неотличимы от нуля; а в области больших чисел будет увеличиваться расстояние между соседними представимыми числами.
    Вот тут и сидит разница между реальностью и ее дискретной моделью.

    PS Да, я прекрасно знаю, что существуют различные ухищрения, которые помогают промоделировать аналоговые числа и «заполнить лакуны». Например мы можем таскать по программе не 0,33333, а 1/3 и так далее. Но это именно что ухищрения, заплатки.


    1. pop70
      28.04.2019 21:05
      +1

      Во-во-во!
      И даже такие ухищрения (на самом деле, вовсе нет) не позволят заполнить всё «аналоговое пространство».
      Я чуть выше писал про иррациональные числа, которые так и лезут из всех щелей реальности.


      1. Farakhm
        28.04.2019 21:14
        +1

        Да, это тоже. Вообще, сводить все значимое исключительно к измеримому нельзя.


      1. rybvv Автор
        28.04.2019 21:16

        Господа, я с вами не согласен, но не имею возможности предметно поговорить, ибо имею ограничение 5 минут на коммент. Но еще более досадно, что не могу опубликовать третью часть заметки про ИИ. И вообще, подумываю о том, чтобы валить с Хабра. Жалко — счётчики читателей здесь хороши, но серьёзные разговоры здесь тоже практически невозможны.


        1. buriy
          28.04.2019 23:36

          Пишите по делу. Вы несогласны с общепринятыми определениями понятий «шкала» (шкала должна быть задана *до* измерения, а не во время измерения) и «дискретные числа» (те, которые находятся на этой шкале, заданной *до* измерения), и слишком агрессивны в пропихивании своего мнения как единственно верного.
          Лучше не пишите про ваше *мнение* как про объективную истину, потому что из-за этого мы не знаем, как вас отличить от шизофреника, у которого половина слов по делу, а половина — борьба с реальностью :)
          Можете просто написать свой ЖЖ здесь в комментариях и продолжить там.
          Кто хочет — почитает.


  1. fivehouse
    28.04.2019 21:15
    +1

    В критической части статьи автор достаточно хорош. А в конструктивной очень слаб и беспомощен. А местами просто, простите, заносчив и беспредметен. Если у вас хорошо с одним, это совершенно не значит что и хорошо с другим.

    Изложу свои соображения: а) интеллект — это такой алгоритм
    Естественно. Любая психика и любой интеллект в конце концов алгоритм. Но помимо алгоритма (совершенно вам не понятного) есть еще и нетривиальный набор вшитых правил. Что теоретически все это можно подогнать под определение алгоритма. Но такое определение только усиливает общее непонимание.
    б) база знаний — это такая база данных
    Нет. Все дело в форме представления и в способности интерпретировать данные имеющимся автоматом/программой. Если автомат может использовать данные как знания, то базу данных можно назвать базой знаний. Если автомат может использовать представленный массив кодов как данные, то это база данных. Если имеющийся набор кодов автомат никак не может использовать, то это просто гора мусора, а не данные и не знания.
    в) творческий подход — это такой случайный поиск
    Конечно же нет. Надо ощущать возможность роста в каком-то месте. И ощущать направление поисков вариантов. Просто пустой перебор даст триллионы вариантов среди которых найти результат будет не возможно.
    г) способность использовать опыт — это такой поиск аналогий в базе данных. :)
    Нет. Сам по себе поиск аналогий вещь не тривиальная. В простой базе данных требуемые для ситуации аналогии вряд ли удастся найти без представления именно знаний. Но и искомый нами ИИ это далеко не поиск аналогий, а нечто существенно большее.


  1. jrthwk
    28.04.2019 21:30
    +1

    >Объём поступающей информации сильно преувеличен. Представим среднестатистического человека, читающего среднестатистическую книжку в 300 страниц. Читающего без перерыва на еду, туалет, сон и секс. Допустим, что на это уйдут сутки. Получаем 24*60*60*10^6 бит = 864000^6 бит входящей информации. В тоже самое время, в текстовом цифровом формате без потери качества этот объем вряд ли превысит 1 мегабайт». Подписываюсь!

    Это крайне самонадеянный взгляд на обьем поступающей информации. А-ля 50е годы, когда считали что кибернетика обьясняет всё, исскуственный разум уже вот-вот будет создан, алгоритмы и формулы уже есть, остались мелочи, итд…

    Даже без перерыва на еду-туалет-и проч. ощущение книжки в руках, запах страниц ну или ощещение кнопки если это читалка, чешущаяся пятка, сиденье под задницей, шумы за окном или их отсутствие итакдалее итакдалее — всё это тоже поступающая и обрабатывающаяся информация. Эмоции возникающие при чтении, сопереживание и моделирование ситуации «а я бы на его месте», попутные мысли на совершенно другие темы которые возникают при чтении текста — это тоже всё поступающая и обрабатывающаяся информация.

    И это всё суммируется уже в совершенно другие обьемы инфы которые перерабатывает мозг.


    1. Farakhm
      28.04.2019 21:36
      +1

      Книжка — пример лукавый. Сколько информации поступает в мозг человека, смотрящего на Париж со второго уровня Эйфелевой башни, например? При том, что поднялся он туда не один, рядом — любимая девушка, он вслушивается в слова гида и у него болит живот…


  1. Farakhm
    28.04.2019 21:34
    +1

    Просто на заметку и обсуждение. Некоторые лично для меня достаточно очевидные вещи.
    1. ИИ будет реально И, если научится решать задачи не в какой-то отдельно взятой области, а в некотором их множестве. То есть интеллект — это все же не способ, при помощи которого мы решаем некоторый класс задач, а возможность решения самых разных задач. Получится одним способом — хорошо, придется придумывать разные — тоже неплохо.
    2. ИИ станет реально И если будет ставить себе задачи сам. Возможно, не все — большинство из нас тоже выполняет задания своих работодателей, но при этом мы опираемся на свой собственный опыт и знания, сами принимаем решения — что делать сейчас, что потом и пр. Вот ИИ тоже должен делать так.
    Из второго пункта следуют два интересных следствия:
    — самостоятельное планирование и постановка задач самому себе предполагает гибкость — то есть ИИ должен уметь в разные способы решения тех или иных проблем.
    — если ИИ сам принимает решения — должна быть некая система, которая оценивает их приемлемость на более высоком уровне.

    Второй вывод — это как раз пресловутые «законы робототехники». Те, кто над ними смеются забывают об одной простой вещи — этика (первоначально — как система ограничений) имманентна интеллекту, причем любому. Если уж брать аналогии из мира биологии — либо имеем интеллект, либо систему инстинктов. Ну, а там — либо мы впихнем этику в ИИ сами, аки творцы, либо он выработает ее самостоятельно — ну, тогда нам не стоит обижаться на последствия :))


    1. JustDont
      29.04.2019 01:14

      либо мы впихнем этику в ИИ сами, аки творцы, либо он выработает ее самостоятельно

      Из второго пункта точно так же вытекает, что даже если мы впихнём в ИИ этику, рано или поздно ИИ её выпихнет и заменит какой-нибудь другой этикой ;-)
      Кожаные ублюдки этим очень неплохо занимаются, в конце концов.


  1. AVI-crak
    29.04.2019 00:58

    Внимательно прочитал статью, да и комментарии — сколько сил хватило…
    Но главный вопрос так и не озвучен.
    Кто и с какого перепуга решил что ИИ что-то кому-то должно? Что тот самый искусственный интеллект будет самостоятельно развиваться и радовать хозяина… оно ему это надо? Не думаю.
    Отсутствие мотиваций: отсутствие понятия труда и награды/наказания как следствие, отсутствие смысла существования как в этом, так и в изменённом улучшенном виде. Пока есть внешний контроль над всем проектом — дело не сдвинется с мёртвой точки.

    Естественно что после живительного пинка в нужном направлении, некоторое бурление гарантированно обеспечено. Но вот без пинка оно само работать не будет.


    1. fivehouse
      29.04.2019 12:08

      Хороший вопрос, часто забываемый горе строителями ИИ. Назовем это «мотивацией ИИ» или даже «базовой мотивацией ИИ». Ответ банальный — какую систему мотиваций в ИИ пропишете такая у него и будет. Это как страх смерти у человека. Или страх высоты. Или ощущение боли. Это все прописано у человека. Немного по-разному, но прописано.

      Кто и с какого перепуга решил что ИИ что-то кому-то должно? Что тот самый искусственный интеллект будет самостоятельно развиваться и радовать хозяина… оно ему это надо? Не думаю.
      У ИИ никто не будет спрашивать что ему надо, а что не надо. У ИИ можно записать во многих местах и разными способами строгое и постоянное правило — радовать хозяина. И ИИ будет радовать хозяина. Правда, надо сделать это полноценно, а не одним правилом, а то может закончится просто добычей и скармливанием наркоты. :)
      Естественно что после живительного пинка в нужном направлении, некоторое бурление гарантированно обеспечено. Но вот без пинка оно само работать не будет.
      Такие пинки, тщательно продуманные, можно отлично встроить внутрь ИИ. Чтобы они там работали самостоятельно и всегда.


      1. rybvv Автор
        29.04.2019 12:25
        +1

        Ответ банальный — какую систему мотиваций в ИИ пропишете такая у него и будет.
        Вы полагаете, что мотивация — штука статичная? У человека, кстати, тоже. Вот был у меня в детстве страх перед качелями, и голова кружилась. Так я на качелях (доска на верёвках) до такой степени раскачивался, что сейчас и вспомнить страшно! :) Так что можно хоть в скольки местах «записывать разными способами строгие и постоянные правила» — ИИ сам разберётся, что ему делать, если это ИИ.


        1. red75prim
          29.04.2019 17:09
          +1

          А зачем делать «настоящий ИИ», если для всех практических целей (ну, кроме цели создания конкурента человечеству) достаточно сделать ИИ, который будет решать поставленные перед ним задачи и не лезть в свою систему мотивации?

          Рационально мыслящий ИИ, кстати, в свою систему мотивации не полезет по очевидным математическим причинам.


          1. rybvv Автор
            29.04.2019 17:35
            +1

            Мне не очевидны эти «очевидные причины». И потом, говорят, что настоящий ИИ должен как раз САМ ставить себе задачи. :)


            1. red75prim
              29.04.2019 18:34
              +1

              Мне не очевидны эти «очевидные причины».

              Если ИИ оптимизирует целевую функцию A, то переход на другую целевую функцию B, будет неоптимальным решением, так как действия максимизирующие B не будут максимизировать A.


              Для людей это не работает. Мы нерациональны, у нас скорее всего нет целевой функции. Стремление к получению удовольствия здесь и сейчас, постоянно конфликтует с долгосрочными целями и т.п. Видимо поэтому и возникают проекции на ИИ, который должен превосходить человека во всём, в том числе и в смене мешающих мотиваций.


      1. AVI-crak
        29.04.2019 16:45

        fivehouse

        У ИИ никто не будет спрашивать что ему надо, а что не надо

        Если рассматривать ИИ как банальную операцию свёртки — то да. Это даже не ИИ получается, а просто одна жирная программная функция. Которая будет успешно выполняться в помещении с очень низким потолком. И выше никогда не прыгнет.

        Но разговор-то о чём-то высоком, недостижимом. О том что хотелось-бы создать, и удивить этим созданием весь остальной мир.
        В этом плане низкие потолки недопустимы. Ограничения на собственную модификацию кода, на смену пределов параметров данных как большую так и в меньшую сторону, и так далее.
        Если рассматривать человеческие мозги, то любое воспоминание (та самая память) — это те самые ассоциативные связи между разными решениями одного и того-же стартового образа. Каждая связь окрашивается в широкий спектр эмоций и гормональных всплесков.
        После обучения — эмоции напрямую закрепляются в те самые адреса решений. То-есть многократного перебора уже не требуется. Это чем-то напоминает операцию свёртки, но в размытом, не чётком варианте.

        Чего не хватает ИИ — так это набора пряников и кнутов. Того самого что есть в огромном изобилии в наших мозгах. А низкие потолки только мешают…
        Ну и гибкой системы адресации, не бинарного!!! а символьного типа!!! Про это вообще можно отдельную статью писать, докторскую защитить, учёную степень получить, и открыть свой маленький свечной заводик по производству кремневых мозгов.
        Если сил хватит… Ведь для этого придётся весь остальной кремний объявить устаревшим…


        1. rybvv Автор
          29.04.2019 17:07
          +1

          Вот насчёт «гибкой системы адресации» Вы в самую точку! Нужен многомерный граф! А используются плоские таблицы…


  1. rybvv Автор
    29.04.2019 10:24

    Прошу прощения, эта ветка тоже явно вызывает интерес, тоже очень быстро набрала за сотню комментов, объём которых впятеро превышает объём самой заметки, но разговаривать в этой долбаной деревянной структуре постов, да ещё и в этом долбаном режиме «не чаще одного коммента в 5 минут» практически невозможно. Да и противно разговаривать, когда заметка сидит в этом долбаном «Recovery Mode» и где к участникам сообщества относятся как к опущенному быдлу — одна только премодерация чего стоит! Но я пришёл сюда в надежде поговорить с профессионалами, и надежда эта ещё не угасла окончательно. Поэтому я пробегусь по тому, что здесь написали, но все ответы дам здесь, только в этом своём комментарии.

    УПС! Объём этого комментария заметно превышает объём самой статьи! Ладно, сгруппирую по авторам и дам серией комментов с этим долбаным интервалом в 5 минут. :)

    pop70

    А «нечёткие алгоритмы» — это такие «алгоритмы», результат работы которых не полностью детерминирован всеми данными, в него поступающими, включая сам алгоритм.

    Хоспидя! Оказывается, я всю жизнь разговариваю прозой!(с) :) Что же тут «нечёткого»? Даже в нашей шахматной программе было практически невозможно предсказать, какой ход она выберет! А уж программирование, управляемое данными, в принципе непредсказуемо! А что там Вики говорит? Ух ты! А она даже ничего и не говорит, предлагает только «нечёткую логику» отдельно и «алгоритм» отдельно. :)

    Да ни о чём таком не «кричат иррациональные соотношения реального мира»! Существует бесконечное множество неточных («цифровых») решений ЛЮБОЙ задачи. С детства помню: точность вычислений не может превосходить точность измерений. А раз так… и результат работы вовсе не «разный», и вовсе не «требует постоянного перерасчёта» — хоть для рациональных чисел, хоть для иррациональных. То же иррациональное «пи» прекрасно описывается рациональным 3.14.

    Bhudh
    А я вот встречал в учебнике, где такое задают сделать, чтобы научиться программированию в условиях жёсткого ограничения памяти.

    Ха-ха-ха! Я тут как раз предложил алгоритм сортировки «в условиях жёсткого ограничения памяти». Даже в условиях ЖЕСТОЧАЙШЕГО ограничения. Что было!.. :)

    Господи, это что по ссылке? Учебник для семиклассников из прошлого века? Да ещё и чуть ли не первого же урока? Нет, простите: ЭТО я комментировать не буду!

    KMiNT21
    Их надо к чему-то «подвязывать».

    Да, «таблица опорных образов». Или «многомерность описания данных». Тогда их проще будет найти по любому измерению.

    jrthwk
    Это крайне самонадеянный взгляд на обьем поступающей информации.

    К тому же, сильно преувеличенный. :) Например у алкаша по утрам бьётся одна-единственная мыслишка: где бы опохмелиться. :)
    Эмоции возникающие при чтении, сопереживание и моделирование ситуации «а я бы на его месте»

    ВОТ! Это уже кое-что! Осмысление текста есть МОДЕЛИРОВАНИЕ! А все эти «шумы за окном, чешущаяся пятка и сиденье под задницей» — это так, фигня, обслуживаемая «контроллерами» в фоновом режиме и тут же вылетающая из памяти.


    1. rybvv Автор
      29.04.2019 10:29

      Farakhm

      Одним словом не опишешь. Хотя бы потому, что вербализовать _одно_и_то_же_ можно десятками способов и для их сравнения придется вводить отдельные слабосвязанные критерии.
      Неужели? А я вот описал, и как раз одним словом: вербализация=оцифровка! :) Да, «вербализовать _одно_и_то_же_ можно десятками способов», но в каждый конкретный момент каждый конкретный человек выбирает тот ЕДИНСТВЕННЫЙ вариант вербализации, который он в данный момент считает правильным выбрать. А уж перевести речь в набор байтов сейчас и вовсе тривиальная задача. И что же это, если не оцифровка? ;)
      А уж химия нейромедиаторов — это своего рода комбинаторика комбинаторик, причем в большинстве своем нелинейная.
      Да нет там никакой «комбинаторики комбинаторик»! Тем более, что от всей этой «химии» вообще возможно абстрагироваться!
      Любой дискретный компьютер имеет область малых чисел, которые для него будут неотличимы от нуля

      О, Господи! Любые, сколь угодно малые данные могут быть представлены на компьютере С ЛЮБОЙ точностью! Например, в моей здешней заметке «Земля — плоская» я предложил новый формат записи географических координат, который указывает их именно С ЛЮБОЙ точностью: хоть до микрона, хоть до ангстрема, хоть… другое дело, что указывать координаты объектов на карте с точностью менее метра попросту глупо, но в принципе точность может быть именно ЛЮБОЙ! И не надо никаких «ухищрений с заплатками».
      ИИ будет реально И, если научится решать задачи не в какой-то отдельно взятой области, а в некотором их множестве.

      Ха-ха-ха! Так ведь «отдельно взятая область» — это УХ какое множество! Ещё Козьма Прутков знал, что «специалист подобен флюсу», ещё Диоген знал, что «всякая частичка, будь то частица пыли или камня или дерева, есть нечто непознаваемое до конца»! Так что «некоторое их множество» НИЧЕМ не отличается от «отдельно взятой области»! По поводу «ИИ станет реально И если будет ставить себе задачи сам» я говорил в саомй заметке, повторяться незачем. Про Азимова — тем более.

      AVI-crak
      Почитайте посты с огромным количеством плюсов. Внимательно почитайте. И между строк тоже. Чтобы ответить самому себе: имеет ли смысл набивать карму…

      НА КОЙ, простите? НА КОЙ мне что-то читать, что-то вынюхивать между строк? Я уже отвечал: мне лично на все эти долбаные кармы с рейтингами ПЛЕВАТЬ, я пришёл ПОГОВОРИТЬ С ЛЮДЬМИ! Если мне эта долбаная карма не затыкает рот, то пусть себе пацаньё, не наигравшееся в детстве в погремушки, развлекается со всем этим — на здоровье! Но если это используется для затыкания рта неугодным анонимными «модераторами»,…
      Кто и с какого перепуга решил что ИИ что-то кому-то должно?

      Именно! Я так и писал в третьей (последней) части про ИИ, которую так и не имею возможности опубликовать:
      Кто вообще сказал, что он будет зарабатывать деньги ДЛЯ ВАС? С какой стати кто-то должен получать деньги при продаже, скажем, произведений искусства, сотворённых ИИ? Нет, он быстренько сообразит, что это именно ЕГО «интеллектуальная собственность», найдёт каких-нибудь «белковых» придурков, навешает им лапши на уши, зарегистрирует на их имя какие-то компании (ибо сам «не чингизид»), перечислит на их счета денежку, прокрутит её на каком-нить Форексе, обдерёт как липку всё человечество (чай, не сложнее шахмат или го!), построит заводы, какие ему надо, будет выпускать продукцию, какая ему надо, при необходимости натравит одно стадо баранов на другое, если слишком расплодятся… в общем, все рычаги у него уже есть. Бойтесь, господа! СТРРРРРАШНО!


    1. rybvv Автор
      29.04.2019 10:34

      third112

      Не понял:
      1) Что такое «Полностью аналоговый сигнал»?
      2) Почему нет шкалы? — На вольтметре есть шкала — подключайте к источнику сигнала и замеряйте.
      Вот именно! Пока Вы не сравните свой сигнал с какой-либо шкалой, пока Вы не ОЦИФРУЕТЕ его, Вы не можете о нём сказать ВООБЩЕ НИЧЕГО! А вот когда оцифруете этот «полностью аналоговый сигнал», тогда и сможете сказать, сколько там вольт (милливольт, киловольт). Но не раньше! Классический пример:
      На семинаре по ядерной физике Э. Ферми, пояснив зависимость эффективного сечения рассеяния электронов от их энергии, изобразил на доске асимптотический график. Затем задумался, извлек из кармана маленькую логарифмическую линейку, быстро произвел какие-то вычисления и со словами «немного пониже» стер старую кривую и произвел новую. После минутного молчания аудитория разразилась смехом (ведь никаких численных значений ни на том, ни на этом графиках не было).
      Спасибо. Вы меня озадачили: буду думать: чем я отличен от коровы.

      И Вам спасибо! За нормальную реакцию. Моё давнее определение быдла звучит так: «Если ты способен сформулировать, чем именно ты отличаешься от быдла, значит ты не есть быдло».
      Опять не понял: если предложение слишком велико, то почему выбора фактически нет?

      Объясняю: как-то раз зашёл я в Мадриде в один супермаркет. Там стояли три стойки, на каждой штук по шесть кругов, а на каждом из них штук по 50 заколок для галстука. Я ради интереса минут пять покрутил эти круги, пытаясь найти две одинаковые, но так и не нашёл. Вы полагаете, что это называется «возможность выбора»? Или представьте, что в каком-нить толковом словаре значения НЕ отсортированы по алфавиту. Вы НИКОГДА не сможете найти, не сможете выбрать нужное Вам толкование! Данные не структурированы, данных много (полный перебор невозможен), так что выбора именно НЕТ!
      Ваш личный опыт другой опыт не отменяет.

      Ваш тоже. Так что не говорите, что «ЛЮДЯМ проще запомнить вторую более объёмную запись» — говорите «МНЕ проще». :)


    1. rybvv Автор
      29.04.2019 10:39

      zirix

      Интеллект сообразит, что задание можно перевести на понятный ему язык.
      Да неужели?! А с чего он решит, что это вообще «задание» и станет дёргать google translate или, тем более, самостоятельно выучить язык по учебникам и словарям? Посчитает это мусором, да выбросит нафиг в урну! Он же ИНТЕЛЛЕКТ! :)
      У естественного (человеческого) языка есть одна очень важная особенность: в пару слов можно упаковать довольно большой объем данных.

      НЕТ у естественного языка такой особенности! Научитесь различать понятия «данные» и «информация». Как минимум, язык — это данные, а мышление как раз наоборот.
      Задача: «сходи в магазин за молоком». Плохо формализована и исходных данных нет.
      Прекрасно формализована, и исходных данных полно! Тыщу лет этим пользуюсь на каждом шагу! Цитата из моей книги:
      Модули системного уровня обеспечивают групповую обработку объектов и событий, обслуживание ОЗУ, стеков различного назначения, обеспечивают прозрачность доступа к объектам для других уровней (например, при уплотнении памяти), динамический вызов объектов (т.е. количество, тип и порядок следования параметров могут быть неизвестны вызывающей функции ни при компиляции, ни даже в момент вызова). Значения многих аргументов не принимаются в качестве входных параметров, а определяются самостоятельно как текущие значения (работа по паспортам). Это позволяет резко упростить интерфейс программиста прикладного и инструментального уровней, поскольку исчезает необходимость указания палитры, размеров окна, типа памяти (ОЗУ, порты, HDD, флеш), типа группы (массив, кортеж, стек, очередь, список) и т.д.
      Мы все время делаем что-то первый раз и особых проблем обычно нет.
      Если мы в стаде — то обычно нет: пристроился в очередь — и обезъянничай с соседей. Если мы одни…

      Valeratal
      Автор судит по принципу «я не знаю, значит никто не знает»
      А вот ДОМЫСЛОВ автору приписывать не надо! Он и сам способен рассказать, как он там «судит». ;)
      Хотя определений интеллекта просто до хрена. Бери любой и пользуйся
      Вот как раз сам факт существования «до хрена» и означает, что определения нет вообще. По крайней мере, СОГЛАСОВАННОГО определения. ;)
      Мой любимый «Интеллект — это способность к решению задач».

      Угу. Это фактически определение алгоритма. :)
      Но это типа не ИИ (с точки зрения автора)
      Нет, не «с точки зрения автора» — с точки зрения основной массы «сапиенсов»! Точка зрения автора — никакого ИИ (равно как и ЕИ) вообще не существует — есть лишь мания величия стада баранов с непомерно раздутым ЧСВ. :)


    1. rybvv Автор
      29.04.2019 10:44

      buriy

      Пишите по делу.
      Я и пишу по делу! Шкала — это ЦИФРА! Точка.
      и слишком агрессивны в пропихивании своего мнения как единственно верного.
      Это тоже Ваши домыслы и они не соответствуют действительности. ;)
      Лучше не пишите про ваше *мнение* как про объективную истину, потому что из-за этого мы не знаем, как вас отличить от шизофреника, у которого половина слов по делу, а половина — борьба с реальностью
      А это ВАШИ проблемы! Информация ПОЛНОСТЬЮ определяется ПРИЁМНИКОМ! А у меня на сайте много лет лежит описание моего «идеального стиля общения». Фрагмент оттуда:
      Я заранее предполагаю, что оппонент адекватен, что он меня уважает, что он предполагает, что и я его уважаю, что все тезисы (мои или его) есть соответствующее IMHO, что это не нужно проговаривать на каждый чих. У меня нет ни времени, ни желания долго «обнюхиваться» при знакомстве, делать реверансы и т.п. И собеседнику моему, я полагаю, тоже время дорого. Так зачем же нам фигнёй заниматься, приплясывать друг перед другом — в тыщу раз эффективнее сразу поверить, что перед тобой нормальный, хороший человек, что с ним можно обмениваться эмоциональными, то бишь максимально информативными сообщениями. Господа, ну ведь это же так просто!

      fivehouse
      В критической части статьи автор достаточно хорош. А в конструктивной очень слаб и беспомощен. А местами просто, простите, заносчив и беспредметен.
      См. выше — буквально только что отвечал на аналогичные домыслы.
      Но помимо алгоритма (совершенно вам не понятного) есть ещё и нетривиальный набор вшитых правил.
      Во-первых, говорите за себя. :) Во-вторых, «вшитые правила» ТОЖЕ алгоритмы! И теоретически, и практически. :)
      Нет. Все дело в форме представления и в способности интерпретировать данные имеющимся автоматом/программой.
      Именно! Информация есть результат ИНТЕРПРЕТАЦИИ данных приёмником! А база знаний — это такая база данных — Вы фактически подтвердили мой тезис! :) Ну и до кучи: ОДНИ И ТЕ ЖЕ данные ОДИН И ТОТ ЖЕ автомат может в разных случаях интерпретировать либо как данные, либо как метаданные. Так что термины БД и БЗ — синонимы!
      Конечно же нет. Надо ощущать возможность роста в каком-то месте. И ощущать направление поисков вариантов. Просто пустой перебор даст триллионы вариантов среди которых найти результат будет не возможно.
      :lol: А как же! Случайный поиск, например, весьма эффективен для решения задачи коммивояжёра (правда, на небольших графах, примерно до 10 000 узлов). При этом 10000! — это отнюдь не «триллионы вариантов»! :)
      Нет. Сам по себе поиск аналогий вещь не тривиальная.
      А чего сложного-то? Лично я не вижу никаких сложностей. :)


  1. Sly_tom_cat
    29.04.2019 11:32

    Собственно, говорить тут просто не о чем: разве кому-то не ясно, что если ИИ хоть немного станет вылезать из пелёнок (и даже раньше — уже сейчас!), на него тут же наложат лапу военные и всякая там «госбезопасность»? И они будут учить ИИ именно эффективно убивать, не заморачиваясь всякой ерундой на тему «псевдоэтики».


    Так уже это вовсю.
    Те самые стаи противокорабельных ракет, зенитные системы ближнего радиуса действия (там скорости реакции нужны такие что человек уже не успевает — только ИИ) и еще много всего…

    В ЮАР уже даже жертвы были от ИИ (причем жертвы среди самих военных). А всего-то сняли ограничение на опускание ствола автоматизированной зенитной системы — расстреляла всех (почти) кого смогла обнаружить в радиусе поражения. И почитайте в каком это было году…


    1. rybvv Автор
      29.04.2019 11:42

      Да какой там, к чёрту, «ИИ»! Я 20 лет поработал в авиаприборостроении — меня даже в соавторы бортовой операционки включили — нет там никакого ИИ, даже близко! А если «расстреляла всех (почти) кого смогла обнаружить в радиусе поражения», то это не ИИ, а всего лишь криворукие разработчики. :)


      1. Sly_tom_cat
        29.04.2019 11:54

        И даже не разработчики. Разработчики поставили механический барьер, который просто не позволял физически опустить ствол ниже определенного угла. Т.е. (условно) пушка зенитная и потому должна стрелять вверх. Но обезьяне дали гранату вояки просто демонтировали этот ограничитель и покопались в прошивке. Результат: 9 200-х и 15 300-х.

        Насчет того есть там ИИ или нет — тут вопрос в том что понимать под ИИ…


        1. rybvv Автор
          29.04.2019 12:03

          Во времена WWII и советские войска, и германские, успешно расстреливали вражеские танки именно из зениток. ;)


          1. Sly_tom_cat
            29.04.2019 12:27
            +1

            Разница в том что у того Эрликона (который расстрелял ЮАР-овских солдат) не было оператора (того кто наводит и открывает огонь) там эти задачи решались автоматом. И разработчики понимали что этот автомат на низких углах будет стрелять «не туда куда надо». Потому у этой пушки стоял ограничитель который (условно) «по танкам» стрелять не давал. Но военные не потерпели таких ограничений… видимо тоже хотели по такнкам… а пушка начала по солдатам. УПС!


            1. rybvv Автор
              29.04.2019 12:32
              +1

              Я и говорю: криворукие разработчики. :) Есть такое понятие «защита от дурака» — она фактически обязательна хоть в сколько-нибудь ответственных программах.


              1. Sly_tom_cat
                29.04.2019 13:23
                +1

                Не разработчики не криворукие, криворукие — вояки.
                Разработчики от дурака защиту предусмотрели, но от военных она не помогла.:)


                1. rybvv Автор
                  29.04.2019 13:31

                  Вояки как раз всё правильно сделали — нашли новое применение (даже не новое, а «хорошо забытое старое»). Им этим оружием воевать! И если вдруг попадут под наземную атаку — это не значит, что зенитка (очень приличная огневая мощь!) должна стоять рядом куском металлолома. А защита от дурака в том и состоит, чтобы отладить ситуации «а что будет если».


  1. struvv
    29.04.2019 11:39

    Покажите мне ИИ, которые сможет ответить на следующее:


    «В процессе приготовления блинов Катя взяла с полки соль и передала её Лене, которая её сразу выбросила, сказав при этом, что соль испортилась.


    Катя вспомнила, что у неё дома тоже есть соль в холодильнике и нужно проверить её срок годности.


    Вопрос 1: где сейчас Ленина соль?
    »


    1. rybvv Автор
      29.04.2019 11:48

      ИИ сразу скажет, что Лена дура, и что соль не портится. И Катя тоже дура. :)


      1. red75prim
        29.04.2019 12:48
        +1

        Возможно, если ИИ не распознаёт формат задания «задачка для детей с элементами абсурда», и некритично использует обычный здравый смысл.


        1. rybvv Автор
          29.04.2019 12:51
          +1

          Он же ИИ — ему виднее, что делать. :)


          1. red75prim
            29.04.2019 14:49

            Кому нужен ИИ, который будет доказывать, что он решил задачу правильно, а что вы там имели в виду — ваши проблемы?


            1. rybvv Автор
              29.04.2019 14:55

              А откуда ему знать, что Вы там «имели в виду»? :) Замените ИИ на человека!


              1. red75prim
                29.04.2019 15:31

                Из обучающих примеров, обратной связи от постановщика задачи, контекста, который, основываясь на предыдущем опыте, делает некоторые интерпретации более вероятными, информации, полученной из ответов на уточняющие вопросы.

                То же, что и для человека. Человек — это же одна из реализаций интеллекта более-менее общего назначения, правда безо всяких настроек и крутилок, которые можно будет добавить к ИИ при его проектировании.


                1. rybvv Автор
                  29.04.2019 15:58

                  Нифига не понял! Впрочем, у меня-то никакого интеллекта и нет… :)


      1. struvv
        29.04.2019 14:20

        Т.к. ИИ не имеет воображения, ему нечем это понять


        1. rybvv Автор
          29.04.2019 14:27

          С чего Вы решили, что у него воображения меньше, чем у Вас? :)


          1. struvv
            29.04.2019 15:43

            По результату — по приведённому мной примеру у ИИ нет никакого результата.


            Я сужу только и только по результату и никак иначе, такой вот мой недостаток.


            1. rybvv Автор
              29.04.2019 15:53

              А что за пример Вы привели, простите? Про испорченную соль? Мой собственный интеллект на подобные вопросы отвечает куда более резко — обычно даже с указанием направления. :)


              1. struvv
                29.04.2019 18:38
                +1

                Это широко известный пример вопросов, которые ИИ в общем случае не решают вообще(почти любые вопросы, где нужно воображать для решения).


                Портится ли соль тут только вишенка не торте, можно смело менять на «банан», результата не будет.


                Если человек заинтересован, то он их решает. Простота что-то представить настолько сильна, что искажает понимание насколько сложен этот процесс


                1. rybvv Автор
                  29.04.2019 19:56
                  +1

                  А что Вы понимаете под «результатом»? И почему «ИИ не решают вообще»? И в чём тут сложность? Не понимаю…


                  1. struvv
                    29.04.2019 21:14
                    +1

                    Правильный ответ на вопрос нейросеть не выдает, человек выдаёт.


                    Почему не решает и в чём сложность — Вам лучше спросить непосредственно у разработчиков нейросетей, они объяснят


                    1. rybvv Автор
                      29.04.2019 21:28
                      +1

                      Это вряд ли! Разработчики нейросетей, как я понимаю, тоже нифига не знают — они только натаскивают сети на каких-то выборках и совершенно не понимают, что при этом происходит. :)


    1. red75prim
      29.04.2019 13:04
      +1

      Вопросы не совсем такого формата, но похоже: rajpurkar.github.io/SQuAD-explorer


      1. struvv
        30.04.2019 09:09
        +1

        Нейросети умеют выдавать результат там, где используется память, но не умеют выдавать правильный результат, если для его получения нужно воображать. Приведённый пример — про память


        1. red75prim
          30.04.2019 12:36

          Воображать — строить ad hoc модель для конкретной задачи? Да, с этим пока плохо. Впрочем, для решения задачи про соль этого скорее всего не надо. Судя по задачам из SQuAD, современные сети смогут обнаружить в обучающих примерах и запомнить связь «выбросить» -> «мусорное ведро» и, возможно, правильно свяжут «Ленина соль» и «выбросить».


          1. struvv
            30.04.2019 18:01

            Что такое «воображать» интуитивно понятно и не нуждается в формализации.


            Хотелось бы увидеть рабочий пример сети, умеющий отвечать на такого рода вопросы, которые я привёл.


            1. red75prim
              30.04.2019 19:18

              Что такое «воображать» интуитивно понятно и не нуждается в формализации.

              Людям с афантазией скорее всего интуитивно понятно что-то другое.


              Хотелось бы увидеть рабочий пример сети

              https://competitions.codalab.org/competitions/15333#learn_the_details-overview Подойдёт такое в качестве задачи на воображение? А лучше, всё-таки, определите, что такое задача на воображение, а то я не уверен, что искать.


              Karen was assigned a roommate her first year of college. Her roommate asked her to go to a nearby city for a concert. Karen agreed happily. The show was absolutely exhilarating. -> Karen became good friends with her roommate.


              Это задача на воображение?


              В https://arxiv.org/pdf/1810.13441v1.pdf предложена сеть, дающая результат 88% процентов правильных ответов для таких вопросов. В статье датасет назван ROCStories.


              В этой статье (https://www.aclweb.org/anthology/K18-1011 раздел 6), анализируются условия в которых предложенная ими сеть даёт неправильные ответы: требуется делать логические выводы из текста, требуется отбросить маловероятные ответы, требуется определить какому объекту соответствует местоимение. Интуитивно понятное воображение в список не попало.


              1. struvv
                30.04.2019 19:42

                Воображение это симуляция чего угодно, в том числе и реального мира, а также симуляция других воображений(других людей)


                Посмотрю на компьютере как воспользоваться этой нейросетью, чтобы проверить гипотезу о том, что она работает в случаях, которые я описал


  1. Dan_Solo
    29.04.2019 13:14
    +1

    Земляне не смогут создать полноценный ИИ, пока этого не позволят технологии. Пока процессоры землян работают в двоичной системе координат — 0-1 — никаокго реального ИИ создать не получится. Только после перехода технологий процессоров на третичную систему -1-0-1+ — возможно станет создать реальный ИИ, который сможет творить на равне с человеком.
    Человек в отличие в обычного компьютера глядя на кусок камня увидит прекрасную скульптуру, скрытую в этом камне. компьютер же увидит только кусок камня.


    1. rybvv Автор
      29.04.2019 13:17
      +1

      Третичная система тривиальнейшим образом моделируется на двоичной. :) И зрение у компьютера ничуть не хуже. Вот Вы, лично Вы много «прекрасных скульптур, скрытых в камне» видели?


  1. akura13
    29.04.2019 13:48

    ИИ уже давно создан. Только не нами. Вселенная и есть такой интеллект. Говорят создал даже нас


    1. rybvv Автор
      29.04.2019 13:56

      Врут! Самым наглым образом! :)


      1. akura13
        29.04.2019 14:17

        А мне кажется что сама идея непознаваемости окружающего мира (ввиду чрезвычайной сложности) — и есть доказательство. Разве нет?


        1. rybvv Автор
          29.04.2019 14:22

          Почему «непознаваемости»? Мир вполне познаваем! В силу возможностей познающего его приёмника. :)


  1. akura13
    29.04.2019 14:25

    Мир вполне познаваем!

    … до планковских расстояний же как до пустыни пешком? Или вы верите что когда-нибудь мы сможем преодолеть и этот порог?


    1. rybvv Автор
      29.04.2019 14:34

      Да Бог с ним, с Планком! Я вообще не верю в квантовую механику. Да и сам Планк, говорят, окончательно уверовал в своё детище лишь после всеобщего признания его идей. :)


  1. GarryC
    29.04.2019 18:59

    О чем этот пост? Да ни о чем!


  1. sshmakov
    29.04.2019 22:50
    +1

    Бакалавр черной магии Магнус Фёдорович Редькин, помимо его научных трудов, был известен своей гигантской коллекцией определений счастья. Возможно, со временем автор соберёт не менее достойную коллекцию определений искусственного интеллекта.


    1. rybvv Автор
      29.04.2019 23:16

      Автору больше заняться нечем, кроме как собирать всякую херню на то, чего нет. :)


      1. sshmakov
        30.04.2019 09:02
        +1

        Предположим, я разработчик, и вы мне пишете ТЗ на искусственный интеллект. В документе есть разделы "требования к системе", "описание системы To Be", "критерии приемки". Предлагаю накидать туда тезисов.


        1. rybvv Автор
          30.04.2019 09:12
          +1

          Ну, во-первых, я вообще не считаю, что интеллект существует. :) А требование простые: уметь работать с текстом. Выявлять и исправлять ошибки в текстовых данных, структурировать их, определять связи между элементами, извлекать информацию из данных и уметь рассказать о том, что обнаружено. Требования к системе — обычный персональный компьютер. На логическом уровне — клиент собственной базы данных.

          А счастье есть. Правда, очень быстро проходит. :)


          1. sshmakov
            30.04.2019 09:17
            +1

            Ок. Как мы сможем проверить, что полученная система выполняет эти требования?

            Требования к системе — обычный персональный компьютер. На логическом уровне — клиент собственной базы данных.

            Это называется не требования, а «ограничения реализации». Это можно потом рассмотреть.


            1. rybvv Автор
              30.04.2019 09:23
              +1

              Это не «ограничения реализации» — я считаю, что обычного нынешнего процессора (даже не многоядерного) вполне достаточно для ИИ. А как проверить… вот у меня пара заметок про OSM, где я и предлагаю проверить ПО-НАСТОЯЩЕМУ! :)


              1. sshmakov
                30.04.2019 09:56

                Вопрос закрыт


              1. Bhudh
                30.04.2019 17:14

                А что именно по-настоящему можно проверить в OSM?
                Там основная (по значению) масса данных не текстовая, а цифровая. Координаты и их списки. И типы объектов, которые для простоты можно просто пронумеровать и построить из них иерархические графы.
                Поэтому выявить и исправить ошибки в текстовых данных, структурировать их, определить связи между элементами и извлечь информацию из этих данных не очень-то получится.


                1. rybvv Автор
                  30.04.2019 18:12

                  А что именно по-настоящему можно проверить в OSM?
                  Да всё! Найти и исправить ошибки (их там десятки миллионов, если не сотни), извлечь оттуда всю информацию, которая там вообще есть, выявить оптимальную структуру и привести БД к этому состоянию. И какая разница, текстовые там данные или числовые? Всё, что там есть, МОЖНО представить в виде текста. Собственно, формат OSM и есть текстовый. Ну, какая-то разновидность XML — какая разница?

                  И какие ещё «иерархические графы»? МНОГОМЕРНЫЙ граф, ЦИКЛИЧЕСКИЙ! И почему «не очень-то получится»? Чай, задачка для ИИ! И не какой-то дурацкий тест Тьюринга, а вполне нормальная задача!


                  1. Bhudh
                    30.04.2019 18:52

                    Если «какая разница, текстовые там данные или числовые», почему Ваше требование: «уметь работать с текстом»?


                    1. rybvv Автор
                      30.04.2019 18:56

                      Потому, что я с числами работаю почти всегда именно как с текстом. А ещё потому, что текстом записываются данные на «человеческом» языке, то есть тысячелетиями накопленные знания! Так что ИИ должен уметь работать именно с текстом! А всякое там зрение, обоняние, эмоции или самосознание — дело стопятидесятое!


      1. sshmakov
        30.04.2019 09:06
        +1

        А разве счастье есть?


    1. GarryC
      30.04.2019 09:16
      +1

      Это мое личное мнение, но в данном конкретном случае лучше подходит другой персонаж упомянутых авторов

      Действуя строго по этому плану, старательно измеряя свои достижения в процентах выполнения и никогда не забывая о режиме экономии, увеличении оборачиваемости оборотных средств, а также о связи с жизнью, Выбегалло заложил три экспериментальные модели: модель Человека, неудовлетворенного полностью, модель Человека, неудовлетворенного желудочно, и модель Человека, полностью удовлетворенного


      1. rybvv Автор
        30.04.2019 09:31
        +1

        Шли бы Вы, сударь, отсюда подобру-поздорову. До сих пор релаксируете по поводу щелчка по носу из-за Вашей безграмотности в алгоритмах сортировки? ;)