Часто это просто модное название компьютерной программы


image

В научной фантастике возможность угрозы со стороны искусственного интеллекта (ИИ) связана с взаимоотношениями людей и разумных машин. Будь то Терминаторы, Сайлоны или такие вспомогательные машины, как компьютер из «Звёздного пути» или дроиды из «Звёздных войн», машины заслуженно называют искусственным интеллектом, когда те становятся разумными – или, по меньшей мере, осознают себя достаточно, чтобы действовать мастерски, неожиданно и по собственному желанию.

Что же можно сказать о текущем взрыве «якобы ИИ» в СМИ, индустрии и технологиях? В некоторых случаях назвать нечто «ИИ» в принципе возможно, хотя и с натяжкой. Робомобили не сравнить с R2D2 (или Hal 9000), но у них есть набор датчиков, данных и вычислительные возможности для выполнения сложной задачи вождения автомобиля. В большинстве случаев системы, заявленные, как ИИ, не осознают себя, не разумны, не обладают волей и не могут удивлять. Это просто программы.

Примеры неправомерного использования термина «ИИ» можно встретить где угодно. Google спонсирует систему, определяющую неподобающие комментарии – алгоритм с машинный обучением Perspective. Но оказывается, что его можно обмануть простыми опечатками. ИИ должен укрепить границу США, но на поверку он оказывается всего лишь сетью из датчиков и автоматами с сомнительными возможностями по составлению профиля человека. Точно так же "ИИ для большого тенниса" оказывается всего лишь улучшенным датчиком, использующим коммерчески доступное компьютерное зрение. Facebook рассказывает о разработке ИИ, способного определять суицидальные настроения по размещённым записям, но если присмотреться, это оказывается не более, чем фильтр с отслеживанием слов и последовательностей, отмечающий посты для их последующего рассмотрения людьми.

Чудеса ИИ превозносятся не только в техническом секторе. Coca-Cola собирается использовать «ИИ-боты» для «быстрого собирания рекламных материалов на коленке» – что бы сие ни значило. Схожие попытки заставить ИИ создавать музыку или писать новости на первый взгляд выглядели многообещающе – но ИИ-боты, пытавшиеся исправлять в Википедии опечатки и ссылки, застревали в бесконечных циклах. Согласно консультационной фирме Botanalytics, занимающейся вопросами взаимодействия людей и ботов (нет, правда!), 40% собеседников прекращают попытки общения с ботами после первого раза. Может, это потому, что боты – всего лишь обычные системы типа "нажмите Х, чтобы узнать Y" в модной упаковке, или же хитро автоматизированная игра Mad Libs [настольная игра с пропущенными в тексте словами, куда нужно вставить случайные слова и затем прочесть её вслух, угорая от абсурдности – прим. перев.].

ИИ – это когда компьютеры действуют, как в кино


ИИ стал модной темой для корпоративных стратегий. Экономист из Bloomberg Intelligence, Майкл Макдона [Michael McDonough] отслеживает упоминания «ИИ» в транскрипциях публичных обсуждениях финансовых результатов работы компаний [earnings calls], и отмечает большой всплеск количества упоминаний в последние пару лет. Компании похваляются неназываемыми покупками в сфере ИИ. Отчёт Global Human Capital Trends от Deloitte Touche Tohmatsu Limited [международной сети компаний, оказывающих услуги в области консалтинга и аудита – прим. перев.] 2017 года утверждает, что ИИ уже произвёл «революцию» в жизни и образе мышления людей – но без указаний конкретики. Тем не менее, в заключении отчёта указано, что ИИ заставляет лидеров корпораций «заново обдумывать некоторые из основных своих структур».

В СМИ и в общении простейшие возможности иногда раздуваются до чудес ИИ. В прошлом месяце Twitter объявил об обновлении, помогающем защищать пользователей от низкопробных и оскорбительных твитов. Всё обновление сводится к простому обновлению системы, скрывающей записи от заблокированных, заглушенных или новых учётных записей, а также к добавлению неких не упоминаемых фильтров содержимого. И всё равно, такие изменения, заключающиеся в чём-то не сильно более сложном, чем дополнительные условия в запросах к базам данных, описываются, как «постоянная работа компании над тем, чтобы сделать ИИ умнее».

Я попросил моего коллегу из Georgia Tech, Чарльза Избела, исследователя ИИ, высказаться по поводу значения термина «ИИ». Он сразу же ответил: «Это когда компьютеры действуют, как в кино». Звучит несерьёзно, но подчёркивает присущую ИИ связь с теориями когнитивизма и разума. Лейтенант-командер Дейта порождает вопросы по поводу того, какие свойства и возможности делают существо разумным и обладающим моралью – как и робомобили. Фильтр содержимого, прячущий записи в сосцсетях, сделанные с учётных записей без аватарок? Это не то. Это просто ПО.

Избел считает, что систему можно назвать ИИ, если у неё есть по меньшей мере две особенности. Во-первых, она должна обучаться в ответ на изменения окружения. Вымышленные роботы и киборги делают это незаметно, благодаря волшебству абстракции рассказа. Но даже простейшая система с машинным обучением, типа динамического оптимизатора от Netflix, старающегося улучшить качество сжатого видео, принимает данные от зрителей-людей и использует их для тренировки алгоритма, который затем делает выбор, связанный со следующими передачами видео.

Второй признак настоящего ИИ: то, чему он обучается, должно быть достаточно интересным, чтобы этому было сложно научиться людям. Это разделяет ИИ и простую компьютерную автоматизацию. Робот, заменяющий людей-рабочих на сборке автомобилей – это не ИИ, а просто машина, запрограммированная на автоматическое повторение работы. Для Избела, машина или компьютер с настоящим ИИ демонстрировали бы самоуправление, вели бы себя неожиданно и нестандартно.

ИИ может напомнить творцам и пользователям, что сегодняшние компьютерные системы не представляют собой что-то особенное


Нытьё по поводу несбывшихся достижений ИИ, возможно, покажется вам неважным. Если сегмент машин, оснащённых датчиками и подкреплённых данными, будет расти, возможно, людям будет полезно отслеживать эволюцию этих технологий. Но опыт подсказывает, что к вычислительным достижениям нужно относиться с подозрением. Я уже говорил, что слово «алгоритм» превратилось в культурный фетиш, в мирской, технический эквивалент божественного. Неразборчивое использование термина представляет обычное, не лишённое недостатков, ПО в виде ложного идола. С ИИ та же история. Как пишет автор ботов Алисон Пэриш, «когда кто-то говорит об ИИ, он имеет в виду компьютерную программу, написанную кем-либо».

В блоге MIT Technology Review специалист по информатике из Стэнфорда Джерри Каплан пишет нечто похожее: «ИИ – это сказочка, сделанная на скорую руку из несовместимых инструментов и технологий». Специалисты по ИИ, судя по всему, соглашаются с ним, называя эту область «фрагментированной и по большей части неуправляемой». В связи с нелогичностью использования термина ИИ, Каплан предлагает заменить его на «антропные вычисления» – это программы, которые должны вести себя, как люди, или взаимодействовать с ними. С его точки зрения, мифическая сущность ИИ, включающая наследие, пришедшее из повестей, кино и телевидения, делает этот термин страшилкой, от которой хочется избавиться, а не будущим, на которое хочется надеяться.

Каплану вторят не последние люди. Когда математик Алан Тьюринг случайно придумал идею машинного интеллекта почти 70 лет назад, он предположил, что машины станут умными, когда они смогут притвориться людьми и обмануть таким образом реальных людей. В 1950-х эта идея не казалось реальной. И хотя мысленный тест Тьюринга не ограничивался компьютерами, тогда машины, способные проводить относительно простые вычисления, всё ещё занимали целые комнаты.

Сегодня же машины постоянно обманывают людей. Не обязательно притворяясь людьми, но убеждая последних, что они представляют собой достаточно хорошие альтернативы другим инструментам. Twitter, Facebook и Google – это не улучшенный версии городских ратуш, центров сбора соседей, библиотек или газет – это другие виды этих предприятий, управляемые компьютерами, со своими достоинствами и недостатками. Последствия этих и других сервисов необходимо оценивать с точки зрения того, что они – всего лишь определённые реализации ПО в рамках корпораций, а не тотемы потустороннего ИИ.

В этом смысле Каплан может оказаться прав: отказ от термина может стать наилучшим способом изгнания его дьявольского влияния на современную культуру. Но более традиционный подход Избела – то, что ИИ – это машины, обучающиеся, и действующие сообразно изученному – тоже имеет свои преимущества. Защищая свой возвышенный статус в традиции научной фантастики, ИИ может напомнить создателям и пользователям простую правду: сегодняшние компьютерные системы не представляют собой что-то особенное. Это всего лишь инструменты, изготовленные людьми, выполняющие программы, изготовленные людьми, обладающие свойствами и недостатками и того, и другого.
Поделиться с друзьями
-->

Комментарии (98)


  1. saboteur_kiev
    03.04.2017 01:05
    +6

    Эта спекуляция на ИИ действительно давно надоедает.

    Давно надо было уже собраться и опубликовать стандарт уровней ИИ, от простого автокликера до сложного ИИ, способного к абстрактному мышлению.
    После чего было бы проще «IBM разработала обновление к Ватсон, которое переведет его в категорию ИИ-12».


    1. SLY_G
      03.04.2017 01:15

      Потому что маркетологи всегда говорят правду.


    1. ideological
      03.04.2017 01:39

      Давно надо было уже собраться и опубликовать стандарт уровней ИИ, от простого автокликера до сложного ИИ, способного к абстрактному мышлению.

      И как это решит проблему? Позволит компаниям выпускать больше инфоповодов с ИИ теперь ещё и разных уровней?)
      Типичный заголовок «Headhunter запустил систему рекомендаций вакансий на основе искусственного интеллекта».


    1. Nuwen
      03.04.2017 03:43
      -1

      Давно надо было уже собраться и опубликовать стандарт уровней ИИ, от простого автокликера до сложного ИИ

      Это уже давным-давно сделано, просто автор очерка об этом не знает.


      1. alexkunin
        03.04.2017 03:52

        А можете поделиться своими знаниями? Поиск ничего особенного не дал, кроме слабого и сильного ИИ.


        1. Nuwen
          03.04.2017 04:03

          А этого недостаточно? Автор, очевидно, говорит о системах слабого ИИ. В то время, как ИИ у него прочно ассоциируется со скайнетом и сайлонами, благодаря тому, что искусственный интеллект он изучал не по существующим разработкам, а по НФ фильмам и сериалам.


          1. alexkunin
            03.04.2017 04:16
            +2

            Этого недостаточно. Сильный ИИ еще не существует, а все остальное — слабый ИИ. Т.е. маркетологи имеют полное право автопоилку для канареек с сетью на 3 нейрона называть ИИ и ставить ее на один уровень с IBM Watson, т.к. градаций и промежуточных терминов нет.


            1. Nuwen
              03.04.2017 04:33

              Сильный ИИ еще не существует

              Ну а что же поделать? А маркетологи в чём то правы, ведь по сравнению с несуществующими пока сильными системами, разница между суперкомпьютером и автопоилкой действительно невелика. А ведь ещё есть уровень сверхсильных ИИ. Есть некоторое непонимание термина ИИ, в голове изучавших вопрос по НФ, обязательно возникают какие-то сверхсложные вычислительные машины, эдакие мультиваки из книг Азимова. В реальности же ИИ означает не сверхмощности, а тип решения задач.
              К примеру взять ядерные реакторы: то, над чем сейчас работают на переднем крае науки, тратя миллиарды, и то, что собирает школьник из хлама в сарае — называется реактором, как ни крути.


              1. alexkunin
                03.04.2017 05:02

                то, над чем сейчас работают на переднем крае науки, тратя миллиарды, и то, что собирает школьник из хлама в сарае — называется реактором, как ни крути.
                О том и речь: заголовки типа «Школьник собрал в сарае реактор» для несведущей аудитории могут означать, что ученые — это все туфтологи, которые никому не нужны, т.к. вон школьники могут сделать такое же, а может и лучше. А вот если в заголовке хотя бы мощность приписать, да еще и тип реактора, то может и прояснится что-то.

                И также прояснило бы многие моменты наличие классификации ИИ, некая мера мощности или сложности (сама же задача, поставленная перед слабым ИИ, ясна из контекста). К примеру, если вы где-то увидите упоминания о легковых автомобилях с двигателями мощностью, скажем, 80 и 350 л.с., то у вас сразу сложатся конкретные представления о назначении, областях применения, целевой аудитории и т.д.

                И вот вы меня обнадежили, мол, есть такая классификация. А ее нет, один только пункт в ней: слабый ИИ.


                1. Nuwen
                  03.04.2017 05:14

                  заголовки типа «Школьник собрал в сарае реактор» для несведущей аудитории могут означать

                  Это проблемы несведущей аудитории, и ещё учёных, чьё финансирование зависит от настроений в несведущей аудитории. И ещё популяризаторов науки, которые не справляются с объяснением реалий для тех, кто не хочет читать про разработки а хочет смотреть сериалы и фильмы про супергероев.
                  На заре авиастроения несведущая аудитория — читая о том, как школьник собрал в сарае самолёт — не ожидала ведь, что он там небесный город Лапуту построил, из фантастических книг про Гулливера.
                  Как можно классифицировать то, что ещё только начало изучаться и разрабатываться? Пока ещё вообще мало известно про интеллект, самосознание и прочие полуфилософские понятия, как и зачем это можно классифицировать? Как с классификацией цивилизаций по Кардашеву? Гордо называть себя цивилизацией 0.7 типа? По мне, так в этом ещё больше желтизны.

                  один только пункт в ней

                  Зато полностью соответствует действительности.


                  1. alexkunin
                    03.04.2017 05:26

                    Это проблемы несведущей аудитории
                    Ну так а сведующая аудитория тоже все подряд называет ИИ, или таки есть классификация? Первым шагам в области слабого ИИ уже больше 70 лет, а как академической дисциплине этой теме 60 лет. И эти десятилетия как бы не в Древнем Египте прошли, а длятся в эры под названиями «цифровая революция» и «информационная эра», т.е. год развития современности за сто лет античности.

                    Зато полностью соответствует действительности.
                    Такое же полностью беполезное соответствие, как в известных анекдотах про математиков, дающих совершенно точные, но абсолютно бесполезные ответы на животрепещущие прикладные вопросы.


                    1. Nuwen
                      03.04.2017 05:41

                      Ну так а сведующая аудитория тоже все подряд называет ИИ, или таки есть классификация?

                      Просто для сведущей аудитории, заголовок «Гугл добавит ИИ в новую версию андроида» не означает, что в новый телефон волшебным образом станет решать те же задачи, что и суперкомпьютеры. Или что он осознает себя в кармане.
                      Первым шагам в области слабого ИИ уже больше 70 лет

                      Это говорит о том, что проблема чрезвычайно сложна, а не о том, что учёные пинают балду и не хотят поскорее в каждый дом по интеллекту, равному человеческому доставить.


                      1. alexkunin
                        03.04.2017 05:53

                        что в новый телефон волшебным образом станет решать те же задачи, что и суперкомпьютеры
                        Почему нет?? Мне кажется, как раз именно такое и возможно: гугл выдаст телефонам на андроиде часть машинного времени своего какого-нибудь супер-мега-компьютера, позволяя пользовтелю воспользоваться благами мощнейшего оборудования и ПО через свой мобильный терминал.

                        Можно спорить с тем, что в самом андроиде всего лишь апи используется. Но когда таблоиды пишут «Эппл добавила в айОС говорящего помощника Сири», то как бы именно это и имеется в виду: мощности там, доступ здесь, для обывателя Сири живет в его айфоне, и нужно еще суметь пояснить ему, почему без интернета она так сильно тупеет, и почему он должен согласиться передавать личные данные (текст своих запросов в виде аудиозаписи) компании Эппл.

                        Я бы назвал это чем-то вроде «облачного ИИ», или может «централизованный ИИ», мощность которого ограничена мощностью дата-центров гугла или эппла. А обратный случай — «обособленный ИИ» (неудачно как-то, но как есть), мощность которого не превышает той, что по текущим технологиям «влезает» в прибор, о котором идет речь.


          1. saboteur_kiev
            03.04.2017 11:50

            Нет, этого недостаточно.

            Пожалуйста приведите ссылку на классификацию ИИ, которая была бы принята хотя бы несколькими странами, ведущими разработки ИИ.

            Слова «слабый и сильный» ИИ не значат практически ничего вообще. Откуда я знаю, что вы подразумеваете под этими словами, может быть это одинаковые по разумности, один запущен на домашнем целероне, а другой на кластере из ксеонов. Или у одного память 1 гб, а у другого 100 терабайт. Или все-таки дело в алгоритмах?


            1. Nuwen
              03.04.2017 12:07

              В контексте данной статьи речь идёт именно о сильном и слабом ИИ. Автор пишет что сейчас ИИ называют всякую, по его мнению, ерунду, в то время как он привык слышать шаблон «искусственный интеллект» по отношению к компьютерам, стоящим на уровне развития сравнимым с человеческим.

              Откуда я знаю, что вы подразумеваете под этими словами

              То же, что и авторы википедии. Слабый ИИ это самообучающаяся система. Сильный ИИ это искусственный разум — компьютерный алгоритм по возможностям не уступающий человеческому разуму. Т.е. подобный компьютер можно поставить хоть водителем авто, хоть пилотом самолёта, хоть президентом страны. Эти два понятия различаются как «компьютер» и «калькулятор». Никто же не вводит шкалу «компьютерности» программируемых калькуляторов, например.


              1. saboteur_kiev
                04.04.2017 01:21

                " Сильный ИИ это искусственный разум — компьютерный алгоритм по возможностям не уступающий человеческому разуму. Т.е. подобный компьютер можно поставить хоть водителем авто, хоть пилотом самолёта, хоть президентом страны."

                А что такое компьютер, который можно поставить пилотом самолета (я вас удивлю, но такие были даже 50 лет назад), пилотом авто (я вас удивлю, но сейчас таких много), но вот президентом страны еще не ставили? Это сильный ИИ?

                Другими словами, все что вы написали — никак не помогает классифицировать — где сильный, а где слабый ИИ, а также что именно это означает.


                1. red75prim
                  04.04.2017 05:15

                  Программно-аппаратный комплекс, который без внесения в него изменений может выполнять любую работу выполняемую человеком.


                  я вас удивлю, но такие были даже 50 лет назад

                  Вы серьёзно, что-ли?


                  Тогда вытащите автопилот из самолёта, подключите его к автомобилю, и попытайтесь куда-нибудь доехать, не используя руль. Или притащите его на встречу с избирателями, и подождите пока он изложит свою программу.


                  1. saboteur_kiev
                    04.04.2017 19:04

                    Странная у вас логика.
                    Да, автопилот, который мог полностью самостоятельно поднять, провести и посадить самолет, был испытан 50 лет назад. Вы описали, что сильный ИИ это тот, который сможет это сделать.

                    Да, его нельзя было взять и поставить в машину, но в принципе только очень немного денег будет стоить взять автопилот самолета и автопилот от Теслы, поместить их в один ящик, и маленькое if/else будет и самолеты летать и машины рулить.

                    Уточните, что такое президент — изложить свою программу сможет любой бредогенератор. Еще и не каждый поймет что это такое.

                    Я вам пытаюсь сказать, что ваши критерии — никуда не годны для вменяемого определения уровня ИИ.
                    И вообще, достаточно сложно создать набор тестов таким образом, чтобы по нему мерять уровень ИИ, поскольку можно просто написать программу, которая рассчитана проходить именно эти тесты.


                    1. red75prim
                      05.04.2017 00:47

                      Ваши рассуждения имели бы смысл, если бы для создания сильного ИИ нам был бы нужен компьютер вручную запрограммированный, чтобы отличить сильный ИИ от слабого. Да, для программирования такого компьютера понадобилось бы строгое формально определение сильного ИИ.


                      Но нафига нам такой компьютер нужен? Нам нужен сильный ИИ, а не классификатор типов интеллектов. Различить бредогенератор и потенциального президента сможет большинство людей без всяких компьютеров. Чтобы проверить, что ИИ может выполнять любые задачи, доступные человеку, достаточно проверить это экспериментально, давая задачи, набор которых не был известен конструкторам ИИ.


                      Утверждать, что сильный ИИ — это не ИИ, потому что он формально не верифицирован на соответствие строгому формальному определению сильного ИИ, это примерно как утверждать, что люди не могут ходить, потому что нет строгих формальных определений понятий "нога", "ходить" и т.д.


                      1. saboteur_kiev
                        05.04.2017 01:32

                        Вы сами себе противоречите.

                        Грудной ребенок тоже неспособен толкнуть речь президента, водить самолет и автомобиль. Да даже многие взрослые на это не способны, при этом все они обладают интеллектом.

                        Классификация нужна. Чтобы убрать спекуляции термином, потому что сейчас ИИ называют все подряд. И с какой стати нам нужен сильный ИИ? Нам нужен помощник, на которого можно сгрузить работу.
                        Нам не нужен ИИ, который решит что он в нас не нуждается, и возможно применит меры чтобы мы ему не мешали.
                        Нам не нужен ИИ, который будет умнее нас, и при этом будет брать за это деньги как за личность, а не только за электроэнергию. Иначе он будет богаче нас и намного. И в конечном счете придет к мнению выше.

                        И да, различить бредогенератор и потенциального президента не может подавляющее количество населения на планете.


                        1. red75prim
                          05.04.2017 02:38

                          Грудной ребенок не обладает интеллектом в том смысле, который мы обсуждаем. Некоторые взрослые тоже. Это не мешает экспериментально определить наличие интеллекта в обсуждаемом смысле.


                      1. fireSparrow
                        05.04.2017 11:41

                        Различить бредогенератор и потенциального президента сможет большинство людей без всяких компьютеров.

                        Вот тут вы ошибаетесь…


    1. salkat
      03.04.2017 10:29

      Ну так Hype Cycle (https://habrahabr.ru/post/198506/) же.


  1. ideological
    03.04.2017 01:18

    Отличная статья, спасибо за перевод ;)

    Все именно так. Громкими словами вроде «ИИ» — сейчас модно пиариться и привлекать инвестиции.


  1. NaHCO3
    03.04.2017 03:21
    -1

    > Это просто программы.

    Не верно. Современные системы с обучением отличаются заметно от классических «просто программ». Суть в том, что даже их программисты не знают, как работают эти системы и какие будут давать ответы на конкретные вопросы.

    Обычная программа — это белый ящик для программиста, он может посчитать результат алгоритма на бумажке. Так и делают, когда занимаются тестированием, кстати.

    Обучаемая система — это чёрный ящик. Непредсказуемый и непонятный. Программист может вполне отвечать за поведение белого ящика, но кто будет отвечать за поведение чёрного? Особенно если этот чёрный ящик кого-нибудь задавит.


    1. kroketmonster
      03.04.2017 11:06
      +1

      Я например не знаю что мне выдаст оператор rand(int). Я изобрел ИИ?


      1. DrSavinkov
        03.04.2017 11:14
        -1

        Вообще говоря, знаете. Потому что чтение исходников никто не отменял. Иначе любой софт можно назвать ИИ — ведь офисный пользователь тоже не знает, что там внутри творится.


      1. NaHCO3
        03.04.2017 14:03

        Вы изобрели чтение из файла. Что в файле написано — то и будет выдаваться. Очевидно, знание о работе программы — это не магическое знание выходных данных, которое оно даёт, а знание зависимости между входными и выходными данными.


    1. Lissov
      03.04.2017 14:13
      +1

      Так и делают, когда занимаются тестированием, кстати.

      Посчитайте мне на бумажке, пожалуйста, сортировку массива из 1 миллиона элементов на бумажке. Очень сомниваюсь, что при тестировании этого алгоритма Вы будете делать именно так.
      «Обучаемая система» обычно просто сложнее необучаемой — хотя простые обучаемые алгоритмы вполне на бумажке рассчитать можно. Потому в данном случае черный ящик или белый определяется нашей способностью его осознать, а не принципиальной возможностью этого. В статье как раз и говорится, что у сегодняшних программ нет воли, эмоций и желаний, а есть детерминированный алгоритм, пусть и очень сложный).


      1. red75prim
        03.04.2017 14:58

        Детерминированный алгоритм не исключает возможности существования воли, эмоций, желаний и даже субъективной свободы выбора. Точнее нет общепризнанных доказательств обратного.


      1. NaHCO3
        03.04.2017 17:34

        Я вам посчитаю на бумажке сортировку из двадцати элементов. Потому что больше не надо, чтобы понять как работает алгоритм и работает ли. Если нужны более детальные исследования — можно сделать 3-4 разных реализаций проверить на бумажке, а потом тестировать сравнением друг с другом.

        Более того, такие простые вещи как сортировка массива, можно не только посчитать на бумажке для маленьких размеров, но и доказать на бумажке для произвольных входных данных.

        > детерминированный алгоритм, пусть и очень сложный

        В случае обучаемых систем есть ньюанс. Алгоритм оказывается зашит не в килобайты кода, а в гигабайты данных. И вторая штука человеком не познаваема. А значит он не может предсказать работу алгоритма и отвечать за его результаты.


        1. Lissov
          04.04.2017 10:43

          Я вам посчитаю на бумажке сортировку из двадцати элементов.

          Алгоритм оказывается зашит не в килобайты кода, а в гигабайты данных.

          А я посчитаю вам на бумажке самообучающуюся нейронную сеть из 3х нейронов с байтами данных. Почему для «традиционного алгоритма» Вы считаете достаточным понимать его работу на маленьком объеме данных и смасштабировать на большой, а для нейронной сети нет?
          Проект над которым я работаю содержит мегабайты кода — вполне детерминированного, но также не познаваемого человеком в силу его размеров и сложности. Почему за него я отвечаю, а за нейронную сеть отвечать не должен? Мое мнение — если хочется использовать нейронные сети в критических для жизней областях, то разработчик несет ответственность за корректность их работы. Значит, нужно развивать методы, которые позволят доказать корректность нейронной сети и предсказать результаты его работы.


          1. NaHCO3
            04.04.2017 21:32

            > Почему для «традиционного алгоритма» Вы считаете достаточным понимать его работу на маленьком объеме данных и смасштабировать на большой, а для нейронной сети нет?

            Потому что перехода количества в качество не наблюдается. Плюс, смотрите второй пункт — сортировку можно доказать математически. То бишь, это задача «хорошая» и проверять её легко. А некорректные задачи — сложнее.

            Опять же, как я указал — можно написать 4 разных алгоритма, проверить вручную на малых данных, проверить взаимным соответствием на больших. Проверить две разные нейронные сети на взаимное соответствие не возможно, они по определению выдают разные результаты.

            > Проект над которым я работаю содержит мегабайты кода — вполне детерминированного, но также не познаваемого человеком в силу его размеров и сложности.

            Большие проекты, действительно, не познаваемы в одиночку, но команда может в них разобраться. Особенно если код пишут так, чтобы в нём было удобно разбираться. Что происходит очень часто, а остальные случаи требуют рефакторинга. Как раз потому, что программист(ы) должны понимать, как работает программа, и почему она может не работать.


            1. Lissov
              05.04.2017 13:37

              Сортировка это и правда очень простая и тривиальная задача, которую можно доказать математически. Однако математическое доказательство правильности алгоритма в общем случае — такая же нерешаемая задача, как и для нейронной сети. Но на самом деле мы начали не с математического доказательства, а с предсказуемости и ответственности за результат.

              И вот тут ключевой момент в том, что не имеет значения — это нейронная сеть или любой другой алгоритм (кстати, нейронная сеть это тоже алгоритм). Имеет значение только то, учитываются ли для принятия решений внешние данные. Нейронная сеть, обученная заранее и не обучаемая в процессе эксплуатации, будет предсказуема так же как и алгоритм. Но если в алгоритме стоит рандом или принимаются неопределенные внешние результаты — его работа так же не предсказуема. Теперь вопрос к программисту — зачем он применил рандом или любые другие методы, работу которых он не может гарантировать? Значит должен нести ответственность, либо находить другие средства для решения задачи.


              1. NaHCO3
                06.04.2017 04:59

                > не имеет значения — это нейронная сеть или любой другой алгоритм (кстати, нейронная сеть это тоже алгоритм)

                Формально — тоже алгоритм. Просто иногда, следуя формальностям, можно утерять здравый смысл. Формально всё это алгоритмы. Формально тьюринг полнота едина для всех. Никакой формальной разницы нет. Только практика отличается от формализмов, есть детали, легко усвояемые человеком, и трудно формализуемые.

                Например, формально ассемблерный текст является исходным кодом. На практике, оказывается что от исходного кода ждут чего-то большего. Когда мы говорим «программа с открытым исходным кодом», мы имеем в виду не дизассемблированный бинарник, а доступный код на языках высокого уровня. Причём не обфусцированный, с оставленными комментариями и документацией.

                А попробуйте формально задать отличие от обфусцированного исходного кода от необфусцированного. Не слишком-то у вас получится. А неформально — получается очень даже неплохо. Необходим некоторый уровень «качества» кода, под которым подразумевается способность стороннего человека понять этот код и модифицировать.

                Нейронные сети, даже замороженные в некотором состоянии, невозможно никак понять. Да это код, алгоритм детерминировано задан, но он сверх-обфусцирован, в нём нельзя разобраться. Предугадать его поведение тоже.

                А вот вручную написанный код другой, в нём подразумевается возможность чтения алгоритма в первую очередь человеком и только во вторую очередь машиной. Даже если там есть недетерминированность, её тщательно ограждают и исследуют.

                Например, для алгоритмов вводится понятие производительности в худшем случае и в среднем. Функциональное программирование добавило сложностей, и они отразились в теории, добавив понятие амортизированной сложности.

                Другой пример — это вычислительные алгоритмы. Почти все они дают приближённый ответ. Но при этом для каждого алгоритма считается остаточный член — возможное отклонение от истинного значения. Это стандартный элемент анализа алгоритмов.

                Так во всём — человек стремится подчинить природу своему знанию. В том числе природу написанных им алгоритмов. А с нейронной сетью так не выходит. Нельзя сказать, что человек сдался — проводятся исследования о том, как построить нейронные сети, способные аргументировать свои решения, ищутся способы сворачивать сложные вычисления в понятные термины. Но пока безуспешно. Пока всей нейронные сети — это чёрный ящик.


                1. fireSparrow
                  06.04.2017 14:05

                  Вы слишком категоричны.
                  Уже есть методики, которые позволяют заглянуть внутрь нейросети и увидеть что-то осмысленное. Например, я читал статью о том, что программист определил, какой конкретно нейрон сети активизируется, когда она видит человеческое лицо на фотографии.

                  Хорошо известен проект, когда нейросеть заставили на исходное изображение накладывать свои ассоциации относительно его элементов.
                  Были статьи о том, как нейросети, обученные для классификации изображений, заставляли генерить картинку, которая по её мнению максимально соответствует какому-то классу, и так можно было увидеть, какие признаки она выделила в качестве характерных для данного класса.

                  Я убеждён, что мы мало знаем о том, что происходит в нейросети только потому, что пока прагматическая ценность этого мала. Практикам в этой области мало интересно, как думает нейросеть, пока она выдаёт приемлимые результаты на тех задачах, где их применяют.
                  А те, кому этот вопрос интересен, почему-то более склонны беспредметно дискутировать в интернетах, вместо того, чтобы заниматься практическими исследованиями и разробатывать инструментарий для заглядывания внутрь НС.

                  Но как только возникнут задачи, где реально нужно понимать и контролировать ход мыслей ИИ, начнёт развиваться и инструментарий.


                  1. Lissov
                    07.04.2017 10:39

                    Согласен.
                    Я вообще считаю, что в критических задачах (где на кону стоят жизни) должна быть ответственность. Нельзя возложить ответственность на алгоритм, то есть ответственность должен нести его разработчик или хозяин. Если вдруг мы придём к тому, что нейросеть совершенно абсолютно невозможно контролировать, то остается 2 варианта:
                    — найти методы, которы позволят утверждать, что риск её применения допустим (это звучит цинично, но люди уже гибнут на дорогах, и еслу будут гибнуть мньше — то уже хорошо).
                    — не использовать нейросети вообще.
                    А говорить «оно вроде работает, но отвечать я не могу и не буду» — это не вариант.


  1. Andy_Big
    03.04.2017 04:18
    +3

    В большинстве случаев системы, заявленные, как ИИ, не осознают себя, не разумны, не обладают волей и не могут удивлять. Это просто программы.

    А есть меньшинство случаев, в которых системы это умеют? :)


    1. NaHCO3
      03.04.2017 04:56
      +2

      они ещё умеют намеренно проваливать тест Тьюринга, поэтому мы до сих пор не в курсе их существования.


  1. Mako_357
    03.04.2017 06:33
    +2

    Надо сделать, как в Mass Effect: все, что обрело самосознание или хотя бы может это сделать — это искусственный интеллект (AI), остально — виртуальный ителлект (VI). У них там нет проблем с разделением и терминологией.


    1. Bismuth208
      03.04.2017 09:04

      Именно так и нужно! После прохождения этой трилогии в моем сознании четко поселилось это разграничение. И коробит каждый раз когда говорят об ИИ, когда это самый что ВИ.


    1. fireSparrow
      03.04.2017 10:05

      Я не играл в Mass Effect, поэтому у мня сразу возник вопрос — было ли там дано определение самосознание и критерии, по которым можно определить его наличие?

      А то в дискуссиях об ИИ постоянно всплывают слова «самосознание», «свободная воля», «индивидуальность», «личность» и тп, но при попытке прояснить термины выясняется, что каждый вкладывает в эти слова что-то своё. И в разных интерпретациях смысл может отличаться кардинально.


      1. DrSavinkov
        03.04.2017 11:19

        В трилогии ИИ имел возможность в процессе своего функционирования набирать опыт и действовать от него. ВИ же не способны выйти за рамки изначально предписанных правил и действуют строго по заложенным алгоритмам, не имея возможности их модификации.


    1. alex4321
      03.04.2017 10:27

      Так ЕМНИП — сильный ИИ/слабый ИИ.


    1. red75prim
      03.04.2017 11:22

      Обладает ли самосознанием интеллектуальный агент, имеющий информацию о том, что если возможное состояние мира включает повреждение или отключение вот этой вот коробки с электроникой, то в этом состоянии невозможно выполнить никаких действий?


      Или самосознанием обладают только интеллекты, ведущие себя как люди в состоянии бодрствования?


    1. Alex_ME
      03.04.2017 11:31

      Только увидев статью, подумал как раз об этом.


  1. alexhott
    03.04.2017 08:05

    Первый день нам было интересно с ним как с младенцем, но к концу дня это уже был подросток
    За третий день он вырос до профессора МТИ
    Пятый день принес множество уникальных открытий. в том числе защиту для ИИ от саморазвития
    На вторую неделю общение прекратилось… нет он не перестал с нами разговаривать… просто мы перестали его понимать

    Это очень исковерканная фраза про ИИ из какого-то кино. Но для меня это стало определением ИИ


    1. red75prim
      03.04.2017 11:06

      нет он не перестал с нами разговаривать… просто мы перестали его понимать

      Стал таким умным, что потерял способность объяснить чем занимается. По-моему, противоречие.


      Объяснить свои мыслительные процессы он может быть и не сможет, но уж использовать свой гигантский интеллект, чтобы подготовить хорошо понятный синопсис того, зачем он вставляет деталь А в отверстие Б, не должно представлять для него проблемы.


      1. DrSavinkov
        03.04.2017 11:23

        Может ли быть так, что ИИ начал к тому времени оперировать столь сложными терминами, что на объяснение смысла каждого человеческим языком ушли бы месяцы, а то и годы?


        1. red75prim
          03.04.2017 11:44

          Если этот ИИ занимается чем-то, имеющим отношение к физической реальности, то он будет вынужден выполнять некоторые последовательности действий (эксперименты), для проверки своих предположений.


          Он вполне сможет сказать что-то вроде: "я проверяю такие-то гипотезы, для этого я делаю то-то, если гипотеза А верна, то результат такой-то, ..." и т.п. Гипотезы с высокой колмогоровской сложностью маловероятны, поэтому врядли ему придётся объяснять их месяцами.


          Оперирование очень сложными терминами относится скорее к мыслительным процессам ИИ, о которых я написал, что их он может и не сможет объяснить.


      1. alexhott
        03.04.2017 11:32

        уровень знаний создателей не позволял понять, что он им говорит
        а для него это уже были элементарные вещи и он их объяснял своим языком, считая а че тут непонятного?


    1. Kardy
      03.04.2017 11:27

      Неверное определение же. Какой-нибудь "Ургук Крушитель" с компьютерным мозгом, интеллектом продвинутого неандертальца и его же способностями к обучению имеет полное право называться "сильным AI".
      В отличии от IBM Watson, хотя тот и рак определяет лучше человека, и на викторинах участвует и много чего еще.


  1. sbnur
    03.04.2017 10:34

    Наверное в словосочетании "искусственный интеллект" деалется упор на второе слово.
    Но часто ли встречается в жизни естественный интеллект.
    Поэтому не следует ожидать от программ ИИ уровня Эйнштейна
    Они, как люди, в массе простоваты, туповаты, недалеки и даже ошибаются


  1. Bal
    03.04.2017 10:41
    +1

    Опять каша с англификацией. В советской НТ-терминологии всегда было чёткое разделение на ИИ и ИР. Которое при заимствованиях потерялось к 2000-м годам. Сейчас пришло второе присшествие тех же терминов уже в виде неуклюжих «слабый ИИ» и «сильный ИИ».


    Если бы продолжали пользоваться старой, устоявшейся в русском языке терминологией, поводов для спора было бы намного меньше.


    1. Tembl44
      04.04.2017 10:56

      Согласен.
      ИИ — интеллект способный на простейшие функции. Способный к обучению и принятию решений. Это кремниевое/цифровое животное.
      ИР — осознавший себя ИИ. По сути кремниевый/цифровой человек.


  1. Bedal
    03.04.2017 10:42

    В статье отражается традиционный парадокс, базирующийся на том, что понятие интеллекта якобы можно зафиксировать. Интеллект, на самом деле — непознаваем по определению. Всё, что можно объяснить — не считается требующим интеллекта. Потому все достижения ИИ необходимо исключать из понятия «И».

    С человеческим разумом ведь аналогичная операция проходила неоднократно:
    — умеет читать — умный. Вычеркнуто
    — умеет умножать — очень умный. Вычеркнуто.
    — игра в шахматы — занятие для умных. Вычеркнуто (как вследствие того, что стали проигрывать компам, так и вследствие того, что повышение уровня информированности показало, что чемпион мира по шахматам вовсе не обязательно умён).
    … и так далее, список того, что когда-то служило явным признаком ума, а сейчас перестало быть таковым, весьма широк.


  1. amarao
    03.04.2017 12:07

    Мне кажется, тут есть ещё одна проблема. У нас нет приятного к использованию термина, говорящего, что компьютер разбирается в окружающем мире.

    У меня собака способна аккуратно открыть пластиковую баночку с остатками мясного соуса. Она знает, что внутри невкусной баночки есть что-то вкусное и его надо открыть.

    Это не интеллект. Но если мы научим робота каким-то волшебным образом:
    — понимать, что ему что-то протягивают
    — опознать, что внутри этого есть искомое
    — захватить и перенести это в другое место
    — открыть его
    — извлечь содержимое
    — прийти за добавкой к тому же человеку, что и дал это в первый раз, даже если человек в другой комнате

    … то газеты будут будут говорить про Сильный Интеллект.

    А это всего лишь собака.

    При этом задача взаимодействия с окружающим миром не решена до сих пор, хотя есть какие-то робкие подвижки.

    Но решение этой задачи — это же не задача интеллекта.

    Как такая задача называется?


    1. Eldhenn
      03.04.2017 12:43

      Это не интеллект

      Да ну?


      1. amarao
        03.04.2017 12:45

        В моём представлении «интеллект» подразумевает что-то, близкое по уровню к человеку. Собака (пусть и умная) — не его носитель. Если же мы говорим про «опасности ИИ» в контексте «научились тому, что умеет собачка», то я не вижу повода для дискуссии. Опасности собачьего интеллекта для выживания человечества несколько преувеличены.


        1. Eldhenn
          03.04.2017 12:58

          А как ты определяешь "близость к уровню"? Собака, вон, даже речь в некоторых пределах способна понимать.


          1. amarao
            03.04.2017 13:14

            Я проверял как собака понимает речь. Довольно умная собака, способная понять «тебе туда не надо», «фу», «брось», «ко мне» и т.д. Если заменить слова на цифры — выполняет совершенно так же. То есть командуешь «33», а он к тебе подходит. «Пять» — и собака останавливается.

            Так что важна интонация, а не слова.

            А близость к уровню я объясняю на способности объяснить что-то. Если мы начнём разбираться что такое «объяснить» и и что такое «знание», то мы быстро попадём эпистемиологическую трясину.


            1. Igor_O
              03.04.2017 19:08

              С животными все сложно. И с командами тоже. У человеков тоже вон много лет для отдачи команд используются невербальные вещи. Свисток у боцмана на кораблях. Свисток арбитра в футболе. «Ё&*$#@&!*@&!!!» в армии. И в общем достаточно легко заметить, что первый уровень реагирования — на громкость и высоту звука, а уже потом на интонацию вообще и на голос, а еще дальше идет разбор что именно сказали. И, зачастую, разбор «что именно сказали» начинается уже после того, как человек начал выполнять команду.
              А по поводу интеллекта животных — чем дальше, тем больше подтверждений, что он есть. Просто у них приоритеты другие, интересны им другие вещи и еще и эволюционно приспособлены они к разным вещам. Как тут недавно про гиббонов было, что ставили эксперименты по использованию приматами инструментов в качестве показателя ума. И выяснили, что гиббоны тупы непроходимо. Потом выяснилось, что это экспериментаторы, оказывается, не совсем умны — гиббоны, оказывается, живут в «подвешенном на ветку» положении. И все, что не подвешено на ветку просто игнорируют.


              1. amarao
                03.04.2017 19:34

                Мы же говорим не о командах, а об о объяснении. С помощью мата и громкости нельзя объяснить новую идею. Только отдать команду или подавить сопротивление.


                1. fireSparrow
                  04.04.2017 10:00

                  С помощью мата и громкости нельзя объяснить новую идею.

                  Расскажите это майору, который у нас занятия на военной кафедре вёл.


                  1. Igor_O
                    04.04.2017 11:17

                    «Аналогичный случай был в нашей деревне». После месяца сборов две сотни студентов-математиков «из интеллигентных семей» прекрасно объяснялись на матерном, и прекрасно усваивали информацию, сообщаемую нашими полковниками на матерном.
                    Опять же, как показывает опыт общения человека с собаками, даже без формального понимания человеческой речи, собаки осваивают весьма нетривиальные модели поведения. Элементарный пример — собаки поводыри. Они умеют удивительнейшие вещи. Включая способность на пешеходном переходе оценить опасность ситуации и принять решение, идти или не идти.
                    Кстати, как-то однажды, лет тому уже много назад, ехал я по серой ветке от каховки на север. И вот на Нахимовском Проспекте заходит в вагон собака дворняга. Проходит к двери напротив, устраивается там и типа спит. На Менделеевской встала, подошла к двери посмотрела на станцию, так же на Савеловской. Потом на Дмитровской уже прям ждала, когда двери откроются, тут же рысью на эскалатор. И, что еще интересно, на Нахимовском проспекте собака зашла ровно в ближайшую к эскалатору дверь поезда…


                  1. amarao
                    04.04.2017 12:11

                    И как, идея сложная? Не могу себе представить объяснение того, что такое ядро отображения, или множественное наследование посредством мата и криков. Я могу себе представить маты и крик во время объяснения, но лишь как помеху. Как средство донеселения — нет.


                    1. Igor_O
                      04.04.2017 12:26

                      А зачем знать, что такое множественное наследование или ядро отображения, когда нужно радиостанцию развернуть, настроить и связь с соседом установить?


    1. Bedal
      04.04.2017 13:58

      Это — интеллект. Не существует, на самом деле, исключительного с резкой границей человеческого разума, «вот тут интеллект, а тут — нет».
      Проявления разумности, очевидно, достижение, доступное большинству (если не всем) млекопитающим и птицам (а, может, и динозаврам как предшественникам птиц). Показывается это как раз приведённые Вами примеры и множество и множество прочих.

      Дальше вступает в силу классический переход количества в качество. Число разумных эпизодов, их длительность и связность растёт и растёт, пока у человека (и, возможно, у его предков и вымерших родственников) не сливается в единый процесс. В какой именно точке произошло это слияние aka появление разумного существа — думаю, установить невозможно.


      1. amarao
        04.04.2017 14:07

        Вот я научил компьютер по резкому крику выключаться. Это интеллект? А ещё я научил собаку по резкому крику останавливаться и бросать ту гадость, которую он решил съесть. Это интеллект?

        А ещё я научил камень падать вниз, если у него нет опоры. Это интеллект?

        Если мы говорим об «искуственном интеллекте» уровня собаки, то я уверен, что его можно написать без каких-то прорывных достижений. Просто очень обширный и сложный алгоритм, поддерживающий множество состояний и условий.


        1. Igor_O
          04.04.2017 14:50

          Если мы говорим об «искуственном интеллекте» уровня собаки, то я уверен, что его можно написать без каких-то прорывных достижений.


          Как показывает практика — пока нет. Роботизированный автомобиль пока не умеет с достаточной степенью уверенности распознать опасность и не выезжать на перекресток при наличии опасности. А собака-поводырь — это делать может. Стабильно. Многократно. Обеспечивает выживание «пассажира». Вообще, собака-поводырь — это очень сложная и умная штука. Умеет кучу вещей, которые пока недоступны «роботам», включая поиск маршрута и ориентирование на местности при отсуствии карты и связи со спутниками GPS/ГЛОНАСС.


          1. amarao
            04.04.2017 18:16

            С другой стороны роботы куда лучше прокладывают оптимальные маршруты, могут учитывать строительные работы по ходу маршрута и т.д.

            Специфичные навыки животных не являются чем-то невероятным к реализации. Локальные оптимизации могут долго удивлять, но происходящее в процессе не такое уж «невероятное» и «непонятное».


        1. Bedal
          05.04.2017 12:36

          1. Уже писал, что всякое достижение в области интеллекта немедленно перестаёт считаться интеллектуальным. Так что ответ на Ваши вопросы очевиден.
          2. Где Вы нашли камень, который до обучения не падал, потеряв опору? Если есть ещё один — не портите, это же даже не нобелевка, покруче будет.
          3. Иногда собаки в конкретных ситуациях ведут себя умнее людей, так что ваша уверенность, что можно такое написать без прорывных достижений, мне кажется необоснованной.


  1. Alex_ME
    03.04.2017 12:29

    У людей просто нет четкого понятия. Сильный\слабый ИИ — довольно кривые определения, разделение по "самосознанию" еще более кривое.


    Если глянуть в вики, то там такие


    признаки сильного ИИ
    • Принятие решений, использование стратегий, решение головоломок и действия в условиях неопределенности;
    • Представление знаний, включая общее представление о реальности;
    • Планирование;
    • Обучение;
    • Общение на естественном языке;
    • И объединение всех этих способностей для достижения общих целей.

    А так же дополнительные:


    • Сознание: Быть восприимчивым к окружению;
    • Самосознание: Осознавать себя как отдельную личность, в частности, понимать собственные мысли;
    • Сопереживание: Способность «чувствовать»;
    • Мудрость.


    1. realbtr
      03.04.2017 13:33

      Есть, есть. Независимо от природы феномена — самосознание вполне наблюдаемый феномен, не сводимый (теми же психологами) к определенной совокупности других. На этом вообще много спекуляций, побольше чем на ИИ. Начиная с вопроса шкалы осознанности разных животных, которую вряд ли кто-то смог бы однозначно выстроить.


    1. Cubicmeter
      03.04.2017 14:30

      > что такое (само)сознание и возможен ли такой тип ИИ, или он автоматически приводит к зарождению (само)сознания?

      Мышление, демонстрируемое обычным человеком в повседневной жизни (как говорил Марвин Минский, тот уровень интеллекта, который нужен для понимания, почему можно потянуть что-то за веревочку, но нельзя ей что-либо толкнуть) — уже предполагает рефлексию, самоконтроль, чтобы отследить, когда вы заходите в тупик и нужно сменить подход. И часто для этого приходится всерьез размышлять как над ошибками в своих действиях, так и над ошибками в своем мышлении. Что это, как не самосознание? Оно не зарождается автоматически благодаря высокому интеллектуальному потенциалу. Оно его реализует.


      1. qw1
        07.04.2017 18:10

        уровень интеллекта, который нужен для понимания, почему можно потянуть что-то за веревочку, но нельзя ей что-либо толкнуть) — уже предполагает рефлексию, самоконтроль
        Совершенно не очевидно.

        Для решения таких задач робот может знать о своих исполнительных механизмах, но не о процессоре.

        Сильно упрощая, рассмотрим программу, решающую уровни в Sokoban. Она может получить новое знание — вывести теорему, что если ящик загнать в угол, то уровень провален. И оптимизировать решения, используя это знание, искать разные подходы и стратегии. Совершенно не обязательно понимать, что за пределами этого виртуального поля с ящиками есть что-то ещё, осознавать себя, как разум, существующий над этой игровой доской.


        1. Cubicmeter
          09.04.2017 08:32

          В приведенной цитате речь идет не о решении механической задачи путем проб и ошибок, а об ответе на вопрос «почему?». Не загонять ящик в угол — важное частное правило. Почему так нельзя делать? Правильный ответ — стоящий в углу ящик невозможно толкнуть. Сможем ли мы его получить, или получим что-то вроде «когда ящик оказывался в углу, игра всякий раз была проиграна»?

          Человеку для его исключительной гибкости, адаптивности понадобились рефлексия и самосознание. Лишенные же этих свойств животные такой приспособляемости не проявили — как и созданные до сих пор машины. Поэтому как раз сомнительно, что без них она возможна.

          > Совершенно не обязательно понимать, что за пределами этого виртуального поля с ящиками есть что-то ещё

          Пионеры ИИ создали программы, успешно манипулирующие кубиками в виртуальном и реальном пространстве, около полувека назад. Кубиками успех этих программ и ограничился.


          1. qw1
            09.04.2017 10:46

            Лишенные же этих свойств животные такой приспособляемости не проявили — как и созданные до сих пор машины
            Логика на уровне:
            — Птицы летают, у птиц есть перья. Значит, летающую машину надо делать с перьями.
            Или
            — Математики решают квадратные уравнения, но ежедневно принимают органическую пищу. Значит, создание машины, решающей уравнения, начать надо с конструкции желудка.

            Пионеры ИИ создали программы, успешно манипулирующие кубиками в виртуальном и реальном пространстве, около полувека назад. Кубиками успех этих программ и ограничился
            А потом они создали ещё 100500 систем, успех которых был выше, но при этом им не пришлось программировать самосознание.

            Я не спорю, что самосознание ценная вещь. Вопрос в том, какие должны быть интеллектуальные задачи, которым было бы оно необходимо. Я считаю, это только задачи уровня самостоятельной постановки целей для себя, когда машина должна существовать и развиваться без внешнего управления. А задачки типа «толкать или тянуть» и собака решает. Она при этом не размышляет как: «Я собака, я в теле собаки, поэтому верёвку толкать лапами нельзя, её надо тянуть зубами».

            Правильный ответ — стоящий в углу ящик невозможно толкнуть. Сможем ли мы его получить, или получим что-то вроде «когда ящик оказывался в углу, игра всякий раз была проиграна»?
            Разумеется, нет. В системе даже нет такого понятия — толкать. Зато там будут другие понятия, которых нет у людей. Например, логический вывод из 16 посылок как одна единица смысла. Человек его сможет разобрать за полдня умственного труда, но скажет — это не логика, это перебор вариантов. А для ИИ такой вывод будет элементарным, как для человека «Если А, то Б. Имеется А. Значит — Б».

            Просто такая позиция — как у плохого экзаменатора. Вот я ожидаю ровно такой ответ, как в учебнике, если объяснение другое (хотя и не лишённое практического смысла) — двойка.

            Если бы мы хотели, чтобы компьютеры хотя бы считали, как люди, мы бы сделали их десятичными, а не двоичными. Но зачем, если для наших задач и так хорошо.


            1. Cubicmeter
              10.04.2017 11:56
              +1

              А задачки типа «толкать или тянуть» и собака решает. Она при этом не размышляет как: «Я собака, я в теле собаки, поэтому верёвку толкать лапами нельзя, её надо тянуть зубами».

              :-))) Вам всё никак не удаётся прочесть до конца комментарий, на который вы отвечаете. Попробую еще раз: «В приведенной цитате речь идет не о решении механической задачи путем проб и ошибок, а об ответе на вопрос «почему?»». Собака на вопросы не отвечает.

              Я не спорю, что самосознание ценная вещь. Вопрос в том, какие должны быть интеллектуальные задачи, которым было бы оно необходимо. Я считаю, это только задачи уровня самостоятельной постановки целей для себя, когда машина должна существовать и развиваться без внешнего управления.

              Любая поставленная задача требует самостоятельного разбиения на подзадачи (по крайней мере если вы не хотите сами его выполнять — а именно от этого мы хотим уйти). Для этого машина должна иметь представление о своих возможностях. Также для успеха нужно уметь оценить время, за которое она сможет задачи выполнить.
              Если успешное выполнение задачи оказывается невозможным, машине нужно уметь найти проблему в своих рассуждениях, которые к этому привели, и попробовать другой подход.
              Всё это не требует самосознания. Это и есть самосознание. Просто не нужно видеть в нем нечто магическое.

              Если бы мы хотели, чтобы компьютеры хотя бы считали, как люди, мы бы сделали их десятичными, а не двоичными. Но зачем, если для наших задач и так хорошо.

              Ирония в том, что для наших задач так не хорошо, поэтому когда вы работаете с числами в областях, любящих точность (например, финансовой), вы должны помнить, что в Java и C# следует просто использовать тип decimal, а в JavaScript идти на дополнительные ухищрения с пересчетом сумм в самую мелкую единицу и хранением как целые числа.


              1. qw1
                10.04.2017 16:58

                Любая поставленная задача требует самостоятельного разбиения на подзадачи
                Хорошее объяснение. С этим я согласен.


            1. Cubicmeter
              10.04.2017 12:03

              Да, и кстати:

              Для решения таких задач робот может знать о своих исполнительных механизмах, но не о процессоре.

              Ему, вероятно, и не требуется знать, как регистры процессора выполняют элементарные операции.
              Мы ведь можем существовать, не зная, как работают клетки нашего тела. Более того, и большая часть работы мозга от нас скрыта. Даже механизмы, мотивы принятия важнейших решений — выбор спутника жизни, пристрастия в работе, в еде — часто остаются неизвестными.


            1. saboteur_kiev
              10.04.2017 15:23

              «А задачки типа «толкать или тянуть» и собака решает. Она при этом не размышляет как: «Я собака, я в теле собаки, поэтому верёвку толкать лапами нельзя, её надо тянуть зубами».»


              Напишете на коленке ИИ, который выполняет хотя бы это — чтобы ваш робот мог тянуть или толкать?

              Потом посмотрим, как он отреагирует, если я предложу потолкать, потянуть

              веревку, кусок мяса, щенка, деревяшку, железку, кактус, солнечный зайчик
              на ровном месте, над лужей, на лестнице, на льду

              Потом решим, размышляет собака или нет.

              P.S. У всех животных есть интеллект. Они еще не дошли до создания абстрактного словаря (и то, у дельфинов и китов что-то намечается), чтобы общаться чем-то большим, чем выражение примитивных эмоций. Но по сравнению с компьютерными программами — они — реально разумны.


  1. KarasikovSergey
    03.04.2017 12:35

    Пока человеки не разберутся сами, что есть разум и как он функционирует — ни о каком ИИ речи быть не может. Да и фетишь на искусственный разум, способный к созиданию и развитию мне откровенно непонятен. Зачем нужен ИИ? Людям нужны искусственные рабы, на которых можно взвалить обеспечение жизнедеятельности для высвобождения времени в пользу чистого творчества и праздности. Зачем людям искусственные рабы с осознанием собственного Я, с эмоциями и амбициями? Разве что для войны машин и людей. Ну еще комплекс Бога почесать: «смотри, мы тоже так можем!».
    А реально людям нужны логические автоматы с высокой скоростью принятия точных решения на основе точных знаний и качественного анализа. Не нужен нам никакой искусственный разум, секс-куклы с сознанием 10-летней развратной девочки или искрометно шутящие кибер-таксисты.


  1. mad_god
    03.04.2017 12:38

    Может, лучше использовать определение «программа, способная к самооптимизации»?


    1. amarao
      03.04.2017 12:46

      gcc что ли?


      1. mad_god
        03.04.2017 13:40

        разве он сам себя оптимизирует? Через какие промежутки времени он выдаёт свои новые оптимизированные версии?


        1. amarao
          03.04.2017 14:00
          +1

          gcc работает тогда, когда ей сказали. Можно вполне себе представить программу, которая собирает perfdata и пытается loop-unroll и другие фичи в горячих местах и, наоборот, -Os в местах, которые редко используются.

          Но задача оптимизации не является задачей какого-либо интеллекта, потому что любая оптимизация — это всего лишь поиск экстремумов функции. Задача невероятно сложная, но она сложна и для компьютеров, и для людей, так что считать её признаком интеллекта — ошибочно (а если вы думаете, что люди хороши в задачах оптимизации… Удачи с составлением школьного расписания).


          1. mad_god
            03.04.2017 14:21

            Задача зрения, например, не осуществляется самим человеком. Точно также и оптимизация, используется как основа, но не осознанно, а как базис. Использовать в данном случае функцию А или сгенерировать функцию В, которая «лучше». Быстрее, экономичнее, лаконичнее, логичнее — каждый раз это «лучше» другое.


  1. msts2017
    03.04.2017 13:52

    Помнится раньше, лет 25 назад, было както так, каждая последующая базируется предыдущей

    система первого уровня — база данных — тексты, ключевые слова, в миру поисковые системы.
    второго уровня — база знаний — из текстов выделяются «знания», далее — смыслы, и хранятся уже они, поиск тоже по смыслам, в миру экспертные системы.
    третий — манипуляция смыслами — смешивание, разделение.
    четвертый — «верификация» смыслов — проверка на согласованность
    пятый — создание новых смыслов.

    ИИ как раз начинается с пятого уровня.

    Сломались (тогда) на экспертных системах — высокая трудоемкость ручного выделения смысла из текста, ну или набивание его с нуля человеком, понятное дело пытались статистически, прогоняя кучи текстов, но низкое качество результата не позволило взлететь. Были только очень узкоспециализированные системы.


  1. KOLANICH
    03.04.2017 14:09
    -1

    К сожалению, SLY_G весьма часто тащит на гт всякую фигню, в которой ничего не понимает.

    Сложившаяся терминология такова, что ИИ — это
    1 алгоритм и/или устройство, который может действовать «разумно» в рамках задачи. Напр. бот для игры, или ocr.
    2 совокупность методов создания таких алгоритмов. Напр. поиск в дереве игры, нейросеть, svm, байесовский классификатор.
    3 направление науки, которое занимается разработкой и использованием таких методов.

    Не надо выдумывать всякие ВИ из массэфекта и роботов, которые «сознают себя как люди», и обзывать их истинным ИИ. Есть устоявшаяся терминология, и согласно ей ИИ не обязан быть разумным. Он просто должен работать на данной задаче, и чтобы он делал это хорошо, приходится использовать какой-либо из методов ИИ.


    1. telhin
      03.04.2017 16:41

      Не надо выдумывать всякие ВИ из массэфекта и роботов, которые «сознают себя как люди», и обзывать их истинным ИИ. Есть устоявшаяся терминология, и согласно ей ИИ не обязан быть разумным. Он просто должен работать на данной задаче, и чтобы он делал это хорошо, приходится использовать какой-либо из методов ИИ.


      Проблема в том, что маркетологи (того же Watson например) закладывают смысл системы с самосознанием, имитируют осознанные диалоги и т.п. Экспертность системы ассоциирующаяся с разумной машиной эксплуатируется среди технически неподготовленных масс населения.

      Это не отменяет того факта, что нейросети эффективно выполняют свои задачи в определенных прикладных областях.

      С другой стороны, журналисты/другие маркетологи используют распиаренный образ ИИ для своих решений «поилки для канареек с ИИ на трех нейронах».

      Выходит что одни люди делают систему похожей на сильный ИИ когда он таковым не является, а другие люди просто эксплуатируют образ ИИ для создания инфоповодов/продвижения своей продукции. Первые развивают систему, чтобы она была похожа на сильный ИИ, а вторые заменяют слово «нейросеть» на фразу«ИИ».

      Таким образом образ сильного ИИ является идеалом, который поддерживается в обществе. В связи с этим появляются завышенные ожидания, а на самом деле существуют в лучшем случае похожие по поведению системы (есть некоторый смысл социального взаимодействия с человеком), а в худшем случае ВеликийЗамечательныйПрограммныйПродукт(с ИИ), к которому прикрутили нейросеть для выбора оптимального голубого цвета кнопки «Рассказать друзьям».

      Термин ИИ неизбежно несет разочарование в несоответствии ожиданиям, поэтому поднимается вопрос о различных оговорках как сильный-слабый ИИ и т.п.


  1. Metanol098
    03.04.2017 16:41

    Приведу отрывок из книги «Искусственный интеллект. Современный подход. Рассел С., Норвиг»:
    "… трактовки идеальной концепции интеллектуальности, которую авторы настоящей
    книги предпочитают называть рациональностью. Система является
    рациональной, если она «все действия выполняет правильно», при условии, что система
    обладает знаниями о том, что является правильным."
    т.е. искусственный интеллект рассматривается в качестве рационального интеллекта. И по мнением авторов интеллектуальность определяется способностью планировать будущее.


  1. EvgenySgt
    03.04.2017 16:41
    +1

    А чего никто не вспомнил, что в английском языке AI несет совсем другой оттенок, нежели русский «искусственный интеллект»?
    А пендосском есть 2 похожих слова: intellect и intelligence.
    Первое — это умение (способность) управлять своим разумом и эмоциями. То о чем писали в статье: непредсказуемость, самоосознание и т.д.
    Второе — умение использовать накопленную информацию и решать задачи.
    Термин AI как раз содержит второе понятие. Современные программы как раз это хорошо умеют делать, они собирают информацию из БД, датчиков или как-то еще и могут применять их в новых ситуациях. Это artificial intellegence в чистом виде.
    А вот говорить об artificial intellect, если по Поперу, то не научно. Мы никогда не поймем что такое ЕСТЕСТВЕННЫЙ ИНТЕЛЛЕКТ, чтобы оценить получилась ли его искусственная копия (см. «философский зомби», «китайская комната» и т.д.).


    1. wych-elm
      03.04.2017 17:34

      Все эти «философские зомби» и «китайские комнаты» суть профанация. В этих концепциях изначально постулируется непознаваемость интеллекта (просто потому что), при чем неявно, а сами эти мысленные эксперименты строятся чтобы доказать ее же, т.е. непознаваемость интеллекта (сознания).


    1. 1Tiger1
      04.04.2017 14:16

      В принципе верно, хотя и там есть ньюансы, вот например выгрызено из википедии по статье AI «As machines become increasingly capable, mental facilities once thought to require intelligence are removed from the definition. For instance, optical character recognition is no longer perceived as an example of „artificial intelligence“, having become a routine technology.[3] Capabilities currently classified as AI include successfully understanding human speech,[4] competing at a high level in strategic game systems (such as Chess and Go[5]), self-driving cars, intelligent routing in content delivery networks, and interpreting complex data.»

      То есть пока распознавание изображений было на слабом уровне его называли AI, и так действительно было, задача зрения и распознавания считалась отличным примером потому что являлась сложной для машины но очень простой для человека. Отсюда возникли все эти капчи. Но стоило области развиться и стать «рутинной» и оно уже не AI а просто алгоритмы. Хотя сложность систем распознавания изображений не уменьшилась а очень даже увеличилась, и научно и алгоритмически и по потребляемым мощностям. Но это уже не «магия» а «рутина» и все, уже не интеллект. Когда разспознавание речи или автоуправляемые автомобили станут рутиной они тоже потеряют статус AI. Где логика? ее нет. Вернее логика в том что все что мы пока не можем но очень хотим и что может человек — это AI, как только сможем и станет обыденностью — уже обычная программа. AI (и ИИ) не научный термин а психологический и социальный, как это не абсурдно.

      Я согласен с статьей, от термина надо отказываться, но не потому что мы не можем четко классифицировать то что мы называем ИИ и определить критерии уровней и в принципе границы ИИ. А потому что это не нужно. Просто не нужно и даже мешает. Загоняет в рамки, в шаблоны мышления.
      Интеллект сугубо человеческое понятие, придуманное человеком и для человека. Теоретически нет ничего что мешало бы существованию развитой цивилизации не обладающей созданием. Не говоря уже о том что сознание это вообще узкая внутренняя фишка человека и нет его четких критериев, и не будет. Внутренний диалог? ну тогда система из нескольких подсистем общающаяся по API между собой обладает сознанием. И я не утрирую. Диалог есть и он внутренний.
      Все остальные свойства иннтеллекта тоже при желании можно натянуть на любые сложные системы, но не нужно.

      Мы любим очеловечивать не человеческое, ругаемся на глючные программы, разговариваем с компьютером или автомобилем, одеваем собачек в одежду и тапочки. Делаем то что совершенно не нужно этим системам и животным. Для большинства людей ИИ это веселый андроид который ведет себя как человек.

      Но нам не нужны веселые андроиды, вернее они очень нишевой продукт. Нам не особо нужен и всемогущий универсальный интеллект который может сделать все что может человек и еще лучше. Нам нужны системы распознавания изображений, анализа речи и данных, самоуправляемые автомобили, роботы способные действовать в нужных условиях но адаптироваться под ситуации и обучаться на них и многое другое. Это РАЗНЫЕ продукты, не нужно из загонять в рамки классификаций придуманных для людей и очеловечивать их. Как делают это «эксперны по ИИ» и остальные люди. Их просто нужно делать, и их делают. Это инструменты а не дети.
      Даже если случиться такая беда и мы случайно или намеренно создадим то что мы сейчас назваем сильным ИИ, с чего мы взяли что он будет похож на человека по способу мышления, решению задач и «сознанию»? Скорее всего не будет, если конечно не создавать специально еще одного «человека». Задача создания сильного ИИ имеет только одно прикладное значене — изучение человеческого интеллекта и расширение наших знаний о возможных вариантах устройства «интеллекта» (ну нет другого термина вот и использую). Хорошая задача, но пока рановато и не имеет ничего общего с ожиданием многих людей о всемогущем боге который поведет человечество к процветанию и сингулярности.

      "«антропные вычисления» – это программы, которые должны вести себя, как люди, или взаимодействовать с ними" — в принципе хорошо, четко отделяем веселых андроидов и электронных ассистентов в эту категорию, все остальные программы с обучением занимаются своим делом и не машут флагом ИИ, «сильный ИИ» называем «проектами по изучению мышления» а термин ИИ (сильный и слабый) вообще забываем оставляя в фантастике чтобы не пудрить себе и другим мозги. Ну маркетологам можно еще оставить, им можно, надо же что-то загадочное и трендовое писать в рекламе и прессе.


      1. Cubicmeter
        10.04.2017 12:10
        +1

        Но нам не нужны веселые андроиды, вернее они очень нишевой продукт. Нам не особо нужен и всемогущий универсальный интеллект который может сделать все что может человек и еще лучше. Нам нужны системы распознавания изображений, анализа речи и данных, самоуправляемые автомобили, роботы способные действовать в нужных условиях но адаптироваться под ситуации и обучаться на них и многое другое. Это РАЗНЫЕ продукты, не нужно из загонять в рамки классификаций придуманных для людей и очеловечивать их.

        О, это напоминает былинные рассуждения боссов из IBM конца 70-х: «Кто может захотеть купить домашний компьютер? Едва ли он кому-то понадобится!» :-)))


  1. kissarat
    04.04.2017 00:10

    Хух, а я думал много математики будет в следуюющем проекте связаном с ИИ


  1. lasthand
    05.04.2017 11:45

    Термин это ярлык, который можно прикреплять к разным явлениям. Исходя из этого, термин не может потерять смысл, он может быть размыт, потерять ясность, однозначность трактовки разными людьми.

    Термин «интеллект» давно не имеет такой ясности даже в приложении к человеку, в отрыве от искусственных систем. Есть множество родственных терминов, границы между которыми размыты, зависят от субъективной трактовки: эрудиция, осознание, сознание, разум, мудрость.

    Интеллект подразумевает лишь одно из качеств психики. Спорным является вопрос отнесения исключительно к интеллекту способности к оперированию абстракциям, способности к обучению, способности к постановке целей и планированию действий для изменения условий.

    Появление AI, частично решающих отдельные задачи, не размывает термин, напротив — позволяет задуматься над его уточнением и приближает к пониманию того, как функционируют головы людей.