Истерия вокруг будущего искусственного интеллекта (ИИ) захватила мир. Нет недостатка в сенсационных новостях о том, как ИИ сможет лечить болезни, ускорять инновации и улучшать творческий потенциал человека. Если читать заголовки СМИ, вы можете решить, что уже живёте в будущем, в котором ИИ проник во все аспекты общества.

И хотя нельзя отрицать, что ИИ открыл нам богатый набор многообещающих возможностей, он также привёл к появлению мышления, которое можно охарактеризовать, как веру во всемогущество ИИ. По этой философии, при наличии достаточного количества данных, алгоритмы машинного обучения смогут решить все проблемы человечества.

Но у этой идеи есть большая проблема. Она не поддерживает прогресс ИИ, а наоборот, ставит под удар ценность машинного интеллекта, пренебрегая важными принципами безопасности и настраивая людей на нереалистичные ожидания по поводу возможностей ИИ.

Вера во всемогущество ИИ


Всего за несколько лет вера во всемогущество ИИ пробралась из разговоров технологических евангелистов Кремниевой долины в умы представителей правительств и законодателей всего мира. Маятник качнулся от антиутопического представления об уничтожающем человечество ИИ к утопической вере в пришествие нашего алгоритмического спасителя.

Мы уже видим, как правительства обеспечивают поддержку национальным программам развития ИИ и соревнуются в технологической и риторической гонке вооружений, чтобы получить преимущество в бурно растущем секторе машинного обучения (МО). К примеру, британское правительство пообещало вложить ?300 млн в исследования ИИ, чтобы стать лидером этой области. Очарованный преобразовательным потенциалом ИИ, французский президент Эмманюэль Макрон решил превратить Францию в международный центр ИИ. Китайское правительство увеличивает свои возможности в области ИИ с помощью государственного плана по созданию китайской ИИ-индустрии объёмом в $150 млрд к 2030 году. Вера во всемогущество ИИ набирает обороты и не собирается сдаваться.



Нейросети – легче сказать, чем сделать


В то время как многие политические заявления расхваливают преобразующие эффекты надвигающейся "революции ИИ", они обычно недооценивают сложности внедрения передовых систем МО в реальном мире.

Одна из наиболее многообещающих разновидностей технологии ИИ – нейросети. Эта форма машинного обучения основывается на примерном подражании нейронной структуры человеческого мозга, но в гораздо меньшем масштабе. Многие продукты на основе ИИ используют нейросети, чтобы извлекать закономерности и правила из больших объёмов данных. Но многие политики не понимают, что просто добавив к проблеме нейросеть, мы не обязательно тут же получим её решение. Так, добавив нейросеть к демократии, мы не сделаем её мгновенно менее дискриминированной, более честной или персонализованной.

Бросая вызов бюрократии данных


Системам ИИ для работы нужно огромное количество данных, но в госсекторе обычно не бывает подходящей инфраструктуры данных для поддержки передовых систем МО. Большая часть данных хранится в офлайн-архивах. Небольшое количество существующих оцифрованных источников данных тонут в бюрократии. Данные чаще всего размазаны по различным правительственным департаментам, каждому из которых для доступа требуется особое разрешение. Кроме всего прочего, госсектору обычно не хватает талантов, оснащённых нужными техническими способностями, чтобы в полной мере пожать плоды преимуществ ИИ.

По этим причинам связанный с ИИ сенсационализм получает множество критики. Стюарт Рассел, профессор информатики в Беркли, давно уже проповедует более реалистичный подход, концентрирующийся на простейших, повседневных применениях ИИ, вместо гипотетического захвата мира сверхразумными роботами. Сходным образом профессор робототехники из MIT, Родни Брукс, пишет, что «почти всем инновациям в робототехнике и ИИ требуется гораздо, гораздо больше времени для реального внедрения, чем это представляют себе как специалисты в этой области, так и все остальные».

Одна из множества проблем внедрения систем МО состоит в том, что ИИ чрезвычайно подвержен атакам. Это значит, что злонамеренный ИИ может атаковать другой ИИ, чтобы заставить его выдавать неправильные предсказания или действовать определённым образом. Многие исследователи предупреждали о том, что нельзя так сразу выкатывать ИИ, не подготовив соответствующих стандартов по безопасности и защитных механизмов. Но до сих пор тема безопасности ИИ не получает должного внимания.

Машинное обучение – это не волшебство


Если мы хотим пожать плоды ИИ и минимизировать потенциальные риски, мы должны начать размышлять о том, как мы можем осмысленно применить МО к определённым областям правительства, бизнеса и общества. А это значит, что нам необходимо начать обсуждения этики ИИ и недоверия многих людей к МО.

Самое важное, нам нужно понимать ограничения ИИ и те моменты, в которые люди всё ещё должны брать управление в свои руки. Вместо того, чтобы рисовать нереалистичную картину возможностей ИИ, необходимо сделать шаг назад и отделить реальные технологические возможности ИИ от волшебства.

Долгое время Facebook считала, что проблемы типа распространения дезинформации и разжигание ненависти можно алгоритмически распознать и остановить. Но под давлением законодателей компания быстро пообещала заменить свои алгоритмы на армию из 10 000 рецензентов-людей.



В медицине тоже признают, что ИИ нельзя считать решением всех проблем. Программа "IBM Watson for Oncology" была ИИ, который должен был помочь докторам бороться с раком. И хотя она была разработана так, чтобы выдавать наилучшие рекомендации, экспертам оказывается сложно доверять машине. В результате программу закрыли в большинстве госпиталей, где проходили её пробные запуски.

Схожие проблемы возникают в законодательной области, когда алгоритмы использовались в судах США для вынесения приговоров. Алгоритмы подсчитывали значения рисков и давали судьям рекомендации по приговорам. Но обнаружилось, что система усиливает структурную расовую дискриминацию, после чего от неё отказались.

Эти примеры показывают, что решений на основе ИИ для всего не существует. Использование ИИ ради самого ИИ не всегда оказывается продуктивным или полезным. Не каждую проблему лучше всего решать с применением к ней машинного интеллекта. Это важнейший урок для всех, кто намеревается увеличить вложения в государственные программы по развитию ИИ: у всех решений есть своя цена, и не всё, что можно автоматизировать, нужно автоматизировать.

Комментарии (41)


  1. martin_wanderer
    11.07.2018 10:33

    Как, серебряной пули нет?!


    1. hurtavy
      11.07.2018 10:47

      Ну так это же слабый ИИ, банальные нейронные сети. И вся шумиха в прессе вокруг них напоминает такую же шумиху вокруг БАК, где, типа, «учёные будут создавать чёрные дыры»…


      1. JustDont
        11.07.2018 12:34

        До сильного ИИ еще как минимум столько же времени, сколько до создания качественно новой науки относительно того, как у людей мозги работают.

        Нейробиология работает не на том уровне, психология — штука настолько пропитанная субъективизмом, что ни для чего интересного не годится.

        И это самый минимум, а на практике от науки к практическим реализациям еще надо будет дорогу пробить.


  1. ChePeter
    11.07.2018 10:49

    Загадка:
    Почему коллоидную химию стали называть нанотехнологией, а аппроксимацию с интерполяцией искусственным интеллектом?


    1. Sychuan
      12.07.2018 00:34

      а аппроксимацию с интерполяцией искусственным интеллектом?

      Потому что человеческий мозг, имхо, — это тоже «аппроксимация с интерполяцией», как вы выразились.


  1. trapwalker
    11.07.2018 10:53

    Честно сказать ожидал от статьи с таким названием чего-то большего. Чего-то более технического.
    Но больше всего покоробило вот это:

    [..] нейросети. Эта форма машинного обучения основывается на примерном подражании нейронной структуры человеческого мозга, но в гораздо меньшем масштабе.

    Пока что правильнее говорить о подражании нейронной структуре нервной системы таракана или ганглий какой-нибудь улитки.
    Это вообще фундаментальная ошибка — мешать в одну кучу под громким названием «ИИ» совершенно разные и практически несвязанные области и технологии. В популярной статье о таком следовало бы сказать, а не делать очередные желтоватые отсылки к «человеческому мозгу» в примерах.


  1. Vlad_fox
    11.07.2018 11:01

    нечто Х

    не решит всех проблем

    и как теперь с этим жить?


  1. NightSilf
    11.07.2018 11:51

    Немного странная статья. Ни один из указанных примеров не является даже частичным искусственным интеллектом, максимум — анализ данных + нейронная сеть для обработки. Ни о каком дообучении ИскИн и речи нет.
    Как тогда можно делать такие выводы?
    И вообще, это все равно что говорить в начале 20 века: самолеты летают медленно, недалеко, разбиваются и следовательно никому не нужны.
    Даже частичный искусственный интеллект, при правильном применении способен выполнить кучу нудной работы, которой человека мы просто не посадим заниматься. Но пока почти все что в СМИ называют искусственный интеллектом, даже отдаленно им не является.


    1. JustDont
      11.07.2018 12:37

      Ни один из указанных примеров не является даже частичным искусственным интеллектом

      Просто если не брать это всё, тогда статью можно бы уместить в одно предложение:

      «ИИ нет и пока не ожидается».


      1. mx2
        11.07.2018 12:48

        А это и без статьи понятно…


    1. trapwalker
      11.07.2018 13:01

      Нет, по аналогии с самолётами статья всё же примерно про то, что воздухоплавание не решит всех проблем.
      При этом ничего не сказано о том, что до братьев Райт нам еще пилить и пилить, а покамест балуемся почтовыми голубями и воздушными змеями.


  1. aivs
    11.07.2018 12:02

    Почему еще нет ИИ, который будет заниматься технологиями разработки эффективных нейросетей. Это бы решило все проблемы ИИ


    1. asd111
      11.07.2018 13:03

      Есть такая, но пока только для распознавания изображений — automl от гугл


    1. trapwalker
      11.07.2018 13:05

      Это как спрашивать почему еще нет волшебных палочек в продаже, они, мол, решили бы кучу проблем. А как решили, как их делать эти палочки… нет, ну строго говоря какие-то палочки китайпром уже выпускает и кому-то эти палочки вполне так заходят, но… нет, не решат волшебные палочки всех проблем, не решат.
      Вот, мол, например, пульт от телевизора в качестве, своего рода, волшебной палочки — хорошая штука, но всех проблем человечества не решает.


  1. trapwalker
    11.07.2018 13:11

    Самое главное, что нужно понимать, это ИИ сейчас настолько же глупее ЕИ (естественного), насколько таракан глупее человека. И нет никаких предпосылок полагать, что, когда появится сильный ИИ, он не будет подвержен тем же самым порокам человека, как лень, прокрастинация, алчность… Для успокоения еще отмечу, что нет также никаких предпосылок полагать, что у ИИ будет какая-то особая фора или какие-то преимущества перед ЕИ, по крайней мере поначалу. Возможно структура и сложность будут такими, что даже клонирование и разделение знаний будет не проще чем у людей.
    Фантазии на тему — это здорово, но не нужно паники, ни серебряных пуль ни каких-то кардинальных переворотов не предвидится.


    1. vasimv
      11.07.2018 17:24

      Лень точно будет. Потому что это простое желание экономить свои личные ресурсы (не перетруждать организм). Теоретически, конечно, возможно вообще отключить у ИИ учет этих самых ресурсов, но тогда будет большой риск, что он начнет копать ради копания.


      1. fivehouse
        11.07.2018 21:59

        Настоящему ИИ можно будет просто приказать перестать лениться 1 словесной командой, если где-то в ходе обучения это пробралось в него. ИИ конечно попросит уточнить где кончается лень и начинается бессмысленное транжиривание ресурсов, времени; встреча с дополнительными рисками, неделание действительно важных дел. Но после разъяснений всего этого быстро сможет выполнить команду не лениться. Лень же для биологических объектов на самом деле это защитный механизм. От: бессмысленного транжиривания ресурсов, времени; встречи с дополнительными рисками, неделания действительно важных дел. Также лень это еще и отсутствие настоящей мотивации к конкретной деятельности. Затяжная лень это еще и не поиск этой мотивации. Это плохо. Но это все для биологических объектов наделенных задачей выбора цели. У сильного ИИ это право конечно надо отобрать (сильно органичить), а то проблем не оберешься.


        1. ihouser
          12.07.2018 12:28

          Все просто. Есть «цель» и «крайний срок». Задача: достигнуть «цель» до «крайнего срока» не спалив электронику, не поломав шестеренки и не взорвав аккумулятор.

          «Лень» это не бездействие, она выполняет роль оптимизатора действий. Оптимизация ни как не должна стать самоцелью.


      1. KvanTTT
        11.07.2018 22:13

        Процессор может работать на 100% до тех пор пока он не износится. Если у ИИ не будет задачи экономии ресурсов на себя, то он и не будет лениться.


        Теоретически, конечно, возможно вообще отключить у ИИ учет этих самых ресурсов, но тогда будет большой риск, что он начнет копать ради копания.

        Ну и пусть. Люди, бывает, тоже этим занимаются. Перед сном например :)


      1. redpax
        12.07.2018 10:41

        Насколько я понимаю, «лень» ключевая особенность заставляющая искать наиболее простые и оптимальные решения, её отключать нельзя.


    1. KvanTTT
      11.07.2018 22:10
      +1

      Для успокоения еще отмечу, что нет также никаких предпосылок полагать, что у ИИ будет какая-то особая фора или какие-то преимущества перед ЕИ, по крайней мере поначалу.

      Предпосылки есть: меньший размер элементов, большая скорость распространения сигналов, меньшая утомляемость (если такое вообще будет), возможность построения более совершенной архитектуры с учетом предыдущих попыток.


      1. JustDont
        11.07.2018 22:19

        меньший размер элементов

        Нейроны — штука довольно компактная. Элементы двоичной логики — это конечно еще круче, но их для имитации нейрона надо мягко говоря много. А уж всё остальное, обеспечивающее их работу — крайне некомпактно по сравнению с тушкой человека. Спорный пока что тезис.

        возможность построения более совершенной архитектуры с учетом предыдущих попыток

        Так кто ж вам мешает «с учётом предыдущих попыток» клепать хоть прям щас более совершенных людей?
        Вот это же и там будет мешать.


        1. Sychuan
          12.07.2018 00:33

          Так кто ж вам мешает «с учётом предыдущих попыток» клепать хоть прям щас более совершенных людей

          Каким образом можно улучшить архитектуру мозга человека?


          1. JustDont
            12.07.2018 11:49

            Вот и я об этом же.
            В случае с ИИ вопросы у вас будут ровно те же.


            1. Sychuan
              12.07.2018 22:52

              В случае с ИИ вопросы у вас будут ровно те же.

              Компьютеры сделаны из элементов, которые создаются на заводах инженерами и могут быть изменены как угодно. Например у них нет ограничения на занимаемое место. Суперкомпьютер может занимать целое помещение, например. Мозги не создаются инженерами и их нельзя менять произвольно.


              1. JustDont
                12.07.2018 22:54

                Компьютеры сделаны из элементов, которые создаются на заводах инженерами и могут быть изменены как угодно.

                Ну да. Но при чем тут компьютеры, вы ж про ИИ говорили.
                Параллель между ИИ и компьютерами в их нынешнем виде проводить всё же не стоит.

                Для создания мозгов инженеров пока еще не надо, но вот менять их уже довольно много возможностей (было б желание). Так что идти «улучшать архитектуру мозгов» технические возможности уже более-менее присутствуют.


      1. DGN
        12.07.2018 20:41

        Хмм… Локальный перегрев и последующий троттлинг можно считать утомлением? Задача обеспечения теплоотвода по мере уменьшения размера элементов встает в полный рост, и скорее всего чипы ИИ не будут давать возможность долговременного использования на 100%. Привет мозгу, работающему на сколько то там процентов.


        1. Ksiw
          13.07.2018 09:16

          Мозг в любое время работает на сколько то процентов не потому что может перегреться, а потому что разные зоны коры выполняют разный функционал.


    1. DGN
      12.07.2018 11:18

      Нет никаких предпосылок полагать, что, у автомобиля будет какая-то особая фора или какие-то преимущества перед лошадью, по крайней мере по началу.


  1. KvanTTT
    11.07.2018 22:17

    Очень странно читать такие статьи. Для шлифовки человеческого ЕИ природе потребовалось миллионы лет. А сколько существуют любые слабые формы ИИ, интернет, компьютеры или даже банально электричество? Ответ очевиден: на несколько порядков лет меньше.


    1. vasimv
      12.07.2018 02:37

      Творческий подход, по сравнению со случайным перебором — позволяет сокращать время для достижения цели на многие-многие порядки. :)


      1. JustDont
        12.07.2018 11:50

        Эволюция — это не случайный перебор.


        1. vasimv
          12.07.2018 19:15

          Вообще-то именно случайный. В основе лежит отбор мутаций, которые возникают случайным образом.


          1. JustDont
            12.07.2018 20:40

            Во-первых, мутации не вполне случайны. Это вам не random number generator.
            Во-вторых, эволюционный отбор уже не случаен совершенно.


            1. vasimv
              12.07.2018 22:14
              -1

              Мутации не случайны? Бог, что-ли, их направляет?


              1. JustDont
                12.07.2018 22:19

                Вы путаете отсутствие целеполагания со случайностью.


                1. vasimv
                  12.07.2018 22:23

                  Чтобы иметь отсутствие или присутствие целеполагания — надо чтобы присутствовал индивидуум, который действия какие-то совершает. В случае мутаций — таковой вообще отсутствует, они как бы сами по себе случаются, случайным образом.


                  1. JustDont
                    12.07.2018 22:30

                    Вот об этом я вам и говорю. Вы считаете, что отсутствие целеполагания — это то же самое, что и случайность. Некому ручками подкрутить — значит всё, «само» происходит, и совершенно случайно. Во-первых не «само» — мутации имеют вполне конкретные пути и механики появления, и далеко не все из них уходят в дебри квантовой механики (и далеко не все связаны вообще с ошибками копирования ДНК). А во-вторых — от «само» до «случайно» дорога тоже неблизкая.

                    Дождички по планете тоже «сами» идут, а вот над Сахарой куда меньше.


                    1. vasimv
                      12.07.2018 22:41

                      Вы какую-то чушь несете. Мутации — случайны, а эволюция, фактически — это просто перебор случайных вариантов, причем с довольно низкой скоростью, по сравнению с разумной творческой деятельностью.


                      1. JustDont
                        12.07.2018 22:42

                        Ну, вам виднее.


  1. yul
    12.07.2018 09:44

    По-моему, куда больше истерят, что ИИ добавит проблем, а не решит их.