image

Мой телефон научился понимать меня, но пока ещё не обладает интеллектом достаточным для того, чтобы понять чего я хочу. У нас уже есть для этого аппаратные и программные возможности – нет только возможностей социальных.

Персональная автоматизация пока находится на недоразвитом уровне. У меня на телефоне работает Google Now. Каждый месяц Google Now напоминает мне о необходимости оплатить счета, которые я уже оплатил. Он не видит, что я их оплатил, он просто видит полученное мною письмо и срок платежа. Я действую по привычке, и оплачиваю счета в последний день каждого месяца, даже если до срока платежа остаётся ещё несколько недель. И это самоё лёгкое из того, что мог бы выучить компьютер. Но это система без обратной связи, а значит – никакого обучения.

Недавно я прочёл пару отличных статей, посвящённых текущему состоянию разработки ИИ, проливших свет на эту проблему. Согласно им, текущий уровень персональной автоматизации можно обозначить, как «слабый ИИ». А мне необходимо обобщённый ИИ (ОИИ) для личных нужд. Но такого ИИ ожидать не приходится, и вот почему.

Зашоренный ИИ


Как и у большинства людей, мой телефон стал частью меня. Хотя я по многу часов в день использую настольный компьютер (с отдельными монитором и клавиатурой), довольно большая часть моей жизни проходит через сенсорный экран диагональю в 5,2". Google постоянно наблюдает за мной, но пока что он посвящён лишь в небольшую часть происходящего. Он видит ежемесячные уведомления о платежах, упомянутые мною ранее, поскольку я использую gmail, но он не следит за моим браузером достаточно пристально, чтобы знать, что я их оплачиваю.

В жизни всему происходящему необходим импульс. Если у моих платежей по счетам нет обратной связи, неудивительно, что я получаю устаревшие уведомления по их поводу. Это значит, что текущий уровень автоматизации не помогает, а только раздражает. Он не может следить за всем, что я делаю.

Как следить за человеком, чтобы не напугать его


image
Кайла постоянно слушает

Во многих культурах не принято глазеть на людей. То есть, то, можно или нельзя смотреть на человека, зависит от момента; существует максимально допустимый промежуток времени, в течение которого можно рассматривать человека; и определяющие эту игру правила меняются в процессе игры.

Тем не менее, практически все люди способны научиться в неё играть. Даже совершенно незнакомые вам люди способны распознать, когда вам нужна помощь, и нужно ли им предлагать помощь вам. Это краеугольный камень для развития персонального ИИ. И в то же время, это невероятно трудная задача.

Проще всего следить абсолютно за всем, что делает пользователь. Благодаря такому подходу мы получаем гораздо больше данных, но это пугающая практика, вызывающая тонны вопросов, касающихся этичности. Ещё никогда никто не подвергался постоянному наблюдению – для такого процесса не существует межличностной парадигмы. Существующие технологические парадигмы не справляются с такой задачей. Буквально в прошлом месяце власти Германии порекомендовали покупателям куклы по имени «Cayla» уничтожить находящиеся в ней микрофоны. Её микрофон всегда слушает, обрабатывает полученную информацию через систему распознавания речи, при том, что сам сервис расположен за пределами страны.

Что бы там вас ни пугало, неприкосновенность частной жизни – основная проблема на пути того, чтобы позволить системе следить за всем, что вы делаете. Утечка подобной информации будет золотой жилой для «кражи личности». Поймёт ли ваш ИИ, что он должен отключиться каждый раз, когда вы заходите в туалет, госпиталь, другое чувствительное окружение? Можно ли доверять ему в том, что он отключается в такие моменты?

Моё причудливое воображение уже рисует сценарий, в котором ваш ИИ становится таким умным, что начинает шантажировать вас (мысль, похожая на идеи Дугласа Адамса). Что более вероятно, когда ваш персональный помощник узнает вас достаточно хорошо и докажет, что может помогать вам более эффективно делать свою работу, он будет повышен до персонального менеджера. Будете ли вы в этом случае всё ещё эффективной командой?

Машинное обучение как социальная норма


image
Нейросеть Сета Блинга учится играть в Super Mario World

Машинное обучение – ключ к удивительным достижениям. Но если немного разобраться в том, как оно работает, сразу становится видна проблема. Машина может научиться очень хорошо играть в игры, но ей необходимо видеть все аспекты игры и дать конкретные параметры успеха, вроде очков или собранных предметов.

Чтобы персональный ИИ стал на самом деле полезным, ему потребуется почти неограниченный доступ к сбору данных через наблюдение за вашей повседневной жизнью. Но этим дело не окончится. ИИ не может раз за разом повторять прохождение вашего понедельника так, как это возможно с уровнем компьютерной игры. В данном случае для успешной работы машинного обучения алгоритму необходимо обмениваться данными по большому количеству людей, чтобы получить полезный набор параметров. Технически это бы сработало, но это была бы подсматривающая за людьми сеть эпического размера. Это уже не зловещая долина, а просто-таки сюжет фильма ужасов.

Мы уже сталкивались с проблемами при сборе такого количества данных. Соцсети – это машинное обучение без преимуществ ИИ. Миллионы людей публикуют, с их точки зрения, безобидную информацию о себе на бесчисленных платформах. Но обработка больших данных превращает эту безобидную информацию в предсказания о поведении сегментов популяции.

Если люди испытывают дофаминовый восторг от того, что делятся этими данными, как на них повлияет эффективный персональный ИИ? Он одновременно будет вашим другом, советчиком, доверенным лицом. Снимаю шляпу перед Чарльзом Строссом, обрисовавшим очень страшный вариант ИИ в романе «Accelerando». В книге ИИ принимает форму реалистичного робота-кошки. Очень легко недооценить абстрактный интеллект.

Даже при наличии доступа ИИ не может видеть


image
Проект Google «Inceptionism» выдаёт наркоманские картинки, но он всё-таки не понимает, на что он смотрит

Текущие технологии могут позволить создать объединённый набор данных, наблюдая за всем, что происходит на ваших разных компьютерах и мобильных устройствах. ИИ может записывать аудио вашей жизни. И даже записывать видео.

Но даже в случае обеспечения полного цифрового доступа к вашей жизни очень сложной задачей будет найти смысл в том, что вы делаете. Это не непреодолимое препятствие, но при нынешних технологиях такая задача однозначно потребует удалённой обработки данных на высоких мощностях. И такие попытки уже предпринимаются системами вроде Amazon’s Echo, Apple’s Siri, Google’s Allo, и детскими игрушками, такими, как упомянутая ранее Cayla и Barbie от Mattel.

Пока что распознавания видео не существует. Это передний край технологий (разработка робомобилей и военных роботов), и эта возможность скоро появится. Как и в случае с распознаванием голоса, уже появились сервисы типа Google Cloud Vision, зависящие от системы ограничений: ориентация предмета по отношению к камере, уровень освещённости, присутствие в наборе предметов для сравнения, и т.п. Но я не думаю, что в обозримом будущем подходящим источником данных для персонального ИИ станет надёжное компьютерное зрение.

И для нашей жизни это проблема. Откуда ваш ИИ узнает, с кем вы говорите? Не видя того, что видите вы, очень сложно собирать данные по контексту. Самым очевидным путём для реализации ввода таких данных было бы ношение камер типа Google Glass. Как закончился этот эксперимент, мы все знаем. Может быть, попытки Snapchat исправят эту ситуацию.

Чем бы мы могли обладать, но не будем


Хорошо, я написал уже достаточно жалоб по поводу проблемы. Если получится решить все эти проблемы, то что мне на самом деле хочется? Если кратко, то я хочу, чтобы мой интеллект дополняли.

Если я в разговоре с женой мимоходом обсужу мюзикл, готовящийся к выходу, я хочу, чтобы мой персональный ИИ запомнил это и сообщил о моменте начала продаж билетов на него. К тому же, я хочу, чтобы он знал, где мне нравится сидеть, сколько я готов платить, проверил мой календарь и календарь моей жены, чтобы выбрать идеальный день, и просто спросил бы у меня разрешения на покупку. Я хочу, чтобы он знал, что мы обычно сочетаем поход на шоу с ужином или с употреблением напитков, чтобы он изучил историю наших походов в рестораны и догадался, где бы нам больше всего понравилось посидеть на этот раз.

Но ещё я хочу сохранять тайну личной жизни. Я хочу оставаться человеком и жить своей жизнью. Так что я оторвусь от этих мечтаний о дивном новом мире и получу удовольствие от того, что имею: от доступа к информации, о котором нельзя было всерьёз мечтать 30 лет назад. Технологии продолжат своё развитие, и мы будем получать свои плюсы от этого. Но пока что эти технологии не могут наблюдать за нами достаточно полно, чтобы сделать ОИИ частью вашей повседневной жизни. Но люди будут пытаться это сделать, и о таких попытках всегда будет интересно почитать на GeekTimes.
Поделиться с друзьями
-->

Комментарии (16)


  1. T-362
    24.03.2017 13:08

    ИМХО на самом деле люди боятся не сколько того, что за ними следит ИИ, а того, что за ними следит чужой распределенный ИИ.
    Только полные идиоты будут доверять соц сети ключи от своей квартиры или рассказывать куратору из ФСБ самые сокровенные мысли, а сейчас все «ИИ» помощники вместо преданного семье дворецкого с строжайшим этикетом являются эдаким гопником-отморозком — гибридом соц сети и ФСБ — все что вы скажете будет потенциально просмотрено посторонними людьми и использовано против вас самым непредсказуемым образом.
    ИИ помощники «взлетят» только когда станут действительно персональными вместо нынешних облачно-распределенных (а для этого нужно наращивать вычислительные мощности).


    1. Neyury
      24.03.2017 15:06

      Давно уже представил как появится какой то открытый проект направленный на создание подобного ИИ-ассистента, которого можно будет развернуть на своем сервере, и которым можно будет пользоваться дома, на телефоне, на других устройствах и т.д


  1. Here_and_Now
    24.03.2017 13:27

    Отдайте гуглу ВСЕ данные о себе и он будет знать, когда отключить вам нотификации. Большинство к такому не готовы


  1. hdfan2
    24.03.2017 15:05
    +1

    Мой ИИ давно помер от скуки.


  1. glioma
    24.03.2017 16:18

    Зареган в нескольких соцсетях, на нескольких инфосайтах мониторю инфопоток, комментирую, и везде всё по разному, то за путина, то за навального, то за маска, то против маска, сегодня я за коммунистов, завтра я за олигархов, сегодня я бандеровец, завтра за НКВД. Можно ли предсказать моё поведение, проанализировать и мои предпочтения, желания и пр., не разрушаю ли я стройную систему слежки ИИ за мной?


    1. dimm_ddr
      24.03.2017 16:23

      Вы так спрашиваете, как будто сильный ИИ уже давно существует и за всеми следит. Так как официально это далеко не так, то остается два варианта:


      1. Заговор. Но в таком случае правдивого ответа вы можете не ждать и наверняка это понимаете.
      2. Сильного ИИ на самом деле нет. Очевидно что в этом случае ваш вопрос также не имеет смысла.

      Следовательно: что вы хотели узнать задавая ваш вопрос?


    1. oleg0xff
      24.03.2017 17:33
      +1

      Нет, не разрушаете. Важно не столько ваше отношение к чему-то, а то что Вы вообще этим интересуетесь. Например из вашего списка довольно очевидно что Вы интересуетесь политикой.


  1. glioma
    24.03.2017 16:27

    Смысл в том, чтобы генерировать как можно больше социального шума, дабы смущать работу любых систем по анализу поведенческих реакция человеческих масс, затруднить и размазать вероятностную характеристику поведения индивидуума. Не важно, кто следить, ИИ или ЕИ, пусть напрягаются.


    1. Al_Azif
      25.03.2017 05:49

      А можно просто жить, не «генеря» какую-то хрень, чтобы твой электронный помощник не шпионил за тобой?


  1. redpax
    24.03.2017 17:44

    Увы но видимо без постоянного слушания и видения того же что видит и слышит человек каждую секунду его времени ИИ не сможет нас хорошо понимать, мало того, что бы он понимал нас без контекста, он должен иметь опыт человека.


  1. perfect_genius
    24.03.2017 18:35

    «Мой» ИИ давно знает, что постоянно смотрю кино и хожу на кино. Поэтому угадывает на какой фильм хочу сходить при вводе уже одной-двух букв в омнибоксе Хрома.


  1. simple-simple
    24.03.2017 19:13

    А «мой» усвоил что я часто ищу картинки с котами )
    В итоге «окоторяет» другие мои картиночные запросы. Я в целом не против, но бывают моменты, когда меня это настораживает.


  1. Bbl1
    24.03.2017 21:15

    Показывает немножко не то на запрос «домашнее видео»?)))


  1. Contriver
    24.03.2017 23:20

    Только полные идиоты будут доверять соц сети ключи от своей квартиры

    «Поздняк метаться»
    Уже многие доверяют видеонаблюдение и сигнализация облаку, замки без ключа будут там же, а после очередного взлома сбоя облака, всем вставят… чип в мягкое место руку.
    Хотя нет до чипа ещё далековато, будем пока сканировать по радужке глаза, деньги в банке выдавать по голосу,+ фото лица. Ведь надо же как то собирать данные и на тех кто не в сети(50+, бабушки, дедушки).
    Ну ведь согласитесь с одной стороны удобно же, человек ленивое существо, а лень как известно двигатель прогресса.
    Так что получите распишитесь,(биометрический паспорт, пожизненный ip-адрес, постоянный номер телефона), а то искуственный интеллект перегревается в подводном датацентре, много вас — за всеми следить надо.
    А как устанет перегреется искуственный интеллект, так найдёт он решение — проредить население до золотого миллиарда.
    А квантовый компьютер пока ещё в стадии зародыша в женской половой клетке, лет через 9 может и родиться!


    1. dimm_ddr
      27.03.2017 11:58

      Хотя нет до чипа ещё далековато

      Ну почему-же. Уже здесь: за рубежом и наши


  1. vikarti
    25.03.2017 13:25

    Вопрос в том, в чьих интересах ИИ действует в первую очередь? Владельца? Корпорации, создавшей его? Государства (при условии получения ордера или без такового), кстати а какого именно государства и что если у владельца другое гражданство? Что должен ИИ делать если знает что владелец хочет сделать что-то незаконное? (И насколько оно должно быть 'незаконным', убивать можно? А планировать убить кого то? А авторские права нарушать? писать $president_name — под суд за ...? Писать (и выкладывать куда-то) художественное произведение в котором например Гитлер — умирает таки не после поражения Германии в ВОВ и остается у власти, независимо от 'мелких деталей'? Продавать произведение где ГГ совершает самоубийство — способ более менее подробно расписан, и все кто в курсе именно так это и расценивают, (независимо от 'мелких деталей')?)

    Пока это не решено — будут серьезные вопросы с доверием.
    Сейчас считается нормальным что Гугл мониторит gmail на наличие конкретных изображений и при наличии таковых — в итоге и в полицию данные уйдут но от мониторинга более других изображений или например текстов запрещенных нас отделяет что — этические устои руководства Гугла? Законы США(которые не всегда даже в отношении их собственных граждан соблюдаются а как насчет других стран)?

    Нужна возможности такие вещи хостить у себя. На полностью своем железе. Или хотя бы система, позволяющая гарантировать что если данные не на личном железе пользователя — то к ним БЕЗ разрешения пользователя данные не получить (у MS есть Shielded VM, которые в теории могут такое гарантировать, точнее смогут когда все баги исправят — смотрим например к https://habrahabr.ru/post/315972/ комментарии, но это просто решение проблемы где хостить а не что хостить).
    Apple по крайней мере пытается что-то делать с их differential privacy и заявленным подходом что Siri по возможности старается не сливать данные на сервер если вообще можно их обработать локально, пусть даже из-за этого проблемы с интеграцией.

    С другой стороны, если эти вопросы НЕ стоят по какой то причине то такой ИИ может быть очень полезен. Вот как Вспоминается вот Сергей Снегов с его трилогий «Люди как боги» (но там коммунистическое общество). На Земле как раз такая система стоит, для надежности — она вообще мысли читает а также отслеживает вообще все действия (да, от излишней защиты можно и отказаться). И действует на основании прочитанных мыслей — в тексте прямо приведен пример когда Охранительница посчитала одну из идей ГГ интересной и в итоге ее все человечество обсуждало а ГГ даже не знал об этом, узнал когда приняли проект. И люди нормально к таким вещам относятся, зная что ну не будет злоупотреблений.