Помимо этих двух причин, с реалистичностью которых можно поспорить, взаимодействие машины и человека позволит нам сохранить рабочие места. Первые два инструмента контроля в рамках инициативы PAIR (People + AI Research) как раз и были недавно анонсированы и предложены для широкого использования. Цель инициативы — подружить человека с ИИ в максимальном числе отраслей и сфер применения через совместную работу.
Инициатива Google представляет интерес для самой корпорации. Публично обсуждая инструменты взаимодействия с человека с машинами, компания получает в союзники и будущие пользователи своих решений представителей всех уровней, которые определяют будущее применение ИИ — ученых, отраслевых специалистов и пользователям. Особо интересует Google медицина, сельское хозяйство, развлечение и производственные решения. Эксперименты широкой общественности в этих сферах дадут корпорации новые удобные кейсы применения ИИ и подготовят потребителей к использованию новых приложений.
Во главе PAIR стоят Фернанда Вьегаш и Мартин Ваттенберг, которые специализируются на распознавании процессов, проходящих при обработке больших массивов данных. А это суть машинного обучения. Именно в неконтролируемом самообучении машин видят угрозу большинство футурологов. Надо вовремя увидеть направление мыслей машины. Для этого Фернанда и Мартин разработали два инструмента визуализации больших данных и планируют визуализировать процессы машинного обучения — Facets Overview и Facets Dive. Один предназначен для мониторинга функции, другой — для детальных исследований преобразования каждой части набора данных.
Разработанные инструменты способны улавливать аномальные значения функций, отсутствия типичных признаков и нормальных результатов, сбои тестирования и настройки. А главное — путем гибких настроек софт позволяет видеть шаблоны и структуры, неочевидные или не существовавшие изначально. Что для людей статистические обобщения, то для машин — основания для выводов, оценить обоснованность и приемлемость для человека которые они не в состоянии. Мы должны видеть какие шаблоны и «умозаключения» данных построила для себя машина, чтобы вовремя поправить ошибки — опасные или безопасные для нас.
Предыстория инициативы PAIR
Ранее в направлении формирования полезных людям кейсов Google уже соучредила с коллегами «Партнерство по искусственному интеллекту», внесла номинацию «человеко-ориентированного взаимодействия» в свою премию для исследователей, а также опубликовала рекомендации для разработчиков программ с машинным обучением.
Google выделила 7 типичных ошибок, которые полезно избегать при создании приложений, востребованных у конечных пользователей:
- Не ожидайте, что машинное обучение определит, какие проблемы решить. Ищите проблемы самостоятельно. Занимайтесь маркетингом раньше, чем сядете кодить.
- Подумайте, насколько оправдано решение задачи с помощью машинного обучения. Есть много математических и программных инструментов, которые работают проще, быстрее или точнее на узких задачах. Эвристический анализ может уступать машинному обучению по точности, но требует меньше времени и расчетов. Предположите, как задачу мог бы решить человек, каким путем вы могли бы улучшить его результаты для показателей каждого из 4 секторов матрицы ошибок, какие ожидания и стереотипы есть сейчас у пользователей сходных задач.
- Попробуйте изменить входные условия задачи и смоделируйте, как задачу мог бы решить человек, имитирующий мышление машины.
- Оцените возможные ошибки в алгоритмах, насколько они критичны для лояльности будущих пользователей. Ошибки могут приводить к одновременному росту частоты появлений ложных и истинных решений, так и наоборот — к сокращению всех решений вообще. Надо понять что важнее: полнота или точность, и найти баланс.
- Учитывайте что пользователи будут «умнеть» по мере привыкания к новым технологиям. Часть «глупых» алгоритмов надо вовремя отключить, иначе пользователи начнут раздражаться на их наличие.
- Используйте обучение с подкреплением, мотивируя пользователей ставить правильные метки и теги.
- Поощряйте воображение разработчиков на тему того, как пользователи могут применить и тестировать будущее приложение.
Комментарии (11)
panvartan
17.07.2017 11:53+1Вообще, идея создания искусственного интеллекта путем перетряхивания данных абсурдна. С таким же успехом можно было бы накидать в бетономешалку деталей от «бурана» с надеждой, что после непродолжительного вращения там соберется «тысячелетний сокол».
mad_god
17.07.2017 13:23-1Но ведь так и вышло? Миллиарды планет, миллиарды лет, в итоге разумный наблюдатель находится на той планете, на которой существует разумная жизнь.
Можно отсеять программы, которые способны на самосборку и получить класс программ, способных на самосборку в некоторых диапазонах, самосборку с вариациями,
Мне кажется, если собрать большой кластер из Raspery PI и следить за их зависаниями, можно отсеивать заведомо провальные варианты. Оставшиеся варианты можно пробовать комбинировать между собой.
Кроме того, можно идти одновременно и с другого конца, подготавливая части кода, которые кажутся правильными и нужными, чтобы не ждать их самопоявления.
Я имею ввиду, что можно построить нейросеть, которую может редактировать человек для своих целей, например, для построения необходимых взаимодействий, которые уже ему известны.
При помощи элементов нейросети можно строить уже готовые части кода, написанные на ЯВУ, просто человеку сложно залезать в глубь нейросети, если не построить либо прослойку, транслятор из нейросети в ЯВУ и обратно или не сделать удобный редактор, позволяющий выстраивать кластеры нейронов и их желательное взаимодействие ( фильтрацию, подбор паттернов, ассоциаций, конструирование паттернов, подбор функций для обработки потоков, написанные на языке нейросетей, перенаправление потоков)panvartan
17.07.2017 14:10+1Чтобы отсеять программы, способные на самосборку, необходимо написать программы, способные на самосборку. Неплохо бы, для начала, понять как работает самосборка. И сделать это надо не декларативно, а императивно. А на этом участке у человечества конь пока не валялся.
mad_god
17.07.2017 23:25Императивно — это же вроде по-старинке (mov ax,10 cmp ax,bx jne ptr), разве нет? Машина выполняет императивы, что приказал человек.
Декларативно — это «сделай мне как-нибудь так, чтобы в результате было хотя бы А, В, С но не Е)
Stalkeros
17.07.2017 16:36+2А мне нравятся кассы самообслуживания, будь тотерминал в Макдаке или кассы в Глобусе. Отдаю приоритет им.
norlin
17.07.2017 13:48-1самым перспективным способом развития ИИ для людей будет включение по умолчанию в машинные алгоритмы места для человека
А что помешает настоящему ИИ просто заюзать данные места?
frees2
Гугл не под своим брендом начал роботов продвигать. https://ai.google/pair
Несколько дней назад, в живую, в центре Европы, наблюдал занимательную сценку, очередь не шла в кассы «самообслуживающих касс», мужик менеджер приглашал, но его посылали на..., кричали лозунги, луддиты, Сер!
«Роботы могут начать войну, выпуская фейковые новости и пресс-релизы, подделывая учетные записи электронной почты и манипулируя информацией. Перо сильнее меча» Илон Маск
dimkss
Если не секрет, в центре Европы — это где?
32bit_me
пруф
frees2
RIMI Эстония, центр.
mindcaster
Интересно, чем они руководствовались. Я вот очень радовался, когда вместо живых людей пополнением моего телефона начали заниматься бездушные терминалы. Понимаю, что все люди разные, но это действительно удобно, и сейчас терминалами почти все пользуются. Так ведь, по идее, и с кассами.