Специалисты по безопасности скептически относятся к понятиям «умный дом» и «интернет вещей». Производители норовят собрать побольше данных о пользователях, что чревато утечками. Недавно Amazon отправила по неверному адресу 1700 разговоров одного пользователя с домашним помощником Alexa.
Это единичный случай, но Amazon сохраняет аудиозаписи на своих серверах, как и Google. Домашний помощник вроде Amazon Echo и Google Home — это полноценный жучок, который пользователь сам устанавливает в доме, добровольно соглашаясь на прослушку. Пока нет доказательств, что такие устройства ведут запись без произнесения слова-триггера, но технически ничто не мешает им это делать.
Project Alias призван изменить положение вещей и вернуть контроль людям.
Project Alias — технологический эквивалент грибка-паразита, который живёт на чужом теле. И это очень полезный «паразит», потому что он выступает защитником для своего истинного хозяина, то есть человека. Alias блокирует передачу информации в адрес корпораций Amazon и Google, заглушая микрофоны хоста.
Инструкция по сборке опубликована на сайте Instructables, а программный код выложен на Github.
Для установки понадобятся:
- одноплатный компьютер с операционной системой Raspbian, достаточно Raspberry Pi A+;
- подключаемый модуль ReSpeaker 2-Mics Pi HAT с микрофонами;
- динамики Tiny Speaker 16mm;
- карта Micro SD, аудиокабель, провода и четыре шурупа;
- доступ к 3D-принтеру для печати крышки и держателя.
В сети опубликованы 3D-модели крышки для Google Home (stl) и Amazon Echo (stl), а также 3D-модель держателя динамиков (stl).
Следующий этап — сборка Alias. Она включает в себя подключение динамиков к модулю ReSpeaker и подключение питания 5V к Raspberry Pi (припой прямо на GPIO).
После сборки начинается программная часть:
- Скачать последнюю версию Raspbian на micro SD.
Скопировать файлы ssh и wpa_supplicant.conf из папки проекта, отредактировать последний в соответствии со своими настройками WiFi.
- Установить звуковой драйвер для ReSpeaker.
cd && git clone https://github.com/respeaker/seeed-voicecard.git cd seeed-voicecard && sudo ./install.sh
- Установить Tensorflow и Keras.
sudo apt-get install python3-dev python3-pip git libatlas-base-dev sudo pip3 install tensorflow keras
- Установить остальные необходимые модули.
sudo apt-get install python3-numpy python3-spidev python-h5py sudo apt-get install python3-pyaudio libsdl-ttf2.0-0 python3-pygame sudo pip3 install flask flask_socketio python_speech_features
- Клонировать проект Alias.
git clone https://github.com/bjoernkarmann/project_alias.git
- Установить загрузочный скрипт и перезагрузить Raspberry Pi.
Затем нужно обучить Alias распознавать своё имя, оно может быть произвольным (любой звук менее 2 с). Разработчики пишут, что достаточно 4?6 раз записать имя на телефон и нажать кнопку Train Alias.
При желании, потом имя можно будет поменять.
И это всё. В дальнейшем Raspberry Pi самостоятельно выполняет распознавание речи, а голосовой помощник больше не реагирует на стандартное имя (например, Алекса) и не отправляет никаких данных в облако Google/Amazon.
Авторы проекта — датские разработчики Бьорн Карманн и Торе Кнудсен.
Производители таких гаджетов считают покупателя просто пользователем продукта, а не истинным владельцем. Возможно, они попытаются через юристов запретить модификацию гаджетов, считая их своей интеллектуальной собственностью. Но согласно законодательству многих стран купленный товар становится полной собственностью покупателя, и он имеет право делать с ним что угодно.
Глядя на этот проект, возникает вопрос: а зачем вообще покупать Amazon Echo и Google Home, если распознавание речи выполняется на Raspberry Pi с Tensorflow и Keras? Разве что в качестве подставки…
Присоединяйтесь сегодня к множеству разработчиков и инноваторов в сфере интернета вещей Управляйте различными IoT-устройствами на основе PKI с решениями от GlobalSign.
DrZlodberg
То есть они сделали свою умную колонку из гугловской/амазоновской выкинув оттдуа оригинальную умную колонку? По описанию именно такое впечатление…
Inanity
Нет, они сделали навесной блокиратор, не внося изменений в оригинальное устройство (так то можно было бы микрофоны внутри колонки отключать). Он транслирует запрос, когда слышит своё слов-триггер и шумит в микрофоны колонки во всех остальных случаях.
ToSHiC
А заодно существенно ухудшили качество распознавания, ведь в оригинальной колонке не просто так несколько микрофонов. Они пытаются формировать «луч», улучшая таким образом показатель сигнал/шум.
sHaggY_caT
А никто не знает, существует ли опенсурный аналог, который бы хорошо работал с Linux PC, но подключался не к облаку, а работал локально? Вроде Cortana/Siri, но не Amazon echo на устройстве — что гуглила, вроде заточено на установку на Raspebery Py. А на компе и мощность выше…
Gugic
А смысл? Распознование речи — это даже не десятая часть функционала этих колонок. Самое главное там — «natural language understanding» — распознование намерений, так сказать, и диалоговые штуки. Эти колонки локально только wake up word отрабатывают, остальное все происходит на гигантских фермах где-то в облаках при содействии петабайт баз данных. Этого локально не организовать.
Dveim
Вот именно это snips.ai (который я ниже упоминал) делает. Полноценное оффлайн распознавание речи, работа на девайсах вплоть до MCU, ну и продвижение с точки зрения «защиты ваших персональных данных».
Disclaimer: я там работаю.
Gugic
Потыкал, интересно, спасибо. Можно делать робота с командами «убить всех человеков».
Похоже многое взяли у Dialogflow/Api.ai.
В общем понятна целевая аудитория этой штуки, но есть нюансы. Например у вас очень мало встроенных типов. «Листовых» встроенных типов похоже вообще нет. И как бы ясно конечно что листовые типы любые пользователи могут сами объявлять и что есть волшебное автоматическое расширение, но…
Там куча проблем. Например вы делаете музыкальный проигрыватель для индии. В индии скажем 15 миллионов исполнителей (на самом деле должно быть больше) и у вас даже есть соответствующая библиотека с музыкой. Гл чтобы все работало хорошо — вам нужно всех их загнать в тип и желательно снабдить синонимами (это чтобы разворачивать «RHCP» в «Red hot chili peppers» во время запроса). Какое железо нужно чтобы натренировать модель с этим типом, а какое нужно чтобы поместить ее в память на клиентском устройстве? А если полагаться на авто расширение контекстное то начнутся разные приколы с опечатками, неполными названиями, отсутствием синонимов, путаница с между названиями треков и исполнителями (этого и с соттветствующей разметкой не избежать, конечно).
Встроенные типы тут не спасут, но в менее клиническом случае помогли бы, т.к. они не являются частью непосредственной модели, и их можно очень сильно заоптимизировать. Но опять же — как их в вашем кейсе обновлять? И в целом тут спасет только облако на сегодняшний день.
А небольшие случаи с управлением внутренностями машины или умным домом должны хорошо работать. Было бы качество.
И я так понял — модели тренируются только онлайн?
Дисклеймер:… а ну его.
Dveim
Про целевую аудиторию: сугубо с моей персональной точки зрения, это либо те, кому нужна полная автономность (т.е. встраиваемые устройства и десяток-другой команд), либо те, кому хочется потратить свое время и полностью контролировать то, что происходит при голосовых командах.
Есть «магазин приложений», где можно взять уже готовые модели, созданные компанией либо обычными энтузиастами. Как раз пример с музыкой на сегодня существует (не уверен, в публичном ли уже доступе), проиндексировано порядка пары тысяч композиций.
То есть, говоря о втором примере целевой аудитории, предполагается такой конструктор, где можно как собрать всё самому с нуля, так и загрузить уже предоставленное кем-то, что сильно снизит трудозатраты.
Вопрос про обновление, действительно, мне видится самым больным. Работа полностью оффлайн накладывает сильные ограничения. Даже для банального «какая погода сейчас в Париже?» надо иметь доступ к интернету, пусть само NLU и происходит оффлайн. Да и музыку просто так не запустить, даже если точно понять, что именно надо запускать — нужна интеграция с проигрывателем. Работы в этом направлении тоже ведутся, но тут я не могу сказать больше.
Второй козырь (помимо оффлайн работы) — работа с персональными данными. Они никуда не утекут просто потому, что не могут (оффлайн же всё). Насколько это важнее потенциально более удобного использования условной Алексы — решать каждому самому. В моем понимании, «в светлом будущем» Snips видит себя как полноценный игрок на рынке голосовых помощников, за счет магазина типичных приложений, а также интеграции со сторонними железками типа колонок, телевизора, стиралки и тд.
И про тренировку моделей онлайн: сейчас проверяется работоспособность federated learning для распределенного обучения непосредственно на устройствах, proof-of-concept работает.
sHaggY_caT
Вы не забывайте, что на огромную ферму приходится огромное количество юзеров. А мощность десктопов в последнее время (благодаря возвращению AMD на рынок) выросла довольно существенно, и как раз в количестве ядер. Плюс на каждом втором десктопе мощная видеокарта. На ультрабуках, впрочем, наверное, такое и правда будет неудобно запускать — будет включать кулеры и жрать батарейку слабыми U-ядрами
Gugic
Мы же о работающем ассистенте сейчас говорим? Частью intent recognition является работа с сущностями, которые в этом интенте теоретически могут присутствовать. Даты, время, коды аэропортов, локации, имена, названия музыкальных групп и фильмов, справочник телефонов организаций в своем и чужом городе, личные предпочтения на аккаунте (как без них реагировать на простое «включи что-нибудь веселое на колонке» — cradle of filth запускать или большого русского босса, или вообще имелся в виду условный акинатор и на какой именно колонке тоже может быть не всегда понятно).
Это все нереальные цифры объема информации, которую надо где-то взять, нормализовать, актуализировать, разметить, поддерживать и перелопачивать при запросе.
Да, там огромное количество юзеров, но это не единственное и не главное препятствие для локального развертывания.
Ну это если про «вроде cortana/siri» говорить. Штуки попроще вроде базового home automation на четыре лампочки и один кондиционер вообще можно безо всякого nlp делать, простыми голосовыми командами (гугл — voice control application pc offline, это не ресурсозатратно).
sHaggY_caT
Это может коммюнити предобучать и предъиндексировать, и выкладывать как приложение
А это можно тренировать в фоне, когда ПК не загружен, вместо скринсейвера
BalinTomsk
Теперь нужна шапка поверх шапки поверх ассистента.
И так далее…
Как минимум 3-4 шапки нужно, иначе это не дебиловатая паранойя, а так, детский лепет. :)
amarao
Они сделали локальный фильтр. Упор на слово «локальный», без передачи звука на сторону.
kahi4
Я понимаю, open source и все такое, но недавняя практика использования npm показывает, что было бы желание — просочить вредоносный код можно, а в связи с этим идея выглядит как "перестаньте сливать данные гуглу и амазону, а начните сливать их третьим, неопределенным, лицам". Или я слишком паранойик?
staticmain
Посмотреть открытый код для распберри на предмет слива?
Konachan700
Там суммарно сотни миллионов строк, если не миллиарды. На десятке ЯП. Миллионы раз используется магия, во многих местах хайлевельная математика, использование результатов реверсинга и прочие непонятные обывателю штуки… Плюс этот массив кода непрерывно меняется. Такой аудит попросту нереален.
staticmain
alex@alex-thinkpad-l560:/tmp$ git clone https://github.com/bjoernkarmann/project_alias.git
Клонирование в «project_alias»…
remote: Enumerating objects: 128, done.
remote: Counting objects: 100% (128/128), done.
remote: Compressing objects: 100% (71/71), done.
remote: Total 508 (delta 79), reused 69 (delta 57), pack-reused 380
Получение объектов: 100% (508/508), 38.49 MiB | 812.00 KiB/s, готово.
Определение изменений: 100% (231/231), готово.
Проверка соединения… готово.
alex@alex-thinkpad-l560:/tmp$ cd project_alias/
alex@alex-thinkpad-l560:/tmp/project_alias$ cloc .
33 text files.
31 unique files.
44 files ignored.
http://cloc.sourceforge.net v 1.60 T=0.17 s (150.4 files/s, 11647.0 lines/s)
-------------------------------------------------------------------------------
Language files blank comment code
-------------------------------------------------------------------------------
Javascript 15 130 86 700
Python 7 145 166 451
CSS 2 15 0 162
HTML 2 18 3 137
-------------------------------------------------------------------------------
SUM: 26 308 255 1450
-------------------------------------------------------------------------------
Konachan700
Это сам проект. Но он тянет зависимости из того же npm, и вот там уже печаль. А если копнуть глубже, то и сам линукс тоже имеет огромную кодовую базу… В итоге даже если очевидной закладки нет, оставленные специально или случайно дыры в любом случае будут в изобилии, просто широкая общественность о них пока не знает.
geher
Вопрос использования чужих программ и устройств всерда упирается в доверие к их создателям. Причем речь не только о злых намерениях, но и о способности создателей предотвратить воплощение в их продукте злых намерений третьих лиц. И это никак не связано с открытостью исходников.
Единственный плюс открытого исходника в этом вопросе — возможность провести аудит кода на предмет закладок и уязвимостей не только спецслужбам.
Кроме того, сливать данные Гуглу и Амазону, как показывает реальная практика, в итоге тоже означает сливать их третьим неопределенным лицам.
Если рассматривать данное устройство, то определенная польза от него все же есть. И риски утечек несколько ниже, чем на голой колонке.
Во-первых, возможен аудит всего кода проекта, включая ОС на RPi (за исключением некоторых вопросов к самой RPi).
Во-вторых, если не оставить устройстау выхода непосредственно в сеть, его взлом будет возможен только при физическом доступе к нему.
Естественно, остаются вопросы потенциальных закладок в RPi и модуле с микрофонами.
Но если без устройства однозначно понятно, что Гуглоамазону сливается все, то с ним есть шанс, что часть времени ничего записано не будет.
DerRotBaron
Если я правильно понимаю, эту штуку вполне возможно убрать за фаерволл, который не выпустит её в сеть вообще, а через колонку у неё будут большие проблемы с обратным каналом связи, точнее с очевидностью для владельца его наличия, даже если она сможет через прямой что-то передать.
Nick_Shl
Можно… а еще можно отключить WiFi и ваш зловред даже если запишет все разговоры, то передать злоумышленнику их не сможет.
kozar
После установки нужного софта, у raspberry можно отобрать доступ в сеть. Даже сменить пароль на точке доступа. Ну или закинуть туда пакеты через SD карточку/по USB. Как он тогда сольёт что-то? Разве что гуглу/амазону
настучитнашепчет втихаря от вас. Но если они не в сговоре, то вы все эти запросы в истории того же гугла увидите.lair
А много той речи распознает "Raspberry Pi с Tensorflow и Keras" помимо собственного имени?
Miharus
Может откликнуться кто нибудь кто эти колонки в реальной жизни использует? Пока что я встречал только случаи, когда кому-то прислали из Штатов, человек поигрался и все. Я просто делаю интернет радиоприемники, без голосового помощника, иногда подумываю, а нужен ли он там?
abyss
У меня Google Home Mini с интеграцией в умный дом. В целом умный дом заточен на полную автоматизацию, а голос для оставшегося. По факту в основном использую для выключения света, включения компьютера или робота-пылесоса. В перспективе ещё добавлю включение сцен умного дома, типа режима просмотра с проектора.
Умными фишками не пользуюсь, но тут частично дело в том, что русский ещё не завезли полноценно, а английский неожиданно оказался не особо удобен для меня.
В целом доволен, но просто как ещё один способ управления умным домом.
Про радиоприёмники и прочий фоновый шум: не очень то работает при включенной музыке, т.е. включать можно, но потом проблема. С расстоянием тоже не всё отлично, метра 3 и всё, надо голос повышать, а результат не всегда хороший
Ganster41
Пользовался связкой Google Home Mini + Chromecast, недавно взял еще Google Home Hub в спальню. Как минимум, оно с успехом выполняет функции мультимедийного комплекса с голосовым управлением. Причем, каждый член семьи получает персональные результаты, на тот же запрос «play music».
Периодически пользуюсь в качестве персонального ассистента, для напоминаний/заметок, а теперь и будильника. Хотя с этим вполне справляется и телефон.
Из умного дома пока только пылесос… съемная квартира накладывает ряд ограничений на возможности интеграции, хотя уже подумываю над поиском решений)
kAIST
Мне жена подарила irbis с Алисой, а потом отобрала на кухню )
Музыку удобно ставить, что нибудь спросить, таймер поставить и пр. Теперь хотим уже Яндекс станцию в гостиную.
kost
Все знакомые пользуются (в США).
Дети знакомых просят Alexa поставить музыку, например.
У меня лежат Amazon Echo и Google Home Mini — не подключаю, паранойя.
kobiak
Отличный девайс для рутин:
— пришел домой, заиграла музыка
— ушел, музыка перестала играть
— попросить играть музыку (тут еще дело в подписках к примеру на youtube premium)
— таймер
— найти рецепт
— включить быстро youtube на тв какой либо ролик
— рассказать погоду по моему маршруту на работу (я на велике 16 км езжу)
это лишь то, что я использую каждый день.
Ganster41
Как такое реализовать? Или имеются ввиду встроенные рутины, активирующиеся по голосовым командам?
kobiak
встроенные рутины + у меня home assistant и device_tracker, которые отслеживают мой телефон по двум параметрам (подключился к wi-fi и bt)
Mobile1
Вроде есть такой скилл в связке через IFTTT
Mobile1
В Алексе есть куча радиостанций — через Tunnln, еще какие-то сервисы там есть.
Просто говоришь какое радио включить и все.
Есть русские станции.
Поэтому Алекса — конкурент и интернет-радиоприемникам, за счет легкого управления голосом.
boblenin
Мы используем Alexa. В качестве игралки музыки, будильника, напоминалки, таймера, интеркома, телефона.
CryptoPirate
На устройстве обычно распознается только слово триггер, а не любая речь.
nafikovr
ну прикрутить тот же яндексовский api и радоваться жизни, не?
lair
И радоваться тому, что данные сливаются в яндекс, а не в амазон/гугл? Ну да, хороший выигрыш.
(кстати, какой конкретно яндексовский API?)
nafikovr
выигрыш в том, что при прочих равных не нужно покупать эхо в качестве подставки.
lair
Это если "прочие" — равные, в чем пока нет уверенности.
nafikovr
напомню вопрос, зачем нужна подставка в виде эхо/хоумпода, в случае описанном в статье, когда есть распбери.
lair
… затем, что у эхо/хоум больше функциональности, чем у описанной в статье малинки?
nafikovr
а что, стороннее приложение не может отправлять запросы той же алексе?
lair
Насколько я знаю — нет, не может.
nafikovr
вот тут что то есть
circuitdigest.com/microcontroller-projects/raspberry-pi-amazon-echo
lair
Вы шлете туда голос. Поэтому все проблемы конфиденциальности данных остаются (ну разве что вы немножко лучше контролируете, когда она включается). Плюс, вы не можете пользоваться этим сервисом просто так, вам нужно партнерство с Амазоном — и это вряд ли дешевле, чем просто купить Echo.
nafikovr
а девайс из статьи не шлет туда голос?
lair
Малинка? Нет, не шлет. Сама умная колонка — шлет, конечно.
Но непонятно, в чем выигрыш, если пользоваться тем же самым сервисом.
Wesha
Выигрыш в том, что обычно злые дяди из трёхбуквенного агентства могут вежливо попросить Амазон удалённо включить микрофон Вашего устройства, и писать все звуки в вашем доме подряд — например, как Вы с женой обуждете устройство суперсекретного бульбулятора с лазерной накачкой, — а не только Ваши поисковые запросы. А "грибок" служит фильтром: когда узнаёт ключевое слово — пропускает следующие надцать секунд звука на
ЮстасуАлексу, а всё остальное время прилежно шипит в её микрофоны.(Кстати, интересный вопрос — а не обвалит ли десяток часов белого шума амазоновские сервера?)
lair
Вы сейчас объяснили, в чем выигрыш от использования грибка, но не самодельного устройства.
Неа, не обвалит. Почему бы?
nafikovr
на самодельном устройстве никто не мешает сделать программный «грибок», который будет пропускать через себя стрим с микрофонов только в определенных случаях
lair
… и через недельку-другую обнаружить, что ваше устройство заблокировано в AVS за нарушение Program Terms (причем не важно даже, есть там такой дословный пункт, или нет)
nafikovr
обоснуете?
заодно ответьте на вопрос чем программное отключение микрофона принципиально отличается от варианта упомянутого в посте? кстати в amazon echo есть выключатель микрофона.
lair
А чем обосновывается утверждение "злые дяди из трёхбуквенного агентства могут вежливо попросить Амазон удалённо включить микрофон Вашего устройства, и писать все звуки в вашем доме подряд"? Вот и мое предположение, что Амазон может отключить неудобного ему пользователя сервиса (особенно если этот пользователь ничего не платит), основано приблизительно на том же.
Тем, что автор самопального устройства, используя AVS, обязан соблюдать Terms and Conditions разработчика, а владелец — Terms and Conditions пользователя.
nafikovr
вот только в обоих случаях на микрофон не будет поступать «полезной информации», так что разницы нет.
lair
Нет разницы для кого и в чем? В механизмах воздействия Амазона на "пользователя" — есть.
nafikovr
допустим амазон дает команду «включить прослушку» и в обоих случаях получает не прослушку, а условный белый шум.
lair
Вот только в том случае, если это "честная" Алекса, он ничего особо больше сделать не может, а в случае, если это самопальный девайс — отключит девайс к чертям, вместе с эккаунтом разработчика, и все. Чтобы неповадно было. Амазону-то одинаково, он в обоих случаях ничего не получил, а вот пользователю девайса — больно.
eugene08
У амазона сервисы для speech recognition и natural language understanding (Lex, Polly, Transcribe) открыты для всех — вы можете сделать свою умную колонку с блекджеком уже сейчас, никак повлиять или даже узнать что происходит в конкретной комнате не смогут, пока не вы не послали запрос.
lair
Вот только не бесплатны.
… и сколько времени и усилий понадобится на то, чтобы повторить уже существующую функциональность Алексы? Особенно в части интеграции с другими устройствами?
Речь же не о том, что это принципиально невозможно — речь о том, насколько просто заменить Alexa Echo или Google Home в нормальном использовании.
eugene08
Нет, а должны?
Я похоже не очень понял ваш вопрос, но попробую ответить — вы можете сразу строить аналоги «alexa skills», не заморачиваясь с распознаванием речи/тренировкой ии, настройкой инфраструктуры под все это — уже упрощено настолько насколько возможно. Естественно, это не для всех — нужны знания/умения и некоторое время.
Сделать такую умную колонку для одного гика сейчас — вполне вполне по силам самому, лет 5-10 назад — практически нереально — отличный прогресс, вы не находите?
lair
Да нет, просто надо не забывать включать эту стоимость в расходы на свое решение.
Мне не нужно строить аналоги, мне нужно, чтобы существующие работали. Чтобы далеко не ходить, вот стоит у меня на кухне Anova Precision Cooker, который прекрасно работает через Google Home и Alexa. Что мне нужно сделать, чтобы все то же самое заработало из моей самописной умной колонки? Или, допустим, я хочу, чтобы моя умная колонка понимала команды, связанные с моей учеткой в Google Music (типа "play radio Wood Works") — как это сделать?
Построить диалоговый интерфейс — (сравнительно) несложно. Сложно сделать небессмысленную интеграцию.
Нахожу.
nafikovr
лишь сделать так, чтоб эта умная колонка работала с сервисами Alexa (ну или гуглхоум). Дальше Alexa сама все сделает, так же как и если бы команда поступила от Echo.
lair
Что противоречит предложению выше по треду использовать сервисы ASR/NLU без использования Алексы.
Колонка, работающая с сервисами Алексы, обязана соответствовать требованиям этих сервисов, а это не то, чего бы хотелось параноику, который заглушает микрофон на колонке белым шумом.
nafikovr
а где то есть доказательства того что другие сервисы амазона не будут так же передавать данные если их запросят?
lair
Нету их нигде, понятное дело.
nafikovr
ну значит и профита нет. значить нужно лишь не быть параноиком и считать что никому твои данные не сдались. ну разве что пойдут в обучение
lair
Ну вот и я говорю, что профита нет.
А вот тогда можно просто купить Echo и не страдать фигней. О чем и была речь изначально.
Wesha
Вы забываете про фактор времени.
Вчера школьные фотографии Вовочки действительно никому нафиг не сдавались. А вот сегодня...
А теперь представьте, что к некоторому Васечке через 20 лет подходят добрые дяденьки с нерусским выговором, показывают ему пачку фотографий с корпоратива 25-летней давности, на которых он спит спокойно с лицом в торте, и вежливо интересуются, что он готов сделать, чтобы эти фотографии не попали в руки его противников по избирательной компании на некий государственный пост.
Wesha
Ну, Вы как хотите, а я себе буду делать только хардкор, только аппаратный выключатель, разрывающий
пасть львуцепь.Wesha
читательпо-ссылкам-ходитель?lair
Да не, чукча просто считает, что такие смешные ошибки случаются реже, чем хотелось бы.
Wesha
У меня для Вас плохие новости: согласно моему опыту, всё ещё хуже.
lair
То есть оно еще реже происходит, чем мне бы того хотелось?
Wesha
"Если бы строители строили здания так же, как программисты пишут программы, первый залетевший дятел разрушил бы цивилизацию."
nafikovr
вообще странно, если нет доступа для сторонних приложений, так как ключевой продукт сервис, а не железка, которая дает к нему доступ
lair
Для кого ключевой продукт "сервис"? Для Амазона? Я бы не был так уверен. На железках проще зарабатывать.
nafikovr
железку вы продаете один раз. а от сервисов получаешь деньги постоянно. когда кто то через алексу заказывает пиццу, вызывает такси, слушает музыку по подписке и тп, амазон получает свою копеечку. чем больше девайсов работают с алексой, а не с гугл ассистентом/алисой — тем лучше амазону.
lair
Вопрос в том, насколько эти копеечки окупают сервис — особенно учитывая, что подписочные сервисы (типа Prime Video) прекрасно работают и без алексы.
Wesha
Стотыщмиллионов копеечек лучше, чем миллион долларов.
lair
Только если эти копеечки есть.
nafikovr
вы всерьез думаете что продавая подобный девайс за ~$100 можно заработать что то кроме тех же копеечек?
lair
Я всерьез думаю, что пока нет цифр от амазона, сложно что-то утверждать. В частности — по моему личному опыту — поддерживать публичный сервис ощутимо дороже, чем просто продавать железки, которые работают с закрытым сервисом.
nafikovr
ну да, закрытый сервис. заходим в плеймаркет и ставим алексу на любой телефон с андроидом. с иос думаю ситуация та же.
lair
Я не говорил, что Алекса — закрытый сервис, я говорил, что публичный сервис дороже в поддержке.
Mobile1
Ну как это не может?
Мы давным давно встроили Алексу в мессенджер, даже статья об этом на Хабре есть:
Управляем сотнями разных устройств умного дома голосом и текстом со смартфона. Alexa Echo в мессенджере
lair
Ну значит, я был не прав. Три вопроса, тем не менее:
Mobile1
Конечно, напрямую с AVS, ведь он изначально открыт и бесплатен для разработчиков. Амазон поощряет, постоянно проводит вебинары…
Да, конечно.
Вы и сами можете убедится с этом скачав и установив наш мессенджер.
А в вышеупомянутой статье написано как делается текст.
Сейчас поддержка Алексы только на Андроиде и iOS, десктопы еще не сделали.
Мы кстати и Алису обучили всем навыкам Алексы — вот статья об этом:
От лампочки до пылесоса и дрона — как мы научили Алису управлять сотнями устройств
Да, конечно, за подписью самого Безоса. Показать?
lair
Я вот пошел и прочитал эту статью третий раз, но так и не нашел в ней рассказа про то, как это делается — только скриншоты интерфейса, и даже с этой оговоркой там есть только "часто вызываемые команды", а не полноценный диалог.
С помощью какого API AVS вы делали текстовый диалог с пользователем?
Ссылка ведет на список ваших статей, а не на конкретную статью. И здесь мне тоже интересно, как вы программно вызываете Alexa Skills, учитывая что Skill Messaging API требует поддержки со стороны скила.
Да, пожалуйста.
Mobile1
Там просто в том же окне набираете команду для алексы и все.
Как объяснить, я даже не знаю…
Вот вы мессенджером каким-нибудь пользуетесь?
Вы пишите в определенном поле слова — верно?
Так же и здесь:
Вот там где введите поисковый запрос, туда команду надо ввести и нажать маленькую иконку микрофона справа (естественно предварительно подключив аккаунт) — мне кажется что там все предельно понятно…
А статья про Алису вот:
habr.com/ru/company/mobile_one/blog/419467
Но в самом блоге она тоже есть, почему-то неправильно ссылка присоединилась…
lair
А где ответы Алексы в текстовом виде? Как выглядит multi-turn interaction?
Одно непонятно (и я этот вопрос уже задавал, могу повторить): через какое API вы шлете AVS текстовые команды и получаете текстовые ответы?
Таки я пошел и прочитал, и мой вопрос остался неотвеченным: как вы программно вызываете Alexa Skills?
Mobile1
API используется стандартный, зарегестрируйтесь на Амазоне как девелопер и у вас такой же будет и вы точно также сможете свой софт ваять, нет никаких левых методов…
lair
А конкретнее? Можете показать, какой метод вы вызываете? А то я даже интерфейса подходящего найти не могу.
Mobile1
Нет, не могу.
Именно с текстом провозились, хотя сейчас это может быть легче.
Все там есть, ищите, делайте.
Мы не опенсурс проект.
P.S. Зарекался на Хабре комменты не писать, но по Алексе не выдержал.
Результат не заставил себя ждать — минусы в комментах.
Я принципиально никому на хабре не поставил ни одного минуса, а тут даешь инфу, тебя еще и минусуют, мда…
Тут вообще вопросы у товарищей такого плана:
— Дайте воды попить, а то так жрать хочется что переночевать негде…
Это же вы и ставите, lair?
Больше-то некому, эту статью уже никто не читает.
Что за народ…
lair, забудте про все что я тут говорил, пусть будет по вашему:
В вашей системе координат не может, да и не нужно вам оно…
lair
Я не прошу ваш код, я прошу ссылку на метод в публичной документации. Не хотите давать ссылку — верить вашему утверждению, что такая интеграция легкодоступна и стандартна, я не буду, особенно учитывая, что это противоречит моим собственным изысканиям.
В том-то и дело, что вы не даете инфы, только обтекаемые фразы "мы сделали".
Mobile1
Слушайте, увОжаемый, я вам ничем не обязан.
Вы сказали фигню — я вас поправил и указал на рабочий пример, на этом все.
Вы начали нести бредятину насчет писем на разрешения (как вы вообще до этого додумались, а?) а закончили тем что стали в позу обженного, потому что я не ткнул вам ссылкой в одно место.
С каких дел я вам должен что-то доказывать?
У нас есть рабочий продукт, который вам западло посмотреть, вы тут выпендирваетесь по полной программе, и думаете что я поведусь на такой стиль общения?
Спрошу с таким же подколом, как и вы — если вы сами в открытой документации не можете ничего найти, то может быть вы просто такой специалист?
lair
"Рабочий пример" как слать в алексу голос обсудили еще до вашего прихода; ваше решение интересно только заявкой "мы шлем в алексу текст/запускаем в алексе скиллы"… которую вы непонятно, каким святым духом делаете.
ToS прочитал внимательно.
Не должны. Но и верить вашим утверждениям, что это возможно, я тоже не должен.
Дайте инстанс, которым можно воспользоваться без регистрации в вашей системе — тогда и посмотрим.
… или там этого просто нет. Учитывая количество публично доступных вопросов "как это сделать" с ответом "возьмите TTS" я склоняюсь к варианту "этого там нет, так сделать нельзя" (а у вас — TTS).
Mobile1
О, господи, вы еще и факты перевираете.
Вы сказали буквально следующее:
«nafikovr
yesterday at 05:42 PM
0
а что, стороннее приложение не может отправлять запросы той же алексе?
Reply
lair
yesterday at 06:07 PM
–1
Насколько я знаю — нет, не может.
Т.е. вы вообще не в теме того что любой производитель железа или софта может слать запросы Алексе.
Тут, понимаете на Алиэкспрессе не найдешь китайских лампочек от любого нонейма, которые не умеют в Алексу, а у вас — не может.
Какие утверждения?
Это у нас работает с 2017 года уже.
Но вы можете не верить, видимо у вас своя реальность, в которой мы не существуем.
Живите в этой реальности и дальше, вы видимо непробиваемый.
И к тому-же меркантильный и мелочный- ставите втихаря мне минусы.
Я вам ставить их точно не буду, не беспокойтесь, но и общение прекращаю.
lair
O'RLY?
Более того, я еще и вам прямо написал:
.
Вы точно не путаете AVS Device/Product и Alexa Connected Devices?
Вопрос, собственно, в том, какое "это" у вас работает. Отправка голоса? Ну да, я еще вчера признал, что так можно. Отправка текста?.. Прямой вызов скиллов?..
Buzzzzer
Чтобы без колхозинга управлять экосистемой Эхо/Хоум?
xlop-chik
блин, я думал что они свою разговаривающею колонку сварганили… так нет же, только надстройку -фильтр с отсекатилем отправки данных в сервис гугла и амазон… мало того так и распечатанная крышка убогая. авторы сидят на тяжёлых наркотиках?
а почему до сих пор нет опенсорсного проекта по созданию говорящей колонки? да и зачем колонка? лучше сразу ПК!
я бы не против, что бы мой пк мог озвучивать тексты нормальным и приятным! русским! голосом… мог по моей команде открыть и поставить на воспроизведение выбранный мной фаил… наконец просто запустить консоль и печатать в ней озвученные мной команды и ставить их на выполнение. прогу можно было бы сделать модульной — и каждый мог подобрать нужные для него функционал.
но увы мы этого никогда не увидим. а всё потому, что мало зоопарка линексов и браузеров — нужно соорудить очередной велосипед. нет чтобы сосредоточится на действительно нужном проекте. даже досих пор не имеем опенсорсной видухи или проца который не уступал бы именитым брендам, а чтобы превосходил их… но увы, мечты, мечты.
lair
Так что же вам мешает все это сделать и опубликовать исходники?
xlop-chik
наверное то что я не программер, а электрик.
lair
Вот поэтому и нет "опенсорсного проекта".
Paskin
Есть опенсорсный Mycroft.ai
putnik
(deleted)
putnik
Спасибо за ссылку на Mycroft.ai, не знал о таком. В ближайшее время попробую сделать себе на малинке. Если получится что-нибудь интересное, может даже пост напишу.
(Промахнулся ответом Paskin)
Arevik
Посмотрите тогда и на github.com/shivasiddharth/Assistants-Pi
А еще существует такой проект openassistant.org
Dveim
И добавлю про существование snips.ai
geisha
Squoworode
А на чём надо было? На Ардуино? Или предлагать каждому пользователю спаять собственный одноплатник?
geisha
В идеале — джейлбрейк Echo или просто поставить Android на raspberry pi и пользоваться всеми преимуществами.
Mobile1
Alexa Echo изначально можно запустить на любом одноплатном компьютере.
У Амазона такой подход сразу был — все, что имеет микрофон и спикер, может быть превращено в Алексу.
И вот там можно играться микрофонами и с ключевыми словами.
Поэтому полноценную Алексу -колонку можно легко делать и на Ардуино и на raspberry — никто этого не запрещает, таких реализаций вагон.
lair
"you will not use or allow the use of any wake word or other trigger word as part of accessing the Alexa Service in your AVS Products other than the wake or trigger words authorized by Amazon (currently "Alexa");"
https://developer.amazon.com/support/legal/alexa/alexa-voice-service/terms-and-agreements
id_potassium_chloride
Ненадёжно всё равно: если шум пишется, то из него всё равно можно вытянуть информацию. Мне кажется, надо разбирать колонку и вкручивать в неё выключатели микрофонов.
nafikovr
вы не поверите. она там есть изначально.
Stepan555
А не проще ли и не умнее ли просто не покупать за свои деньги фигню, единственное назначение которой — шпионить за тобой?
Bobnecat
Ничего, Гугл и Амазон скоро додумаются «лишнюю дырочку» просверлить где-нибудь под колонкой и продолжат слушать как раньше.
REPISOT
Ожидал реальный взлом, что-то вроде получение рута или админки и отключения следилок, а тут…
Zanak
Сначала мы встраиваем камеру в ноутбук, потом ее заклеиваем.
Смартфоны — это уже набившая оскомину тема.
СмартТВ тоже подозреваем в шпионаже.
Недавняя история с аппаратными закладками, опять же.
Теперь вот с ассистентами тоже самое.
Одному мне это кажется странным? Сами испугались того, что напридумывали?
coramba
Скорее всего дело в «мы» и «они».
Мы-потребители, хотим удобных фишек предлагаемых новыми технологиями, но не хотим платить за это приватность.
Они-производители, хотят зарабатывать как можно больше денег, и не хотят ограничиваться только продажами железа, которые приносят куда меньше дохода, чем личные данные.
И вот начинается игра в перетягивание каната с заклеиванием камеры и подсовыванием трекинг кук.
Wesha
> Сначала мы встраиваем камеру в ноутбук, потом ее заклеиваем.
Я бы с удовольствием купил ноутбук без камеры, но не могу.
Gugic
Кстати, новый Asus Zephrus S (GX701) идет без встроенной вебкамеры. Захочется ли вам его купить — вопрос конечно. В продажу пока не поступил, цена неизвестна.
coramba
Если нашлепку еще и покрасить под хед-краба или просто распечатать в пластике телесного цвета, то будет весьма символично, хоть и немного пугающе.