Около года назад мы писали на хабре о работе с Lumia SensorCore SDK (обзор, создание приложения) — специальном API для работы с сенсорами на Lumia-устройствах. В Windows 10 на базе этих и других наработок в универсальной Windows-платформе (UWP) мы расширили API для работы с устройствами, добавив новые возможности для взаимодействия с контекстом пользователя. Ниже предлагаем вашему внимаю доклад с конференции Build на эту тему и перевод обзорной статьи, описывающей новые возможности.




В Windows 10 мы крайне рады возможности представить ряд новых API для взаимодействия с контекстом, которые могут помочь вам в создании приложений, улучшающих жизнь пользователей каждый день. Это включает приложения, которые могут определять присутствие, когда пользователь приближается к устройствам, приложения, которые понимают, гуляет ли пользователь или за рулем, приложения, которые помогают пользователям отслеживать их фитнес-показатели, и многие другие сценарии. Используя данные API вы можете предугадывать потребности пользователей и проактивно предлагать соответствующие персонализированные и релевантные данные или сервисы для улучшения и облегчения их жизни. Это довольно мощная штука как для консьюмерских, так и для корпоративных сценариев.



Определение типа активности


Один из новых добавленных API – это средства для определения типа активности (Activity Detection), которые помогает выяснить контекст (пере)движения пользователя. Данные API пытаются понять, что делает человек на основании текущего характера движения: идет, бежит, едет в машине или на велосипеде, находится в неподвижном состоянии или состоянии «покоя». Неподвижное состояние возвращается, когда устройство находится с пользователем, а «покой» — когда пользователь положил устройство на стол или неподвижную поверхность. Вы также можете создавать фоновые триггеры и запрашивать детальную историю вплоть до 30-дневной давности.

Несколько сценариев для использования:
  • Выдавать информацию в зависимости от контекста движения (например, подстраивать темп плейлиста)
  • Изменять поведение приложения с учетом контекста движения (например, автоматически подстраивать фокус, если вы понимаете, что пользователь снимает на камеру во время ходьбы или бега)
  • Отслеживание фитнес-показателей и данных о здоровье
  • Навигация и карты
  • Сохранение энергии (например, избегать постоянного опроса местоположения или WiFi, если устройство находится в состоянии покоя или стационарном состоянии)


Схема работы с API приведена ниже
// Запрос текущей активности
var reading = await activitySensor.GetCurrentReadingAsync();
 
// Подпись на изменения в активностях
activitySensor.ReadingChanged += new TypedEventHandler<ActivitySensor, ActivitySensorReadingChangedEventArgs>(ReadingChanged);
 
// Запрос истории (вплоть до 30 дней)
DateTimeOffset yesterday = ...
var history = await ActivitySensor.GetSystemHistoryAsync(yesterday);
foreach (var entry in history) { ... }
 
// Использование фоновой задачи
var trigger = new Windows.ApplicationModel.Background.ActivitySensorTrigger(reportIntervalMs);
trigger.SubscribedActivities.Add(ActivityType.InVehicle);
 
// .. регистрация триггера и т.п.


Более детально API для определения типа активности описаны в MSDN, а пример кода можно найти в коллекции UWP SDK примеров.

Подсчет шагов


Другое полезное добавление – это шагомер, который подсчитывает количество шагов пользователя во время ходьбы или бега. Как и в случае с определением типа активности, информация в истории хранится вплоть до 30 дней.

Типичное приложение, в которой данная функциональность может использоваться – это отслеживание показателей здоровья и фитнес-данных (без необходимости использования дополнительных (носимых) устройств). Шагомер может также комбинировать данные носимых устройств и данные от сенсоров устройства с Windows.

Пример работы с API приведен ниже:
//Получение данных шагомера
pedometer.ReadingChanged += new TypedEventHandler<Pedometer, PedometerReadingChangedEventArgs>(ReadingChanged);
 
void ReadingChanged(Pedometer sender, PedometerReadingChangedEventArgs args)
   {
    PedometerReading reading = args.Reading;
    if (reading.StepKind == PedometerStepKind.Walking)
        walkingSteps = reading.CumulativeSteps;
}
 
//Запрос истории шагомера
var history = await Pedometer.GetSystemHistoryAsync(yesterday);


Более подробная информация про API работы с шагомером приведена в MSDN, а готовый пример кода доступен в коллекции примеров.

Барометр и сенсор высоты


Для работы с информацией о давлении (данные от барометра) и относительной высотой (например, изменение при подъеме) мы добавили, соответственно, API барометра и высоты.

Типичные сценарии:
  • Здоровье и фитнес: зная относительную высоту, вы можете понять, движется ли пользователь вверх или вниз и учитывать это при подсчете затрат калорий
  • Определять, на какой этаже находится пользователь при навигации в помещении
  • Предсказание погоды


Пример работы с API:
Barometer barometer = Barometer.GetDefault();
BarometerReading reading = barometer.GetCurrentReading();
 
double pressure = reading.StationPressureInHectopascals;
barometer.ReadingChanged += ...
 
Altimeter altimeter = Altimeter.GetDefault();
AltimeterReading altimeterReading = altimeter.GetCurrentReading();
 
double altitudeChange = altimeterReading.AltitudeChangeInMeters;
altimeter.ReadingChanged += ...
 
//Выбор интервала для данных
mySensor.ReportInterval = 500;


Дополнительные сведения:


Определение присутствия


Мы теперь также поддерживаем API для определения присутствия с близким и дальними радиусами действия. Сенсоры близкого действия работают на расстоянии 2-3см, в дальнего – могут определять присутствие на расстоянии вплоть до 12 метров.

Практические сценарии:
  • Активация устройства при приближении пользователя или выключение, когда пользователь удаляется. Например, Surface Hub использует данные API, чтобы просыпаться, когда человек входит в комнату для переговоров, и выключаться, когда все люди вышли.
  • Автоматически выключать экран во время звонка
  • Определять и игнорировать случайные нажатия, когда становится понятно, что устройство находится в кармане пользователя
  • Определение жестов


Пример работы с API близости приведен ниже:
using Windows.Devices.Sensors;
 
//Получение текущих данных
ProximitySensorReading reading = sensor.GetCurrentReading();
bool isDetected = reading.IsDetected;
 
//Подписка на изменения
sensor.ReadingChanged += ReadingChanged;
void ReadingChanged(ProximitySensor s, ProximitySensorReadingChangedEventArgs e)
{
    ProximitySensorReading reading = e.Reading;
    bool isDetected = reading.isDetected
}
 
//Интервал для данных
mySensor.ReportInterval = 500;


Подробнее с документацией по API близости можно познакомиться в MSDN, и не забудьте про готовый пример.




Помимо документации, дополнительную информацию (например, о работе с собственными сенсорами) можно также подчерпнуть из нашего доклада про создание контекстно-осведомленных UWP-приложений с использованием сенсоров, который мы рассказывали на конференции Build 2015 (приведен также в начале перевода).

Комментарии (1)


  1. morgreek
    03.09.2015 08:55

    Оу, спасибо.
    P.S. Что-то подсказывает мне, что «около кода назад» — не просто случайная опечатка :)