В эпоху Интернета вещей (Internet of Things, IoT) все более актуальными становятся задачи обработки, фильтрации и анализа данных как можно ближе к их источнику, поскольку это позволяет действовать удаленно вместо того, чтобы пересылать эти данные в центры обработки данных (ЦОД) или облака для фильтрации и анализа.

Еще одна причина для развертывания инструментов аналитики на периферии сети заключается в том, что сегодня появляются все новые варианты применения Интернета вещей, и во многих случаях объем данных, генерируемых на периферии, предъявляет такие высокие требования к полосе пропускания и вычислительной мощности, что доступные ресурсы не способны их удовлетворить. То есть ЦОД, предназначенные для решения более традиционных корпоративных задач, могут не справляться с потоками данных от интеллектуальных устройств, датчиков и т. п.

Например, если показания датчика температуры двигателя ветровой турбины лежат в пределах рабочего диапазона, не обязательно сохранять их с интервалом в одну секунду, поскольку очень быстро накопится колоссальный объем данных. Лучше придерживаться подхода, когда показания, выходящие за пределы рабочего диапазона или указывающие на определенные тенденции (например, неизбежный сбой в работе компонента), будут генерировать предупреждение и, возможно, сохраняться централизованно только после выявляения этой первой аномалии в целях последующего анализа.

Поставщиков на этом рынке слишком много, чтобы можно было составить исчерпывающий перечень. Однако здесь стоит упомянуть, что в прошлом году компания, ранее известная как JustOne Database, провела комплексный ребрендинг с охватом всех филиалов. Были переименованы не только продукты, но и сама компания. Теперь она называется Edge Intelligence. Представитель компании сказал мне, что их база данных, которая может работать на относительно компактных серверах на периферии сети, в ЦОД или в облаке, стала настолько популярной, чтобы компания решила провести ребрендинг после шести лет работы.

Итак, что нужно знать о периферийной аналитике, если вы пытаетесь провести децентрализацию в отношении хотя бы части аналитических задач?

Стандарты и трансляция протоколов


Некоторые стандарты в этой области, вероятно, исчезнут, тем не менее, делая упор на технологии, поддерживающие стандарты, скорее всего, можно будет упростить интеграцию в будущем. Но специализированных стандартов и API достаточно много. Стандарты и протоколы включают API POSIX и HDFS для доступа к файлам, SQL для запросов, API Kafka для потоков событий, HBase и, возможно, API OJAI (API открытого интерфейса JSON) для обеспечения совместимости с базами данных NoSQL. Также нужна поддержка устаревших проприетарных протоколов телеметрии, чтобы можно было включать устаревшее оборудование (которое часто эксплуатируется десятилетиями) в более современные инфраструктуры Интернета вещей. Это особенно важно в промышленности, где Интернет вещей имеет особую ценность, поскольку он помогает повысить эффективность профилактического обслуживания.

Агрегирование распределенных данных


В определенном смысле это основа периферийной аналитики, поскольку здесь подразумевается обеспечение высокоскоростной локальной обработки данных, что особенно важно при наличии ограничений по географическому признаку или с точки зрения конфиденциальности информации (например, при работе с персональными данными). Агрегирование может также использоваться для консолидации данных от устройств Интернета вещей, расположенных на периферии.

Анализ пропускной способности


Это относится к технологиям, которые регулируют пропускную способность сетей между периферийными устройствами и облаком и (или) ЦОД даже если датчики или устройства подключаются время от времени.

Конвергентная аналитика


Принятие оперативных решений и анализ данных в режиме реального времени на периферии.

Обеспечение безопасности и управление идентификацией


Комплексные средства защиты Интернета вещей обеспечивают проверку подлинности, авторизацию и управление доступом как на периферии, так и на уровне центральных кластеров. При определенных обстоятельствах желательно обеспечить шифрование в канале данных между объектами на периферии и основным ЦОД. Контроль идентификации также представляет собой сложную проблему: необходимы средства для управления «вещами», включая проверку подлинности, авторизацию и назначение привилегий внутри или за пределами границ системы и самого предприятия.

Надежность корпоративного уровня


Формируется надежная вычислительная среда, способная справляться с многочисленными сбоями в работе оборудования, которые могут возникать в удаленных изолированных системах.

Интеграция с облаком


Если не сегодня, так в будущем может возникнуть необходимость обеспечить надежную интеграцию между узлом периферийной аналитики и облаком. Это значит, что предупреждения и даже «базовые» точки данных могут храниться в облаке, а не в собственном ЦОД компании. Поэтому интеграция с вашим поставщиком услуг в сфере облачных вычислений (при наличии) будет очень дальновидным решением. Если вы пока практически не используете облака для обработки и хранения данных, в будущем вас все же могут заинтересовать веб-службы Amazon Web Services и облачные платформы Google Cloud Platform или Microsoft Azure; кроме того, вам полезно будет узнать о наличии поддержки инфраструктуры OpenStack с открытым исходным кодом в рамках концепции «инфраструктура как услуга» (Infrastructure as a Service, IaaS).

В последние несколько лет периферийная аналитика получает все более широкое распространение по мере появления новых вариантов использования Интернета вещей. Стоит по крайней мере проанализировать возможную роль периферийных вычислений в проектах в области Интернета вещей, которые вы планируете реализовать.

Комментарии (0)