Представьте дрон с ИИ на борту, который анализирует поля и отправляет петабайты данных, или промышленный цех, станок в котором вот-вот уже сломается. Человек этого не замечает, зато нейросеть на краю сети предскажет, когда будет поломка до того, как он «встанет». 

Где здесь подвох? Только в том, что те, кто проигнорируют Edge Computing, рискуют остаться с устаревшей инфраструктурой. Конкуренты в это время обрабатывают данные прямо на устройствах — будь то датчики нефтепроводов, камеры умных городов или автономные роботы.

В этой статье разберём, почему Edge не просто модный buzzword (или всё-таки он), как периферийные вычисления оказались в центре внимания: от убийства лагов до защиты данных, от кейсов Tesla до умных электросетей. Детали под катом!

Торопитесь? Просто кликните по нужному разделу:
Ограничения «Cloud‑only»
Гибрид Cloud + Edge
Технологический стек периферии
Кейсы
Заключение и перспективы

Ограничения «Cloud‑only»


Давайте упростим — представьте, что ваша IT-система — это живой организм. Облако выступает «мозгом», принимающим все глобальные решения, а датчики, камеры и роботы — «нервными окончаниями», собирающими информацию. Обычно данные сначала летят в далёкий ЦОД, там их «обмозговывают», а потом отправляют обратно — удобно, но не всегда достаточно быстро.

Если сказать правильно, то edge computing приближает корпоративные приложения к источникам данных, таким как устройства IoT или локальные серверы краёв.

Скептики скажут: «Это же IoT-холодильник с Wi-Fi!». Но реальность масштабнее. Возьмите, к примеру, нефтепровод «Дружба»: сотни датчиков мониторят давление и температуру в режиме реального времени, не дожидаясь ответа из облака и предотвращая аварии на лету. Или Tesla: их беспилотники обрабатывают примерно 2300 МБ/с видео прямо на борту, потому что каждые 0,3 секунды на счету.

Кстати, корни этого подхода уходят аж в 1997 год, когда Akamai запустила первую CDN-сеть.

▍ Сегодня edge-архитектура эволюционировала в гибридную экосистему


Микродата-центры на краю сети (частью такой архитектуры могут выступать и VPS-решения), FPGA-чипы со «вшитой» логикой в промышленных контроллерах, AI-модели, обученные работать на устройствах с 50 МБ памяти.

Преимущества? Задержки падают с сотен миллисекунд до 5–10 мс, и как раз недавно проходил опрос, где 90% руководителей предприятий подтвердили: чтобы обеспечить успешность их приложений, задержка должна быть ≤10 мс, в то время как 75% заявили, что им требуется ≤5 мс для инициатив на периферии. Тогда трафик сокращается, а кибератаки теряют смысл, данные не покидают периметр завода. 

Но главное заблуждение: edge computing не заменяет облако. Это симбиоз: облачные кластеры обрабатывают глобальные аналитические задачи, а edge-узлы принимают тактические решения.

Спросите любых трёх CTO, как они внедряют edge, и услышите что-то вроде:

  1. «Строим кластеры на базе Kubernetes в заводских цехах»
  2. «Используем NVIDIA Jetson для AI-вывода на дронах»
  3. «Распределяем нагрузку через сервис-воркеры в 4G-сетях»

И всё это правда, потому что edge computing — это скорее не о технологии, а о новом языке цифрового мира. Но как любой язык, он появился не из абстрактных теорий, а из жёсткой необходимости пробить стену ограничений, которые «облако-одиночка» возвело на пути IoT. 

По исследованию 2019 года видно, что большинство организаций уже тогда делали ставку на гибридное облако. Изображение.

▍ Точки перегиба для Cloud-only


Ограничения «Cloud-only» в IoT проявляются в трёх ключевых аспектах: латентности, пропускной способности и надёжности, и эти ограничения становятся критическими в условиях современных приложений, требующих мгновенной реакции и высокой устойчивости.

Латентность — это своего рода пауза между моментом, когда датчик «ощутил» событие, и тем, как облако вернуло ответ. По классической схеме сигнал улетает на удалённый сервер, там его «пережёвывают», а потом отправляют обратно. В сценариях с автономными авто или на конвейерах даже лишняя миллисекунда может оказаться решающей.

В автономных транспортных средствах критически задержки даже в несколько миллисекунд. Если ваша Тесла будет тормозить на пешеходном переходе с задержкой, местные бабушки вряд ли обрадуются. Современные сети 5G (ждём, когда дойдёт до нас), обеспечивают сверхнизкую латентность. В 5-15 раз лучше, чем у 4G, порядка 1 мс. При этом облака не могут гарантировать такой отклик из-за удалённости серверов и сетевых задержек. Нет автоматизации конвейеров в реальном времени, значит есть задержки в облаке. Встанет производство —> финансовые потери.

Второе узкое горлышко в «cloud-only» — пропускная способность. Каждый день генерируются тонны данных с помощью видеонаблюдения, умных сенсоров и автопилота с кучей камер. Чего только стоит система сканирования ПДД в Москве.

Светящиеся точки — нарушения. Источник

Всё это сырое видео — гигабайты в час, если не в минуту, генерируется через IoT-устройства. По-хорошему надо гнать в облако, а каналы связи-то не резиновые. В итоге — трафик забивается, растут расходы на передачу, всё тормозит, как в пробке в час пик. Задержки вверх, система вниз.

Проблема в масштабе — объёмы данных растут, а пропускная способность сетей не успевает. Если у вас нет возможности это фильтровать и обрабатывать локально, то в какой-то момент упираетесь в потолок. Поэтому всё больше компаний сейчас смотрят в сторону edge-подхода: обрабатываем важное на месте, в облако уже обработанное и по делу. Сеть не перегружаем, деньги экономим и скорость отклика поднимаем — одни плюсы.

Надёжность — последний, но не по важности ограничитель. Без стабильного интернета умные IoT не попадут в облако. Что вы будете делать с «кирпичом»? Соединение пропало, а вместе с ним и управление. Смысл «умности» устройства — как от коллеги утром без кофе: тупит, не отвечает и делает вид, что работает.

Что может случиться при задержках в критически важных системах? Простой пример, медицина или промышленная автоматизация. Да, на практике используются резервные каналы и запасные протоколы и т. д. Но «упадёт» центральный узел и последствия будут ощутимы. Само устройство может дать сбой, или протоколы начинают барахлить. Тут уже придётся применять комплексный подход: от инфраструктуры до железа и логики обмена данными.

Это — «база» ограничений cloud-only моделей. Эти вызовы подталкивают к гибридным подходам и edge-решениям, которые умеют думать на месте, не грузят сеть по пустякам и не превращаются в тыкву при первом же сбое.

А важно ли вам, чтобы система не зависела от идеальных условий связи?

Гибрид Cloud + Edge


Гибрид Cloud + Edge всё чаще выступает той самой «золотой серединой» для обработки и анализа: сочетание локальных и облачных мощностей даёт масштабируемость, гибкость и рациональное расходование ресурсов.

Фильтрация и агрегация данных на краю сети — фактор экономии пропускной способности и снижения затрат. Исследования показывают, что до 80 % того, что генерируют IoT-устройства, «цифровой мусор». Очищая поток «до» облака, мы отправляем туда только значимые инсайты.

Например, в видеонаблюдении вместо постоянной трансляции роликов система шлёт лишь сигналы о движении или подозрительных событиях.

Замечу, что рынок гибридных облаков продолжает только расти, к 2033 году достигнет $480 млрд с ежегодным темпом роста в 17%. Если представить IT-индустрию как офис, то за рубежом гибридное облако «штатный сотрудник», а в России оно всё ещё проходит собеседование.

Изображение

Распределённая логика выстроена по многоуровневой схеме: «тонкие» сенсоры ловят сырые данные, а «толстые» Edge-шлюзы со встроенными ML-модулями обрабатывают их на месте, принимая решения в доли секунды. Задержки падают с секунд до миллисекунд — критично для промышленной автоматизации и автономных систем, где каждая миллисекунда на счету. А облако в это время занимается хранением, агрегацией и тяжёлой аналитикой, беря на себя всю нагрузку.

Например, под «тонкими» сенсорами мы понимаем простые датчики температуры, давления или вибрации, которые лишь считывают показания и передают их дальше. «Толстые» же Edge-шлюзы уже оснащены процессорами и памятью для запуска локальных ML-модулей: они могут фильтровать шум, выявлять аномалии и автоматически останавливать оборудование при превышении порогов — и всё это без ожидания отклика из облака.

В гибридной схеме личные данные не улетают в облако целиком: в уже упомянутых медицине и финансах «секретную» информацию обрабатывают прямо на устройствах или локальных шлюзах. Так риск утечек сводится к минимуму, а GDPR и HIPAA соблюдаются автоматически.

Экономика: Почему CFO обнимает гибридную модель


CAPEX vs OPEX — вечная война. Зачем замораживать деньги на простаивающие сервера, если можно платить только за нужные вычисления? С гибридной инфраструктурой в «штатные» периоды вы работаете на своих мощностях, а при пиковых нагрузках облако подхватывает лишние запросы. Никаких десятков тысяч на запасные сервера и сети — лишь прозрачная модель pay-as-you-go, гибкое масштабирование и полный контроль над расходами.

Приоритеты компании в ключевых целях цифровой трансформации или инвестициях в ИТ/технологии. Изображение

Что такое OpEx? Нет, это не то, что искала белка из ледникового периода, а операционные расходы. И вот как этот ОрЕх правильно «готовят»: берём частное облако для постоянных нагрузок и публичное для переменных.

Как это работает? Locuz (компания из группы SHI, специализирующаяся на цифровой трансформации и безопасности) подсчитала: переход на частное облако в модели OpEx сокращает затраты до 22% по сравнению с покупкой собственного железа «на будущее».

Технологический стек периферии


Если говорить про реальный edge-стек на 2024–2025 год, то это уже далеко не игрушки. Вся экосистема от железа до софта выстраивается под чёткий прицел: снижать задержки, уменьшать трафик в облако и обрабатывать данные на месте. Всё, что критично по времени, должно жить и работать на границе сети, без отсылки в ЦОД.

Архитектура Edge Computing Изображение

Начнём с железа. Конечно, для прототипов, PoC, да и лёгких edge-нодовых задач есть Raspberry Pi 4 — классика. Четыре ядра Cortex-A72, до 8 ГБ оперативки — то, что нужно для начальных экспериментов. Но в продакшене в ход идут уже специализированные чипы. Например, Google Coral Edge TPU или Intel Movidius Myriad X — оба созданы именно под inference на краю, не нагреваются, не едят много энергии и выполняют модели TensorFlow Lite или OpenVINO прямо на девайсе, не дёргая облако.

FPGA справляются с нестандартными задачами: шифруют видеопоток, ведут real-time аналитику и выполняют предобработку. В частности Xilinx Alveo подходит для криптографии, стриминга и задач видеоаналитики.

Модули NVIDIA Jetson (Nano, Xavier, Orin) с GPU на базе архитектуры CUDA повышают вычислительную мощь системы. Устройства справляются с параллельной обработкой и сложными моделями ML. Orin достигает производительности до 275 TOPS, терра операций в секунду, на inference и при этом умещается в пару десятков ватт по питанию. Это на CUDA, с поддержкой TensorRT, и без проблем засовывается в дрон, агробот или транспортный контроллер.

Есть и тяжёлая артиллерия: промышленные Edge-боксы от компаний PACSystems, Siemens, Advantech и Phoenix Contact рассчитаны на работу в экстремальных условиях (высокая температура, вибрации, пыль и влажность) и оснащены многоядерными процессорами Intel Xeon или ARM, поддерживают стандарты промышленной автоматизации и интеграцию с SCADA и MES-системами.

Программное обеспечение и оркестрация для периферийных вычислений базируются на лёгких и адаптированных под ограниченные ресурсы рантаймах. Легковесные Kubernetes-дистрибутивы, такие как k3s и KubeEdge, позволяют управлять контейнеризированными приложениями на edge-устройствах с минимальными накладными расходами. k3s занимает около 40 МБ, что позволяет запускать полноценные Kubernetes-кластеры на маломощных устройствах, обеспечивая автоматическое масштабирование и обновление приложений. KubeEdge расширяет Kubernetes, добавляя поддержку автономной работы распределённых edge-узлов, что критично при нестабильном соединении с центральным облаком.

Изображение

TinyML — это перенос машинного обучения прямо на микроконтроллеры и маломощные устройства (чаще всего на ARM Cortex-M). Модели запускаются прямо на сенсорах и шлюзах без обращения к облаку, поэтому задержки уходят в минимум, а энергию расходуется значительно меньше. Идеальный вариант для датчиков и других «умных» устройств.

Serverless-функции всё чаще «переезжают» на edge. AWS Lambda\@Edge и Cloudflare Workers обрабатывают события рядом с устройством — проверяют, фильтруют и маршрутизируют данные без лишних запросов в центр. Локальные СУБД InfluxDB, SQLite и Apache Cassandra обеспечивают молниеносный доступ и кэширование — незаменимо для приложений с жёсткими требованиями по задержке и автономности.

Короче говоря, стек edge сегодня — это не просто «умная железка у забора». Это полноценная вычислительная платформа: от маломощных сенсоров с ML до промышленных серверов с Kubernetes, от инференса в 5 мс до автономных вычислений в оффлайне. И строить реально быстрые, надёжные и масштабируемые IoT/AI-системы без этого стека в 2025 году вряд ли получится.

Кейсы


Представьте, вы за рулём Tesla Model 3: компания давно перешла к модели edge-first — все данные с камер, ультразвуковых датчиков и ранее радаров обрабатываются прямо на борту. Сам Autopilot базируется на собственном компьютере Full Self‑Driving Computer (Hardware 3), который способен в реальном времени запускать сложные нейросети без постоянного обращения к облачному бэкенду.

Чтобы обеспечить такую производительность, начиная с 2019 года Tesla заменила сторонние решения на кастомный SoC «FSD Chip», рассчитанный на автономные вычисления. Этот чип выпускается по 14 нм техпроцессу Samsung и объединяет двенадцать ядер ARM Cortex‑A72 @ 2,6 GHz, два systolic‑массива (по 36 TOPS каждый) и графический ускоритель Mali G71 MP12 @ 1 GHz. Благодаря такой архитектуре «FSD Chip» обрабатывает до 2 300 fps — в 21 раз быстрее, чем предшествующая версия Hardware 2.5. Так что, когда вы крутите руль, машина уже просчитывает всё на локальном чипе.

Визуальное восприятие мира построено на восьми камерах, покрывающих 360° обзора, а начиная с 2021 года Tesla полностью отказалась от радаров и ультразвуковых датчиков в новых моделях, сделав ставку на компьютерное зрение.

Ключевым преимуществом такого подхода стала практически нулевая сетевая latency: вместо сотен миллисекунд RTT все критические решения (обнаружение препятствий, экстренное торможение) принимаются локально за доли миллисекунд.

В то же время для обучения нейросетей Tesla создала собственный суперкомпьютер Dojo, выведенный в промышленную эксплуатацию в июле 2023 года. Dojo построен на узлах с D1‑чипами, изготовленными TSMC по 7 нм техпроцессу: каждый чип содержит 50 млрд транзисторов и 354 ядра, а связка из 3 000 таких чипов в одном ExaPOD обеспечивает свыше одного экзафлопса производительности.

После обучения обновлённые веса нейросетей доставляются на автомобили «по воздуху» через OTA‑апдейты,  что позволяет улучшать автопилот без визита в сервис.

Теперь представьте, как этот подход может быть полезен не только в авто, но и в других областях.

В медицине одним из ярких примеров edge computing стала платформа Edison HealthLink от GE Healthcare. В октябре 2020 года компания представила Edison HealthLink — решение для сбора, агрегации и анализа клинических данных непосредственно на месте, без обязательной привязки к облаку. Платформа предлагает HIPAA‑совместимый слой агрегации, продвинутую визуализацию и оркестрацию AI‑ и non‑AI‑алгоритмов прямо на периферийных узлах — от сервера в рентген‑отделении до локального дата‑центра клиники.

Подключение медицинских устройств к Edison HealthLink позволяет обновлять ПО «на лету», продлевая жизненный цикл существующего оборудования без необходимости его замены. Уже доступны десять готовых приложений, включая реконструкцию изображений TruFidelity, решение Mural Virtual Care для мониторинга пациентов и CT Smart Subscription для ускоренной постобработки КТ‑срезов прямо в госпитале.

Edison HealthLink работает на Edison Health Services software stack, который можно развернуть на edge‑серверах, on‑premise или в облаке, обеспечивая единую DevOps‑цепочку от Docker‑контейнеров до Kubernetes‑оркестрации. Для радиолога это означает, что вместо сетевых задержек и обращений в удалённый ЦОД все вычисления (включая TensorRT‑оптимизированный AI‑Inference) выполняются локально, мгновенно выдавая результаты и ускоряя постановку диагноза.

Особенно критично это в неврологии: при оценке КТ‑снимков мозга у инсультных пациентов каждая секунда на счету, и Edison HealthLink позволяет мгновенно анализировать данные на месте, без «облачных» задержек, ускоряя время до лечения и сохраняя ценные нейроны.

А вот и ещё один пример с актуальными в последнее время «птичками»: в 2024 году Walmart расширил свою сеть доставки продуктов с помощью дронов в Техасе, сотрудничая с компанией Zipline. Дроны, называемые Platform 2 Zips (P2 Zips), обеспечивают доставку товаров весом до 3,6 кг в радиусе 16 км со скоростью до 112 км/ч, выполняя доставку в течение 30 минут. Доставка осуществляется без посадки: дрон зависает на высоте около 90 метров и опускает груз на тросе в указанную зону.​

Проблема: Традиционные методы доставки продуктов требуют значительных временных затрат и могут быть ограничены инфраструктурой, особенно в удалённых или труднодоступных районах.​

И вот где edge‑вычисления действительно решают: дрон сам выполняет всё — от навигации и обхода препятствий до точного выбора зоны доставки — без постоянной связи с сервером. Это сокращает время на логистику, снижает затраты и позволяет добираться до удалённых районов, куда раньше не доезжал ни курьер, ни фургон.

Walmart уже расширяет эту модель: к концу года планируют покрыть до 75% домохозяйств в районе Далласа–Форт-Уэрта. Сервис работает и в других штатах — например, в Техасе и Вирджинии. Как и в случае с Tesla, edge‑вычисления здесь дают ключевое преимущество — мгновенную реакцию, автономность и отсутствие зависимости от облака.

Заключение и перспективы


Edge Computing стал новой нормой для критичных IoT‑сценариев: он ускоряет реакцию, снижает нагрузку на сеть и повышает безопасность, оставляя «умный интеллект» там, где он нужен — на самом краю сети.

Что в итоге? Это не просто модный тренд, который растворится, как блокчейн-стартапы из 2017. Это реальное переосмысление ИТ-архитектуры — с учётом того, как сегодня работают устройства, сети и бизнес. Edge — не про будущее, а про настоящее, которое уже разворачивается прямо у вас под носом.

 Итог нашего экскурса в мир вычислений на «краю» сети:

  1. Edge computing решает задачи: от латентности до автономности.

  2. Технология уже активно используется в разных сферах (и, возможно, вы даже не догадываетесь, что пользуетесь ею).

  3. Безопасность остаётся главным вызовом (Но в мире IT когда то было иначе?).

  4. Будущее за гибридными решениями, edge + облако.

Эта технология постепенно развивается. Возможно, через несколько лет мы будем смотреть на прогнозы как на жёлтую прессу. Но сейчас ясно, что edge computing с нами надолго. Как минимум до того момента, пока кто-нибудь не изобретёт квантовую телепортацию данных. Но это пока ещё байки.

А пока интересно, что вы думаете о развитии edge-подхода — делитесь в комментариях.

© 2025 ООО «МТ ФИНАНС»

Telegram-канал со скидками, розыгрышами призов и новостями IT ?

Комментарии (2)


  1. devops_analitik
    16.05.2025 15:26


    Интересное послевкусие после Edge, наверное да, его лучше в формате гибрида использовать. Десятки версий контейнеров, разрозненные прошивки и фрагментированная телеметрия превращают периферию в чёрный ящик.

    Я слышал, что эксперты для этого применяют GitOps-подходы с ArgoCD, Push-мониторинг через Prometheus Operator, но насколько это помогает остается загадкой. поэтому, хотелось бы обсудить пару практических моментов: где именно отрубать умные алгоритмы на краю, а где оставляете их в облаке, чтобы не ловить «зомби-баги» на сотнях нод? И как словить этот баланс важности. Скорость реакции (милисекунды) или стабильность и управляемость сотен нод.

    Я бы послушал реальные кейсы и инструменты, которые помогают не только запускать, но и поддерживать Edge-решения в рабочем состоянии, кто сталкивался?


  1. ByteByByte
    16.05.2025 15:26

    Теоретически он наверное больше для 6G-эпохи. Локальные вычисления, низкие задержки, а в браузере даже рекламу блокируют через edge://flags. Вот только пока он сильно потребляет CPU (мне кажется даже видеокарта стонет), сложно представить, как он будет справляться с «умным» домом будущего. Может, сначала научим его не тормозить в «ЭТОМ» доме?

    Впечатление что Edge иногда работает как будто у него два GPU и три душевых кризиса. Но кто сказал, что будущее без багов XD