Привет, постоянные и не очень читатели!

Хьюстон, НАСА, 1970 год. Комната заполнена тусклым светом и шумом от стрекочущих принтеров. За стеклом, на стенде — копия командного модуля космического корабля. Не муляж, а настоящая железяка, до винтика повторяющая то, что сейчас болтается в открытом космосе где-то на расстоянии 330 000 км — между Землей и Луной.

— Окей, у нас растёт уровень СО2. Быстро. Фильтр лунного модуля не справляется. Ребятам нужен запасной, но квадратный не влезает в круглое гнездо.

Несколько секунд полной тишины. Инженер Эдом Смайли — в рубашке не по размеру с короткими рукавами — кивает, отходит к тележке и хватает полиэтиленовую упаковку от костюма охлаждения из комплекта лунного скафандра, картонные листы-вкладки из полётного плана и клейкую ленту.

— Дайте мне инструкцию по материалам с борта. Мы соберём переходник прямо здесь. Если он заработает у нас в барокамере, то заработает и у них.

Техник подбегает к шкафу с документами — в папке на винтах, аккуратным машинописным шрифтом перечислены все материалы на борту. Даже резинки. Даже липучки на скафандрах. Важна каждая деталь.

Стенд оживает: сюда выводят телеметрию из корабля — по выделенной линии, прямо с антенны в Австралии. Температуры, давление, остаток энергии, расход кислорода. Цифры быстро бегут строчками, как в плохом сайфай, вот только это не кино — это реальность. Цифровой двойник с технологиями 70-х: умелые руки инженера, смекалка и изолента. Зато почти синхронно с тем, что творится на орбите Луны.

— Всё. Вот переходник. Вот пошаговая инструкция. Только из того, что у них есть. И это можно собрать в невесомости. Передавайте в эфир.

Станция в Канберре передаёт голосовое сообщение. Через полторы секунды — сигнал прилетит на корабль. И когда экипаж всё сделает правильно, они перестанут задыхаться.

Преамбулу закончили, заваривайте кофеёк покрепче и, если надо, капните чего-нибудь туда — а я скрашу ваш вечер (или обеденный перерыв) интересным лонгридом про цифровых двойников :)

Что, если бы ваш смартфон или сервер умел видеть будущее?

Сначала человечество собирало метрики. Потом их графики. Потом — графики графиков. Следом появилась наблюдаемость, но системы продолжали падать.

Вы наверняка слышали про тестовые виртуальные среды, близкие к продакшну (например, staging-окружения, которые в точности похожи на прод). Всё это, как правило, работает на новомодных облачных платформах, чтобы быстро разворачивать и тестировать с нужной нагрузкой. Да, облака и виртуализация хорошенько пустили свои скользкие тентакли патч-корды в IT-инфраструктуры, но многие компании довольствуются обычным мониторингом метрик, базовыми CMDB и совсем редко — наблюдаемостью.

Но что, если бы дверь в вашу серверную вышиб админ, прошедший ИТ-качалку от Хабра, и предложил что-то получше? Нечто, что будет не просто имитировать работу системы и показывать точки отказа при тестировании, а предсказывать сбои в продакшн-окружении ещё до того, как всё сгорит праведным огнём?

Опытный админ возразит: дык это, аффтар сервермолла, у меня тут наблюдаемость настроена, а ML-алгоритмы могут предсказывать аномалии (например, ElastAlert, Numenta HTM, NetData + ML-плагины и другие методы anomaly detection).

Так вот отвечу: это всё равно анализ текущих логов и метрик. Даже наблюдаемость работает с реальными данными в реальном времени и чаще всего реагирует на уже случившийся или начинающийся инцидент.

Но мы-то (ладно, я) хотим красиво — чтобы сбоев вообще не было. Поэтому нам мне нужен ответ на вопрос «что, если…?», а не «что происходит прямо сейчас / почему?».

Вот тут-то на сцену и выходит сабж статьи — цифровые двойники (ЦД).

Да, я знаю, что на КДПВ штурмовики, а не клоны :)
Да, я знаю, что на КДПВ штурмовики, а не клоны :)

Так как я не википедия, то чуть умою и причешу определение, чтобы вы не уснули.

Итак, цифровой двойник (digital twin, DT) — это высокоточная виртуальная копия реального объекта: станка, двигателя, здания или даже целого завода. Она в реальном времени отражает всё, что происходит с настоящим объектом, реагирует на изменения и помогает заранее понять, что может пойти не так, что будет, если… и что делать дальше. Всё это дело в нашей любимой IT-сфере набрало обороты вместе с бумом Индустрии 4.0.

ОСТОРОЖНО, СПОЙЛЕРЫ!

Эпизод «Повесь диджея» (S4E1, Hang the DJ) из «Чёрного зеркала» — крутой пример очень продвинутых цифровых двойников.

По сюжету, пара молодых людей оказывается в закрытой системе знакомств, где все их отношения строго регулируются алгоритмом: сколько длится роман, с кем именно будет следующее свидание — всё задаёт программа. Однако герои постепенно начинают сомневаться в системе и пытаются её сломать. Самое интересное — это финальный твист: всё, что зритель видел — не настоящие люди, а цифровые копии реальных пользователей в симуляции. Система многократно проигрывает различные сценарии, чтобы понять, насколько совместимы реальные люди. Если цифровые аватары 998 раз из 1000 выбирают быть вместе, значит, настоящая пара совместима на 99.8%. Этакий сайфай дейтинг-сервис на вычислительных стероидах.

Отличная метафора для цифровых двойников, так как виртуальные копии людей используют для прогнозирования поведения + система проводит массовое тестирование сценариев (как в инженерии). Серия фактически описывает ЦД — виртуальные модели людей, которые полностью повторяют поведение, мотивации и решения в заданных условиях.

ВАЖНО! Нельзя приравнивать цифрового двойника к интеллектуальной модели без сбора данных, визуализации и прогнозирования. Иначе получим цифровую тень или цифровую модель, а не полноценный ЦД.

Выделю главные критерии, по которым можно понять, что перед вами цифровой двойник:

1. Можно отслеживать состояние объекта в реальном времени

2. Обнаружение проблем до того, как они станут критичны

3. Изолированные эксперименты (моделирование) без риска для реального объекта

4. Прогноз будущего поведения объекта в разных условиях (например, в экстремальных или нетипичных).

В теории цифровой двойник можно создать для чего угодно: от здания, космического корабля и конвейера на заводе до солнечной системы, Земли (моделирование погоды), сердца и человека целиком — с сознанием и без (о чём как раз и была серия Чёрного зеркала).

Но на практике же всё упирается в вычислительные мощности; в тонны точных данных реального времени (датчики есть не везде, и не все параметры можно измерить); в модели (математика двойника должна учитывать все важные для него законы физики/химии/биологии, а мы далеко не всё знаем); в деньги (рендеринг авиадвигателя может стоить миллионы долларов); в скорость (если климатическая модель считает прогноз неделю, то толку от неё ноль).

Но ограничения не помешали концепции ЦД прижиться в IT и аэрокосмическом секторе (так называемые аэро-Цифровые Двойники aka аэро-ЦД). Но об этом дальше.

Аполлон-13, НАСА и Cisco Packet Tracer

Сама идея/концепция цифровых двойников зародилась не в IT вовсе, а в аэрокосмическом секторе — задолго до того, как получила своё название.

Помните сцену из введения? 11 апреля 1970 года НАСА запустила миссию «Аполлон-13» (третья пилотируемая экспедиция) для высадки на Луне. На третьи сутки полёта случился хлопок взрыв одного из кислородных баков в сервисном модуле. Корабль уже находился на расстоянии более 330 000 км от Земли (это как 8 раз обогнуть Землю по экватору). Взрыв повредил систему электроснабжения, жизнеобеспечения и двигательную установку. Как вы уже догадались, миссия сменила цель — с высадки на борьбу за выживание трёх космонавтов: Джеймса Ловелла, Джона Суайгерта, Фреда Хейза.

Именно этот инцидент и подарил нам фразу «Okay, Houston ... we've had a problem here».

Интересный, но необязательный факт!

В 1970 году не было интернета, а спутниковая связь была ограниченной. Для связи с миссией использовали Сеть дальней космической связи НАСА — Deep Space Network (DSN): группы антенн распределили в разных концах планеты — в Калифорнии, Испании (Мадрид) и Австралии (Канберра — столица, к слову) — так, чтобы в любой момент была связь с кораблём. Радиосвязь шла на S-диапазоне (2–4 ГГц) и UHF для голоса (почти как рация). Через DSN, помимо голоса, передавали телеметрию: давление, температуру, уровень заряда батарей, положение корабля, системные флаги и при необходимости команды uplink (управление со стороны Земли). Задержка сигнала туда-обратно была около 3 секунд, а скорость сильно ограничена — ~2–3 кбит/с, поэтому не вся телеметрия шла одновременно (поочерёдно, по расписанию, пакетами). Кстати, самые большие антенны DSN задействуются только при чрезвычайных ситуациях, в которую и попал корабль Аполлон-13.

Вот тут и начинается самое интересное: сам термин цифровой двойник появился только в 2002 году (с широким применением в 2010-х), но реализация и идея похожа на вирус, она живуча и крайне заразна появились именно в миссии «Аполлон-13». В Хьюстоне у НАСА был полноценный наземный аналог командного и лунного модулей — не просто макеты, а реальные, постоянно синхронизируемые в реальном времени (с задержкой, разумеется) с кораблём стенды, подключённые к симуляторам. Это и был по сути цифровой двойник, который позволил разработать метод экономии энергии и фильтрации воздуха, что и спасло космонавтам жизнь.

Это один из первых в истории случаев удалённого (очень удалённого) управления сложной системой через её цифрового двойника.

Что было дальше:

В 1991 году Дэвид Гелернтер в книге Mirror Worlds описал концепцию, которая удивительно похожа на современные цифровые двойники: виртуальные модели, отражающие поведение реальных объектов. Термина ещё не было, но зерно проросло.

В 2002 году инженер Майкл Гривз из Мичиганского университета и Джон Викерс впервые сформулировали то, что теперь принято считать цифровым двойником — в рамках управления жизненным циклом продукта (PLM). Их модель включала физический объект, его цифровую копию и постоянный обмен данными между ними. Позже её назвали «моделью зеркальных пространств», а затем (в 2006 году) — «моделью зеркалирования информации».

В 2010 году НАСА включило понятие Digital Twin в свою технологическую дорожную карту. Такое определение они дали для широкой публики:

«Цифровой двойник — это интегрированная мультифизическая, многомасштабная симуляция транспортного средства или системы, в которой используются наилучшие доступные физические модели, обновления датчиков, история парка и т.д., чтобы отразить жизнь соответствующего летающего близнеца».

Это было уже не теоретическое рассуждение, а план на внедрение — в авиации, космосе и инженерии.

В 2014 году НАСА опубликовало технический документ, где цифровые двойники стали рассматриваться как обязательный инструмент проектирования (а трёхмерная модель для представления структуры ЦД стала широко обсуждаться в научном сообществе).

В 2019-м Томас Дамерау и Тони Райнер Старк осовременили определение:

«Цифровой двойник — это цифровое представление уникального активного продукта (физического устройства, объекта, механизма, сервиса или нематериального актива) либо уникальной продукто-сервисной системы (системы, объединяющей продукт и связанный с ним сервис), которое отражает его ключевые характеристики, свойства, состояния и поведение через модели, информацию и данные в рамках одной или нескольких фаз жизненного цикла».

Так что концепция ЦД исторически зародилась в аэрокосмической отрасли и с тех пор распространилась в другие сферы. Теперь цифровые двойники есть у двигателей самолётов, узлов производства, зданий, фабрик и даже целых городов (например, Сингапур — Virtual Singapore).

Другое интересное применение цифровых двойников — проверка бизнес-концепций — того, насколько эффективны и оправданы нововведения, инвестиции и другие операционные решения. Это можно сделать до реальных решений и изменений. Датчики и IoT-сети доставляют цифровым двойникам данные в реальном времени, а вычислительные мощности облаков и/или локальных HPC серверов — обрабатывают всё это дело. Автоматизация сбора данных, параметров и их анализ — чуть ли не главное в концепции ЦД.

И даже после принятия решения можно извлечь ещё один плюс — пока оборудование едет в ваш новый ЦОД или серверную, вы сможете в облаке:

  • Проверить совместимость компонентов системы, сервисов, API и протоколов в виртуальной среде перед физическим внедрением. То есть провести виртуальное подтверждение концепции (vPoC — Virtual Proof of Concept);

  • Создать начальные конфигурации;

  • Определить архитектуру СКС;

  • Развернуть и автоматизировать виртуальный ЦОД (например, смоделировать свой DCIM, платформу автоматизации, приложения и любые другие инструменты);

  • Обучить админов работать с новым решением и с особенностями его развёртывания.

А уже после развёртывания и начала работы с новой инфраструктурой можно подключить этого цифрового двойника к физической части и синхронизировать обе системы.

Вспоминаются симуляторы сетей, например, популярнейший Cisco Packet Tracer из нулевых. Это довольно простой образовательный инструмент, который познакомил бог знает сколько админов с сетевым администрированием. Уверен, что кто-то из читателей (да, именно ты, дружище) учился в нём. Packet Tracer позволяет моделировать лишь несколько стандартных сетевых устройств с малым списком функций (и не был ЦД), но хуже от этого он не стал.

А с помощью современных вычислительных мощностей простое сетевое моделирование переросло в комплексное моделирование инфраструктуры центров обработки данных.

Сейчас DevOps-инженеры строят тестовые стенды и стенды-клоны серверов. Иногда локально, но чаще в облаке. Это может быть полный клон — например, виртуальная машина VMware/Hyper-V из продакшен-образа и Docker-контейнер с полной копией сервиса. А может быть и частичный клон — например, веб-сервер (Nginx/Apache) без инфраструктуры + тестовая копия PostgreSQL с теми же таблицами, но без реальных данных.

Помимо полных и частичных клонов создают временные на короткий срок — например, автоматический клон сервера в GitLab CI/CD для прогона тестов и какой-нибудь Kubernetes Pod с временной копией микросервиса.

Но нужно понимать, что построить точную динамическую копию всей IT-инфраструктуры — это уже другая лига. Для этого нет единого фреймворка — и далеко не каждый системный архитектор сможет учесть бесконечный поток обновлений и взаимосвязей.

Цифровые двойники среди нас

Телекоммуникации — одна из самых активных отраслей по применению цифровых двойников. Операторы строят очень сложные сети (десятки тысяч базовых станций и сотни тысяч антенных модулей).

Например, в Швейцарии оператор Swisscom вместе с Ericsson создали точный цифровой двойник 5G-сети, который моделирует покрытие, помехи и поведение трафика, учитывая мобильность пользователей на разных частотных уровнях. Команда изучила задачу, определила, что конкретно нужно моделировать и где проходит грань между точностью и здравым смыслом.

Тысячи циклов обучения — и вот он, финальный набор рекомендаций. Команда прошлась почти по всем ячейкам: где-то добавили мощности, где-то наоборот — сбавили. Результат? Передача сигнала стала на 20% экономичнее, а базовая станция потребляет на 3,4% меньше энергии. Но самое интересное, что покрытие осталось прежним, а для пользователей скорость загрузки выросла на 5%, выгрузки — сразу на 30%. И всё это только за счёт точной настройки (благодаря ЦД).

В примере Ericsson — блочная схема работы цифрового двойника сети: RL-агент (Reinforcement Learning aka Обучение с подкреплением) играет с моделью сети и выдаёт новые настройки, которые затем переносят в реальную сеть. Создание такой модели дело непростое и комплексное, так как нужно учитывать данные по трафику, физике распространения радиоволн и тщательно валидировать результаты.

В малых компаниях таких компетенций и технологий попросту нет.

Дизайн и обслуживание базовых станций — ещё один пример от Ericsson: программа Site Digital Twin (ESDT), основанная на открытых стандартах BIM.

В ней, например, моделируют физическую конструкцию вышки и её оборудование. Площадку тщательно оцифровывают LiDAR-сканером и дронами, собирают 3D-модель конструкции, вносят метаданные, а также физические и логические аспекты всех компонентов. Прикручивают аналитику, ИИ и машинное обучение в сетевых сервисах.

По словам инженеров, цитата, это как «планировщик кухонь IKEA» (если помните такой), только для базовых станций. Библиотека из 40 000 компонентов позволяет перетаскивать их мышкой прямо в модель и сразу видеть ограничения по весу, питанию и т.д. Результат, как по мне, крайне достойный: время проектирования сократилось на 50%; и вместо одного выезда инженера на каждые десять объектов теперь нужен всего один на тысячу.

Промышленность и производство  в этой сфере цифровые двойники популярны довольно давно: от аэрокосмической области, с чего всё началось, до машиностроения и умных производств c IIoT (про это у меня есть отдельная статья на Хабре).

Заводы активно моделируют конвейеры, роботов, датчики и станки, что помогает выиграть при проектировании, прототипировании, администрировании и техническом обслуживании. Если посмотреть на цифры, то IDC отмечает рост осведомлённости и использования ЦД в машиностроении, аэрокосмической индустрии, транспорте, здравоохранении и других отраслях.

Отмечу, что на практике заводские ЦД — чаще гибриды. Часть процессов точно оцифрована, а часть живёт в Excel или вообще в голове у инженера. До полноценной цифровой копии всей инфраструктуры редко доходит.

Бигтех и гиперскейлеры — у гиперскейлеров, вроде Google, Meta (признана в России экстремистской организацией и запрещена), Amazon, Microsoft и крупных телекомов есть всё для ЦД: деньги, инфраструктура, компетенции и собственные R&D-отделы. Они строят ЦОДы на сотни тысяч серверов, управляют сетями на уровне стран и могут позволить себе точные копии инфраструктур.

Например, Meta совместно с NVIDIA разрабатывает цифровые двойники своих дата-центров на платформе Cadence Reality Digital Twin. Эта платформа позволяет создать виртуальную копию ЦОДа, моделировать охлаждение, питание, плотность размещения стоек и другие параметры ещё на этапе проектирования, а затем проводить симуляции «что‑если» в цифровой среде. Она использует физически точный CFD‑движок (Computational Fluid Dynamics), который может симулировать охлаждение и изучать, как изменения в инфраструктуре (установка нового оборудования или изменение планировки) повлияют на всю систему, не останавливая работу. Точные модели стоек, СКС и других инженерных систем импортируют в Omniverse Blueprint от NVIDIA — решение позволяет заниматься крупномасштабным AI-проектированием ЦД заводов и связывает Cadence Reality Digital Twin с другими инструментами (ETAP, Vertiv и т.д.) для комплексного анализа мощности, охлаждения и сетевых нагрузок — ещё до начала строительства.

Да, такой подход — роскошь для большинства компаний. Цифровые двойники такого уровня потянет только очень крупный бизнес с глубокой экспертизой. Но и выгода огромная — меньше простоев, меньше сбоев, меньше расходы в будущем — экономия в десятки, а то и сотни миллионов долларов.

У подавляющего только мониторинг и CMDB

В реальной жизни большинство компаний используют мониторинг (Zabbix, Prometheus, Nagios и пр.) и, может быть, CMDB (Configuration Management Database) на базе ServiceNow, Device42 или аналога.

Классический мониторинг собирает метрики (загрузка CPU, использование памяти, статус сети), но показывает только текущий момент и не предупредит вас до сбоя. Он не объясняет, почему произошла ошибка, не связывает события между сервисами и часто генерирует слишком много алёртов. Простая система мониторинга не учитывает пользовательский опыт и бизнес-метрики, а слепые зоны и сложная настройка — это уязвимости. Хотя современные решения, вроде Dynatrace с AI, уже умеют выявлять зависимости, аномалии и даже возможные причины инцидентов и сбоев.

CMDB — это база данных, которая хранит информацию о компонентах IT-инфраструктуры компании (серверах, программах, сетевых устройствах, администраторах) и связях между ними. Например, какой маршрутизатор отвечает за подключение, кто его настраивал, какие службы от него зависят.

У CMDB тоже хватает проблем. Во-первых, неточные или неполные данные, которые быстро устаревают, особенно в динамичных IT-средах — если не запустить автоматическое обнаружение, админы просто не будут успевать вручную обновлять записи. Во-вторых, переизбыток данных. Да, много данных — это хорошо, когда умеешь с ними работать, но если они нерелевантны и/или не нужны, то вы просто засорите CMDB и усложните поиск нужной информации. К тому же нужно синхронизировать десятки источников данных, так как конфликты и несоответствия ведут к критическим ошибкам.

Многие смотрят на мониторинг и CMDB как на свой максимум, так как считают, что на наблюдаемость и ЦД не хватит компетенций/бюджета/работает-не-трогаем (или вообще не слышали про них). Но ЦД — не всегда сложнее, есть Azure Digital Twins, есть AWS TwinMaker для IoT-устройств, есть Kubernetes с Istio (моделирование сервисов как двойников), есть облачные SaaS-решения и другие сервисы, которые автоматизируют часть процессов.

Но нюансов с цифровыми двойниками действительно хватает, о чём мы поговорим дальше.

Данные всему голова

Цифровой двойник любит кушать. И не абы что, а свежие данные в автоматическом режиме: конфигурации серверов, состояния каналов, данные с датчиков о нагрузках, температуре, давлении и т.п. И проблема даже не в том, где взять эти данные, а как это (и что именно) правильно собрать и интерпретировать. По-хорошему информации должно быть очень много, поэтому для симуляции ЦД нужна профилированная система — производительная и масштабируемая, — чтобы решать задачи на том же уровне, что и оригинальная среда. Статичные модели (например, BIM-модели зданий) могут работать на стандартном железе, но для симуляции сложных процессов (промышленные линии, энергосети, логистические хабы) нужны GPU-кластеры, распределённые вычисления и реалтайм-аналитика (Kafka, Spark). Без этого модель останется красивой визуализацией с околонулевой практической пользой. В общем, в инфраструктуру для ЦД нужно вкладываться отдельно.

Пример количества данных: ежедневные патчи меняют Docker-образы; в кластере Kubernetes постоянно сменяются NetworkPolicies, Ingress или Service, что приводит к проблемам маршрутизации и нестабильности сервисов; конфиги микросервисов автоматически перезаписываются при деплое (например, через Helm или ConfigMaps), и это может сломать работу.

Всё это нужно скопировать в модель, ничего не упустив. Точные цифровые копии реальных объектов — процесс трудоёмкий, с очень высокими начальными затратами.

Нездоровая зависимость

В реальных масштабных системах (сеть, серверы и сервисы) связи бесконечно сложны: физическое оборудование, виртуальные машины, кластеры, базы данных, очереди сообщений, внешние API. Например, можно так и не дождаться, что CMDB сама поймёт, что «сервер A запустил контейнеры с приложением B, которое общается с сервисом C по порту 8080, а база D лежит на SAN E». Статичная схема не отражает потоковые связи или автоматическое масштабирование. А вот цифровой двойник должен понимать эти зависимости и непрерывно их обновлять.

При создании ЦД неизбежно будут компромиссы между упрощением модели и точностью. Нужно искать баланс между слишком простой (быстрой, но неточной) моделью и слишком сложной (точной, но непрактичной). Без понимания, что именно нужно симулировать, и без чего можно обойтись, проект по цифровому двойнику становится сизифовым трудом.

Поведение систем в динамике

Цифровой двойник должен моделировать, что будет при изменениях (случайных или специальных): росте нагрузки, отказах оборудования, пиковых наплывах запросов, DDoS-атаках разной силы, развёртывании нового сервиса.

Настроить такую динамичную модель — отдельный квест. Даже в сетевой отрасли, где привычны вопросы а-ля «что будет, если изменить нагрузку на сеть», создать реалистичную симуляцию — задача не из простых. Смоделировать поведение тысяч пользователей, добавить к этому перебои питания, сбои на узлах и прочий хаос — всё это куда сложнее, чем просто прогнать тестовые пакеты данных.

Сама по себе телеметрия — логи, метрики, трассировки — не превращает модель в цифрового двойника. Её ещё нужно оживить: задать сценарии поведения, сымитировать флуктуации и аварии, научить реагировать на нестандартные ситуации, как это делает настоящая система. Иначе получится не ЦД, а фантазия админа или системного архитектора. И тут как повезёт (скорее всего не очень).

Универсальных шаблонов, к сожалению, не бывает — обычно всё настраивается и калибруется вручную под конкретную инфраструктуру и цели.

Лютый кастом

На рынке уже есть инструменты для создания цифровых двойников, но почти всегда они заточены под узкие задачи: моделирование дата-центров, планирование сетей, симуляции в машиностроении. Взять коробочное решение и просто подключить свою серверную не выйдет. Почти всегда это глубокий кастом: нужно интегрировать CMDB, системы мониторинга, AIOps, облачные API, внутренние базы.

Сборка с актуальными данными требует полноценной команды: DevOps, инженеров по облакам, аналитиков. Причём не на один спринт с пиццей и пивом газировкой, а всерьёз и надолго. И бюджет будет соответствующий. Самое же неприятное — модель почти всегда отстаёт от реальности. Пока вы её дотягиваете до актуального состояния, живая инфраструктура уже ушла вперёд.

В итоге, чтобы экономить на предотвращении инцидентов, сначала тратим кучу денег на виртуальный ЦОД. Поэтому легко понять тех, кто решает просто чинить всё, что ломается.

Финал? Нет, только начало…

Цифровые двойники сегодня — это путь к тому, чтобы не просто контролировать сложные процессы, а понимать их. Не просто моделировать, а предсказывать. Когда-нибудь, с дальнейшим развитием ИИ, с гипотетической реализацией квантовых вычислений (об архитектуре которых у меня есть отдельный материал), цифровые двойники станут стандартом в системах любой сложности — от двигателя самолёта до серверной стойки в небольшой компании.

Кто знает, может, в будущем и у людей будут цифровые двойники? Наши копии будут поглядывать на нас из зеркала, предлагать (и показывать), как мы могли бы выглядеть с другой причёской или в другой одежде; подсказывать, что не так со здоровьем. Возможно, они будут знать, как мы работаем, устаём, выгораем — и намекать, когда пора притормозить и взять отпуск. Не ради контроля, а ради заботы (хочется верить).

А пока мы только учимся делать модели настоящих вещей и объектов, которые не отстают от оригинала хотя бы на пару шагов.

Комментарии (1)


  1. kovserg
    19.06.2025 21:11

    Кто же такой цифровой двойник

    Цифровой двойник - это красивый маркетинговый термин для математической модели. Только тут стараются все расчеты свалить на нейросеть, авось прокатит (а если нет то надо больше данных). Как и любая мат.модель она может иметь разную точность: от сферического коня в ваккуме до более сложных инженерных моделей с кучей допущений и экспериментальных зависимостей с погрешностями в 20%. Но в любом случае есть область применения, разная точность и разные уровни детализации. Но в рекламных целях всегда говорят что она полностью на 146% описывает реальный объёкт и учитывает все физические процессы и т.п. Что обычно далеко от правды. Ибо всё учесть невозможно. Зато обязательно должна быть карсивая визуализация а лучше VR и AR так выше продажи.

    Система многократно проигрывает различные сценарии, чтобы понять, насколько совместимы реальные люди. Если цифровые аватары 998 раз из 1000 выбирают...

    Это называется метод Монте-Карло. Он прост и способен пожирать любые вычислительные ресурсы, так как сходимость у него так себе. При увеличении выборки в 100 раз точность увеличивается только в 10.