В первой части мы разобрали базовые задачи спутников, энергообеспечение и охлаждение — всё то, без чего невозможно построить орбитальный дата-центр. Но даже если с энергией и теплом удастся справиться, остаются не менее жёсткие барьеры: радиация, обслуживание и связь. Именно они определяют, как долго прослужит «космическое железо» и сможет ли оно вообще обмениваться данными с Землёй.
На связи Александр Токарев, CTO группы компаний Voxys. В этой статье — подробнее о главных ограничениях, мешающих запустить дата-центры в космосе.

Радиация
Ещё один источник проблем в космосе — радиация. Этого там хватает:
Солнечная радиация
Галактическое излучение (включая рентген и гамма)
Радиационные пояса Земли
Сам космический аппарат — из-за скалывания частиц в материале корпуса Кстати, именно поэтому корпуса обычно не толще 1,8 см. Иначе понадобится защита от защиты, ведь тяжёлые частицы, ударяясь о корпус, выбивают из него нейтроны и протоны, а от них надо защищаться не меньше, чем от галактических частиц.

Этих частиц довольно много, они летят с разной энергетикой и дают разные эффекты:
Одномоментные (single-event) — происходят в конкретный момент времени
Накопительные или кумулятивные (cumulative) –– действуют на систему длительное время
Примеры одномоментных эффектов:
Single-event upset (SEU), когда ноль в транзисторе может превратиться в единицу. Как следствие –– ошибки вычислений. Из-за такого сбоя миссия Фобос-Грунт завершилась неудачно.
Single-event latch (SEL), которая может привести к скачкам вольтажа на полупроводнике, например в 100 раз. Последствия –– резкие скачки по напряжения и возможный выход из строя компонентов.
Примеры накопительных эффектов:
Total Ionizing Dose (TID) — постепенный дрейф характеристик электроники.
Displacement Damage — когда сбивается структура кристаллической решётки, из-за чего батареи и другие элементы перестают выдавать исходные параметры.
Решения по защите от радиации
На базовом уровне для защиты от радиации используются самые простые приёмы: правильная компоновка космического аппарата, где какие-то инженерные конструкции закрывают вычислительные блоки, резервирование и многократное вычисление.
Но есть нюанс: для ЦОДа многократные вычисления бессмысленны. В дата-центре всё крутится вокруг экономии ресурсов, а повторные расчёты применяют только на космических аппаратах в системах управления, где ошибка может стоить миссии.
И поскольку защиты базового уровня явно недостаточно, применяются более эффективные решения, включающие использование специального оборудования, укрывные материалы, а также более экзотические вещи как активное маневрирование под магнитосферу Земли.
У решений со специальными микросхемами свои особенности:
автоперезагрузка питания
сапфировая подложка
архитектура triple-well — дополнительная изоляция pn-переходом
легирование кремния бором-11

На иллюстрации выше показаны два одинаковых операционных усилителя: обычный и радиационно-стойкий. Разница в цене происходит в первую очередь не из-за того, что красивые золотые детали сложно сделать, а в мелкосерийном производстве. Цена высока из-за малых партий.
Активное маневрирование часто называют способом защиты от радиации, но у него слишком много проблем:
мало спутников космической погоды, чтобы точно прогнозировать радиационную обстановку
нужно согласовывать орбиты с другими КА
риск столкнуться с космическим мусором
прохождение через радиационные пояса: если ЦОД стоит на геостационаре, то это значит «прыгнуть» на 25 тысяч километров туда и обратно
огромные затраты топлива
сложность быстрого манёвра
Поэтому в реальности этот приём — скорее красивая идея, чем рабочее решение. Более надёжный способ — использовать укрывные материалы.
Примеры уже существующих экспериментов:
«Защитный композит» на МКС-67 — показал эффективность около 30%
«Шторка защитная» на МКС — эффективность около 20%
Иногда решения выглядят неожиданно простыми. Например, космонавты на МКС заполняют внутреннюю обшивку каюты обычными влажными салфетками с Земли. Это и есть изделие «Шторка защитная», ведь вода прекрасно останавливает заряженные частицы.

А если совсем экспериментировать, то можно пойти дальше — посадить в дата-центре грибы. Да-да, такие тесты на МКС тоже проводились: грибы показали себя как потенциальный элемент радиационной защиты.
Обслуживание ЦОДов
Любой дата-центр нужно обслуживать. В космосе это означает менять компоненты, поднимать орбиту, дозаправлять. Орбитальное обслуживание космических аппаратов –– уже давно не теория, а реальность.

Слева на фото — происходит процесс замены гироскопов на телескопе Hubble. Справа — космический аппарат Intelsat-901, на котором осуществляется классический способ продления жизни спутника. Его вывели с геостационара на орбиту захоронения, а далее с помощью аппарата MEV-1, который пристыковался и отбуксировал спутник на нужную рабочую орбиту. Intelsat-901 проработал почти до начала этого года, после чего MEV-1 снова отвёл его на орбиту захоронения. Сейчас MEV-1 направляется к австралийскому спутнику Optus D3, чтобы повторить операцию.
Обслуживание –– стартапы
Существуют десятки стартапов, пробующих выйти на рынок орбитального обслуживания. Среди них: OrbitFab, Starfish Space, Spaceium, D-Orbit, InfiniteOrbits, Atomos, ClearSpace.
Но главная проблема даже не в технологиях, а в экономике. Доставка каждых 100 кг гидразина для заправки космического аппарата в рамках таких стартапов обходится примерно в 20 млн долларов.

И в целом обслуживание в космосе — это сложно, потому что:
нет единых интерфейсов стыковки
нет стандартов компонентов оборудования
быстрое устаревание — проще увести аппарат и запустить новый
сложность стыковки
качественная связь — одна из главных проблем. Её освоили лишь единицы стран (Россия, Индия, США, Китай), поэтому успешные стыковки пока тоже большая редкость
Нам ещё предстоит унифицировать стандарты и упростить саму процедуру обслуживания. А проблему качественной связью пытаются решить с помощью лазерных технологий.
Лазерные линии связи
С высокой вероятностью именно лазерные линии станут основой обмена данными между будущими космическими дата-центрами и Землёй.
Преимущества лазеров:
не нужно регистрировать частоты (а регистрация — одна из главных головных болей в космосе)
сложно подавить сигнал
высокая пропускная способность — до 100 Гбит/с без проблем
меньшее энергопотребление по сравнению с радио
оборудование доступно под разные размеры аппаратов — от CubeSat 10×10×10 см до больших спутников

Но есть и недостатки:
полнодуплексность пока редкость
требуется очень точное наведение на приёмник (лучи всегда активны)
луч легко сорвать препятствием от Солнца или атмосферными условиями
большая масса оборудования, инженерная сложность и высокая стоимость (сотни тысяч долларов)
ограниченная дальность
-
главная проблема — несовместимость стандартов: формально есть SDA OCT, но его почти никто не соблюдает, поэтому терминалы разных производителей часто работают только в своём контуре.
Выше на фото –– Permanent Laser Inter-Satellite Link.
У спутников Starlink установлено по четыре лазера. Они постоянно «светят» друг в друга, чтобы не тратить время на наведение при каждом сеансе. В среднем один лазерный луч держится около недели, а перенастройка на другой приёмник занимает 12–30 секунд.
Лазерные линии связи в России
В России тоже есть несколько команд, которые развивают лазерные линии связи: МФТИ, QSpace, Бюро1440, АО «СПП».
У СПП собственный терминал (слева на рисунке ниже), который планировалось установить на ретрансляционный спутник «Луч-5». Но, судя по всему, проект не довели до конца. Другая компания, которая создаёт лазерные терминалы это QSpace (их спутник справа на рисунке ниже).
У этого вопроса есть и геополитический контекст. При администрации Трампа вопрос лазерной связи сразу оказался в первых строках программы по освоениюкосмоса. В Конгрессе США выходили доклады о разработках в этой области.
Но в реальности даже США сталкиваются с аналогичными проблемами, потому что точно так же игнорируют все стандарты.
Системы ретрансляции
Обычно на борту космических аппаратов недостаточно мощное оборудование. Они далеко не всегда находятся в зоне прямой видимости наземного сегмента. А взаимодействия напрямую между космическими аппаратами требуется ещё больше. Поэтому без ретрансляторов не обойтись.
Создаётся всё больше ретрансляционных систем: Starshield, Луч-5Х, TDRSS, JDRS, EDRS, Kepler, SpaceLink, Hedron, Audacy, SkyLoom.
Например, российский ретранслятор «Луч-5Х» обеспечивает связь с МКС, когда она выходит из зоны действия российского наземного сегмента. Как раз с тем самым отсутствующим лазерным модулем связи (сейчас эту тему снова активно обсуждают и я надеюсь, что на новом «Луче» лазеры уже будут).

Вокруг ретрансляции регулярно возникают стартапы, но большинство из них довольно быстро банкротится. Тем не менее в ближайшее время на низкую околоземную орбиту планирует выйти стартап Kepler. Разработчики обещают встроить в него ещё два дата-центра. Но по сути это не полноценные ЦОДы, �� Remote EDGE Compute — компактные устройства для обработки данных прямо на EDGE, в первую очередь для задач дистанционного зондирования Земли.

Все эти ограничения объясняют, почему полноценных дата-центров в космосе пока нет. Но при этом вычисления на орбите уже давно ведутся — от уже традиционного Edge Compute до Remote Edge и Software-Defined-Satellite.
Выводы
Главные ограничения космических дата-центров связаны не с самим железом», а с инфраструктурой. Солнечные батареи быстро деградируют, РИТЭГи малоэффективны, ядерные реакторы небезопасны, а радиация делает электронику крайне уязвимой. Даже если вычислительные мощности на орбите удастся разместить, их будет сложно поддерживать: орбитальный ремонт и дозаправка пока редкость и обходятся слишком дорого.
Не меньше проблем возникает и со связью. Лазерные каналы и системы ретрансляции выглядят перспективно, но пока встречают много проблем — от несовместимости стандартов и высокой стоимости до технических ограничений.
В третьей части мы посмотрим, какие проекты уже работают, кто из стран и компаний делает первые шаги к «орбитальным облакам», какие цифры стоят за китайским «Созвездием трёх тел», почему даже Raspberry Pi Zero может считаться космическим ЦОДом — и что это значит для ближайших 3, 10 и 30 лет развития.
Скрытый текст
Узнать больше о технологиях, которые позволяют одновременно обслуживать многие тысячи и миллионы пользователей, можно будет на конференции по обмену знаниями HighLoad++ в ноябре. Это крупнейшая профессиональная конференция для разработчиков высоконагруженных систем. Не упустите шанс забронировать билет!