В апреле 2025 года акции NVIDIA упали на 7% после запрета экспорта чипов H20 в Китай — эксперты оценили квартальные убытки в 5,5 миллиарда долларов. А после новостей о готовящемся к выпуску Huawei Ascend 910D стоимость акций NVIDIA ушла вниз еще на 5,6%.

Huawei, несмотря на жесткие санкции и ограниченный доступ к передовым технологиям, продолжает наращивать присутствие на рынке AI-ускорителей. Однако NVIDIA не хочет отдавать противнику весь Китай и модифицирует свои чипы, чтобы обойти запрет. Битва выходит далеко за рамки обычной корпоративной конкуренции — это геополитическое противостояние за контроль над технологиями, которые определяют будущее искусственного интеллекта.

Давайте разберемся, насколько близко подобрался Huawei Ascend 910C к флагманскому NVIDIA H100, что известно о готовящемся 910D и какие стратегии используют оба гиганта в борьбе за доминирование на рынке AI-чипов.

Санкции как катализатор: почему Китай создает собственные AI-чипы

В мае 2019 года администрация президента Трампа внесла Huawei в черный список экспортного контроля США. Тогда это решение рассматривалось как серьезный удар по амбициям китайского технологического гиганта. Мало кто предполагал, что спустя шесть лет компания не только выживет, но и станет серьезным конкурентом NVIDIA в области чипов для искусственного интеллекта.

Первоначально американские санкции были направлены против телекоммуникационного бизнеса Huawei, особенно в области 5G. Однако постепенно ограничения расширились, затронув доступ компании к передовым полупроводниковым технологиям.

В октябре 2022 года США ввели новые жесткие ограничения, запретив экспорт в Китай высокопроизводительных чипов NVIDIA A100 и H100 — основу для обучения крупных языковых моделей и других систем искусственного интеллекта. NVIDIA, не желая терять огромный китайский рынок, разработала специальные версии своих чипов (A800 и H800) с пониженными характеристиками, которые соответствовали экспортным требованиям США. Когда и эти модели попали под запрет, компания представила еще более урезанную версию (H20) специально для китайского рынка.

NVIDIA H20
NVIDIA H20

В апреле 2025 года администрация Трампа запретила экспорт даже этих ограниченных чипов H20. Компания была вынуждена списать 5,5 миллиарда долларов убытков за квартал и потенциально потеряла до 16 миллиардов годового дохода. А сейчас опять пытается искусственно ухудшить уже H20, чтобы обойти новые ограничения.

Однако санкции не остановили развитие китайских технологий искусственного интеллекта. Наоборот, они стали мощным катализатором к созданию собственной экосистемы AI-чипов. Экспортный контроль США фактически загнал китайские компании в угол, где они вынуждены быть гораздо более эффективными с их ограниченными вычислительными ресурсами.

Ascend 910C: насколько близко подобрался китайский чемпион к NVIDIA H100

Huawei Ascend 910C представляет собой чиплетную архитектуру с 53 миллиардами транзисторов, которая произведена по 7-нм техпроцессу SMIC. Чип развивает производительность до 320 TFLOPS (некоторые источники утверждают — до 800 TFLOPS в FP16 в зависимости от конфигурации и до 1600 TOPS в INT8) для операций с 16-битной точностью (FP16) и 64 TFLOPS для 8-битных целочисленных операций (INT8) при энергопотреблении около 310 ватт. В качестве памяти используются старые типы HBM2 или HBM2E.

Для сравнения: NVIDIA H100 построен на архитектуре Hopper, производится по 4-нм техпроцессу TSMC и содержит 80 миллиардов транзисторов. Он включает 640 тензорных ядер 4-го поколения и обеспечивает до 3958 TFLOPS в FP8 и 67 TFLOPS в FP64. H100 использует память HBM3 с объемом до 80–96 ГБ и пропускной способностью до 3,35 ТБ/с при TDP до 700 ватт.

Согласно тестам DeepSeek, Ascend 910C достигает примерно 60% производительности NVIDIA H100 в задачах инференса. Этот результат впечатляет, учитывая ограниченный доступ Huawei к передовым технологиям из-за санкций.

Несмотря на технологический разрыв, Ascend 910C добился значительного коммерческого успеха в Китае. Huawei планирует произвести более 100 000 единиц к концу 2025 года, а китайские технологические гиганты: ByteDance, Baidu, Alibaba, Tencent — активно внедряют эти чипы.

По данным TrendForce, интегрированная машина на базе чипов Ascend может сократить расходы на 60–70% по сравнению с решением на базе NVIDIA H100, что делает продукты Huawei привлекательными с точки зрения соотношения цены и производительности. Однако говорить о полном паритете пока рано: чип отстает по энергоэффективности, имеет менее развитую программную экосистему и испытывает трудности с обучением крупных моделей. Тем не менее прогресс Huawei очевиден, а с учетом готовящихся к выпуску Ascend 910D и Ascend 920 конкуренция на рынке AI-чипов будет только усиливаться.

Стратегия масштабирования: CloudMatrix против серверов NVIDIA

Компания Huawei понимает, что отстает от конкурента, и поэтому разработала уникальную стратегию конкуренции с NVIDIA — масштабирование через объединение большого количества процессоров в единую систему. Эта стратегия нашла воплощение в системе CloudMatrix 384, которая представляет собой ответ Китая на высокопроизводительные серверы NVIDIA.

CloudMatrix 384 (CM384) объединяет 384 чипа Ascend 910C в конфигурации «каждый с каждым» (all-to-all topology). Система размещается в 16 стойках, где 12 вычислительных стоек содержат по 32 процессора Ascend 910C каждая, а 4 сетевые стойки используются для высокоскоростного соединения с помощью оптических интерконнекторов 800G LPO. Совокупная пропускная способность оптической сети — более 5,5 петабита в секунду.

Такой подход позволил Huawei компенсировать технологическое отставание отдельных чипов за счет их количества. CloudMatrix 384 выдает 300 петафлопс вычислительной мощности BF16, что почти вдвое больше, чем у сервера NVIDIA GB200 NVL72. Более того, система содержит 49,2 ТБ памяти HBM, что в 3,6 раза больше, чем у GB200 NVL72 (13,8 ТБ), и обеспечивает пропускную способность памяти 1229 ТБ/с по сравнению с 576 ТБ/с у решения NVIDIA.

В отличие от стратегии Huawei, NVIDIA делает ставку на эффективность отдельных чипов и их тесную интеграцию. Флагманский сервер NVIDIA GB200 NVL72 использует 72 графических процессора Blackwell, которые соединены с 36 процессорами NVIDIA Grace на базе Arm. 

Ключевое преимущество подхода NVIDIA — это использование передовых технологий производства и межсоединений. Графические процессоры Blackwell производятся по 4-нм техпроцессу TSMC и используют память HBM3, что обеспечивает значительно более высокую энергоэффективность. NVLink — технология межсоединения NVIDIA — обеспечивает пропускную способность до 900 ГБ/с в одну сторону между GPU, что значительно быстрее, чем 50 ГБ/с (400G) в традиционных сетях InfiniBand/Ethernet.

Главный недостаток подхода Huawei — значительно более высокое энергопотребление. При выполнении типичных задач искусственного интеллекта AI сервер CloudMatrix 384 потребляет в 4,1 раза больше энергии, чем GB200 NVL72, причем потребляемая мощность на FLOP в 2,5 раза выше.

Это отличие объясняется использованием 7-нм техпроцесса SMIC для чипов Ascend 910C, что менее эффективно по сравнению с 4-нм техпроцессом для чипов NVIDIA. Кроме того, архитектура CloudMatrix требует большого количества оптических трансиверов и сложной сети для поддержки масштабирования, что дополнительно увеличивает энергопотребление.

Для наглядного сравнения характеристик NVIDIA GB200 и Huawei Ascend 910С приведем основные технические параметры на уровне отдельных чипов:

Параметр

Единица измерения

NVIDIA GB200

Huawei Ascend 910C

Соотношение Huawei/NVIDIA

Производительность BF16

TFLOPS

2,500

780

0,3x

Объем памяти HBM

ГБ

192

128

0,7x

Пропускная способность памяти

ТБ/с

8,0

3,2

0,4x

Пропускная способность межчиповых соединений

Гбит/с (однонаправленная)

7,200

2,800

0,4x

И на уровне кластеров:

Параметр

Единица измерения

NVIDIA GB200 NVL72

Huawei CM384

Соотношение Huawei/NVIDIA

Производительность BF16

PFLOPS

180

300

1,7x

Объем памяти HBM

ТБ

13,8

49,2

3,6x

Общая пропускная способность памяти

ТБ/с

576

1,229

2,1x

Количество чипов в кластере

Штук

72

384

5,3x

Общее энергопотребление

Вт

145,000

599,821

4,1x

Энергоэффективность 

Вт/TFLOP

0,81

2,00

2,5x

Как видно из таблиц, отдельные чипы NVIDIA значительно превосходят решения Huawei по всем ключевым параметрам. Однако на уровне систем Huawei компенсирует это отставание за счет масштабирования — использования в 5,3 раза большего количества чипов в кластере. Это позволяет CloudMatrix 384 обеспечить в 1,7 раза более высокую общую производительность и в 3,6 раза больший объем памяти по сравнению с NVIDIA GB200 NVL72.

Стоимость кластера CloudMatrix 384 составляет около 8 миллионов долларов, что примерно в три раза выше, чем у конфигурации NVIDIA GB200 NVL72. Это показывает, что основная цель Huawei — не просто выгодность решения, но и создание независимого продукта, полностью разработанного за счет собственных ресурсов и способного конкурировать с западными альтернативами.

Программный барьер: экосистема CUDA против новичков

Аппаратные решения — это лишь часть уравнения в гонке AI-технологий. Не менее важный фактор — программное обеспечение, которое позволяет эффективно использовать эти мощные системы. Здесь NVIDIA с ее зрелой экосистемой CUDA имеет существенное преимущество, которое китайским конкурентам еще только предстоит преодолеть.

CUDA — это параллельная вычислительная платформа, которую NVIDIA разработала еще в 2006 году. За почти два десятилетия она превратилась в мощную экосистему, включающую компиляторы, библиотеки и инструменты оптимизации. Сила CUDA не только в ее функциональности, но и в библиотеках, таких как cuDNN для глубокого обучения и cuBLAS для линейной алгебры, оптимизированные для работы с графическими процессорами NVIDIA.

Получается, что NVIDIA контролирует всю технологическую цепочку — от программного обеспечения до оборудования, что дает оптимальную производительность и совместимость. Кроме того, ведущие фреймворки машинного обучения, такие как TensorFlow и PyTorch, оптимизированы для работы с GPU NVIDIA через CUDA. Это делает ее незаменимой частью современной разработки AI.

Huawei осознает стратегическую важность программной экосистемы и работает над созданием собственных инструментов. Ключевыми компонентами ее программной стратегии являются:

  1. CANN — модель параллельного программирования и набор инструментов для работы с чипами Ascend. CANN разрабатывается с 2019 года и включает Fusion Engine для оптимизации операторов, библиотеку CCE для компьютерного зрения и NLP, а также Tensor Boost Engine для разработки пользовательских операторов.

  2. MindSpore — открытый фреймворк машинного обучения, оптимизированный для чипов Huawei Ascend. MindSpore предлагает автоматический параллелизм для распределенного обучения сверхбольших моделей и унифицированный язык представления моделей для согласованного развертывания.

  3. Ascend AI — комплексная платформа. Она объединяет аппаратные и программные компоненты для разработки и развертывания AI-приложений.

Несмотря на значительные инвестиции, программная экосистема Huawei всё еще отстает от конкурента. Разработчики отмечают, что работать с Ascend 910B сложно, а отсутствие активного сообщества затрудняет решение проблем. 

Huawei признает сложность создания полноценной альтернативы CUDA с нуля и поэтому развивает несколько параллельных стратегий. В октябре 2023 года компания стала премьер-членом PyTorch Foundation и начала разрабатывать адаптеры, такие как torch_npu, для интеграции своих чипов с популярными фреймворками. Также Huawei инвестирует в ONNX, чтобы обеспечить переносимость моделей между разными платформами.

Уже есть примеры успешного преодоления программного барьера. DeepSeek поддерживает репозиторий PyTorch, который обеспечивает плавный переход от CUDA к CANN, что упрощает использование оборудования Huawei. Кроме того, Huawei утверждает, что разработала инструмент для one-click conversion кода CUDA в код CANN с интеграцией PyTorch, эффективность которого составляет более 95%.

Создание собственной программной экосистемы — долгосрочная задача, которая требует значительных инвестиций. NVIDIA строила экосистему CUDA почти два десятилетия, и Huawei придется пройти аналогичный путь. Но компания может сократить этот срок благодаря государственной поддержке, быстрому росту внутреннего рынка и активному сотрудничеству с международными организациями.

Битва за будущее AI: китайский рынок, перспективные чипы и геополитика

Китайский рынок AI-чипов стремительно трансформируется в ответ на экспортные ограничения США. По прогнозам, за 2025 год его объем достигнет 50 миллиардов долларов и создаст огромные возможности для отечественных производителей. До введения запрета в 2024 году Huawei продала около 200 000 чипов Ascend 910B, в то время как NVIDIA реализовала примерно миллион чипов H20 на китайском рынке.

Huawei активно развивает линейку AI-ускорителей серии Ascend. Текущая модель Ascend 910C обеспечивает около 60–70% производительности NVIDIA H100 при выполнении задач инференса, при этом имеет преимущество в энергоэффективности: 310 Вт против 700 Вт у H100. Следующее поколение — Ascend 910D, образцы которого ожидаются к концу мая 2025 года, разрабатывается, чтобы достичь полной производительности H100 или даже превзойти ее. Однако компания сталкивается с серьезными производственными проблемами: количество исправных чипов составляет лишь 40% от общего объема производства, хотя это на 20% лучше, чем годом ранее.

Еще более амбициозная разработка — Ascend 920, анонсированный в апреле 2025 года. Этот чип производится по 6-нм технологии и оптимизирован для моделей Mixture of Experts. Он запланирован к массовому производству в конце 2025 года.

Ключевым рынком для Huawei становятся китайские технологические гиганты. ByteDance, родительская компания TikTok, уже заказала 100 000 чипов Ascend 910B, а Baidu закупила 1600 таких чипов. В целом Huawei планирует поставить более 800 000 своих AI-чипов Ascend 910B и 910C клиентам в 2025 году.

В ответ на развитие китайских альтернатив в мае 2025 года США объявили, что использование чипов Huawei Ascend «в любой точке мира» нарушает американские правила экспортного контроля. Одновременно администрация отменила правило, которое ограничивает экспорт американских AI-чипов на международные рынки без специального разрешения. То есть формируются две параллельные технологические экосистемы: западная и китайская.

Государственная поддержка в Китае становится ключевым фактором развития отрасли. В январе 2025 года Банк Китая объявил о пятилетнем плане финансирования всех этапов производства и внедрения искусственного интеллекта (от разработки до применения) на сумму 138 миллиардов долларов. В марте 2025 года был создан Национальный фонд руководства инвестициями в инновации, нацеленный на привлечение такой же суммы.

В глобальном масштабе мы наблюдаем начало новой эры технологической конкуренции, где доступ к передовым AI-чипам определит экономическое и военное превосходство. Эта гонка технологий формирует не только будущее рынка AI-чипов, но и экономическое будущее государств на десятилетия вперед.

Кстати, если вы работаете с AI/ML задачами, то у нас действует актуальное предложение со скидкой в 25% на облачные серверы с NVIDIA L40S 48Gb и уже включает в себя 16 ядер высокочастотного EPYC 9374F, 64GB DDR5 и 500 локального NVMe. Специальная цена в 73 200 р/мес действует на ограниченное количество серверов. Также можно выбрать и GPU других типов, как например NVIDIA L4 или NVIDIA A16.

Комментарии (2)


  1. unreal_undead2
    20.05.2025 07:44

    если вы работаете с AI/ML задачами, то у нас действует актуальное предложение со скидкой в 25% на облачные серверы с NVIDIA L40S 48Gb

    Почему не с CloudMatrix? ;)


    1. mClouds_editor Автор
      20.05.2025 07:44

      Кажется, что Huawei их так просто не отдаст, тем более со скидкой ))