В апреле 2025 года акции NVIDIA упали на 7% после запрета экспорта чипов H20 в Китай — эксперты оценили квартальные убытки в 5,5 миллиарда долларов. А после новостей о готовящемся к выпуску Huawei Ascend 910D стоимость акций NVIDIA ушла вниз еще на 5,6%.
Huawei, несмотря на жесткие санкции и ограниченный доступ к передовым технологиям, продолжает наращивать присутствие на рынке AI-ускорителей. Однако NVIDIA не хочет отдавать противнику весь Китай и модифицирует свои чипы, чтобы обойти запрет. Битва выходит далеко за рамки обычной корпоративной конкуренции — это геополитическое противостояние за контроль над технологиями, которые определяют будущее искусственного интеллекта.

Давайте разберемся, насколько близко подобрался Huawei Ascend 910C к флагманскому NVIDIA H100, что известно о готовящемся 910D и какие стратегии используют оба гиганта в борьбе за доминирование на рынке AI-чипов.
Санкции как катализатор: почему Китай создает собственные AI-чипы
В мае 2019 года администрация президента Трампа внесла Huawei в черный список экспортного контроля США. Тогда это решение рассматривалось как серьезный удар по амбициям китайского технологического гиганта. Мало кто предполагал, что спустя шесть лет компания не только выживет, но и станет серьезным конкурентом NVIDIA в области чипов для искусственного интеллекта.
Первоначально американские санкции были направлены против телекоммуникационного бизнеса Huawei, особенно в области 5G. Однако постепенно ограничения расширились, затронув доступ компании к передовым полупроводниковым технологиям.
В октябре 2022 года США ввели новые жесткие ограничения, запретив экспорт в Китай высокопроизводительных чипов NVIDIA A100 и H100 — основу для обучения крупных языковых моделей и других систем искусственного интеллекта. NVIDIA, не желая терять огромный китайский рынок, разработала специальные версии своих чипов (A800 и H800) с пониженными характеристиками, которые соответствовали экспортным требованиям США. Когда и эти модели попали под запрет, компания представила еще более урезанную версию (H20) специально для китайского рынка.

В апреле 2025 года администрация Трампа запретила экспорт даже этих ограниченных чипов H20. Компания была вынуждена списать 5,5 миллиарда долларов убытков за квартал и потенциально потеряла до 16 миллиардов годового дохода. А сейчас опять пытается искусственно ухудшить уже H20, чтобы обойти новые ограничения.
Однако санкции не остановили развитие китайских технологий искусственного интеллекта. Наоборот, они стали мощным катализатором к созданию собственной экосистемы AI-чипов. Экспортный контроль США фактически загнал китайские компании в угол, где они вынуждены быть гораздо более эффективными с их ограниченными вычислительными ресурсами.
Ascend 910C: насколько близко подобрался китайский чемпион к NVIDIA H100
Huawei Ascend 910C представляет собой чиплетную архитектуру с 53 миллиардами транзисторов, которая произведена по 7-нм техпроцессу SMIC. Чип развивает производительность до 320 TFLOPS (некоторые источники утверждают — до 800 TFLOPS в FP16 в зависимости от конфигурации и до 1600 TOPS в INT8) для операций с 16-битной точностью (FP16) и 64 TFLOPS для 8-битных целочисленных операций (INT8) при энергопотреблении около 310 ватт. В качестве памяти используются старые типы HBM2 или HBM2E.
Для сравнения: NVIDIA H100 построен на архитектуре Hopper, производится по 4-нм техпроцессу TSMC и содержит 80 миллиардов транзисторов. Он включает 640 тензорных ядер 4-го поколения и обеспечивает до 3958 TFLOPS в FP8 и 67 TFLOPS в FP64. H100 использует память HBM3 с объемом до 80–96 ГБ и пропускной способностью до 3,35 ТБ/с при TDP до 700 ватт.
Согласно тестам DeepSeek, Ascend 910C достигает примерно 60% производительности NVIDIA H100 в задачах инференса. Этот результат впечатляет, учитывая ограниченный доступ Huawei к передовым технологиям из-за санкций.
Несмотря на технологический разрыв, Ascend 910C добился значительного коммерческого успеха в Китае. Huawei планирует произвести более 100 000 единиц к концу 2025 года, а китайские технологические гиганты: ByteDance, Baidu, Alibaba, Tencent — активно внедряют эти чипы.
По данным TrendForce, интегрированная машина на базе чипов Ascend может сократить расходы на 60–70% по сравнению с решением на базе NVIDIA H100, что делает продукты Huawei привлекательными с точки зрения соотношения цены и производительности. Однако говорить о полном паритете пока рано: чип отстает по энергоэффективности, имеет менее развитую программную экосистему и испытывает трудности с обучением крупных моделей. Тем не менее прогресс Huawei очевиден, а с учетом готовящихся к выпуску Ascend 910D и Ascend 920 конкуренция на рынке AI-чипов будет только усиливаться.
Стратегия масштабирования: CloudMatrix против серверов NVIDIA
Компания Huawei понимает, что отстает от конкурента, и поэтому разработала уникальную стратегию конкуренции с NVIDIA — масштабирование через объединение большого количества процессоров в единую систему. Эта стратегия нашла воплощение в системе CloudMatrix 384, которая представляет собой ответ Китая на высокопроизводительные серверы NVIDIA.
CloudMatrix 384 (CM384) объединяет 384 чипа Ascend 910C в конфигурации «каждый с каждым» (all-to-all topology). Система размещается в 16 стойках, где 12 вычислительных стоек содержат по 32 процессора Ascend 910C каждая, а 4 сетевые стойки используются для высокоскоростного соединения с помощью оптических интерконнекторов 800G LPO. Совокупная пропускная способность оптической сети — более 5,5 петабита в секунду.
Такой подход позволил Huawei компенсировать технологическое отставание отдельных чипов за счет их количества. CloudMatrix 384 выдает 300 петафлопс вычислительной мощности BF16, что почти вдвое больше, чем у сервера NVIDIA GB200 NVL72. Более того, система содержит 49,2 ТБ памяти HBM, что в 3,6 раза больше, чем у GB200 NVL72 (13,8 ТБ), и обеспечивает пропускную способность памяти 1229 ТБ/с по сравнению с 576 ТБ/с у решения NVIDIA.
В отличие от стратегии Huawei, NVIDIA делает ставку на эффективность отдельных чипов и их тесную интеграцию. Флагманский сервер NVIDIA GB200 NVL72 использует 72 графических процессора Blackwell, которые соединены с 36 процессорами NVIDIA Grace на базе Arm.
Ключевое преимущество подхода NVIDIA — это использование передовых технологий производства и межсоединений. Графические процессоры Blackwell производятся по 4-нм техпроцессу TSMC и используют память HBM3, что обеспечивает значительно более высокую энергоэффективность. NVLink — технология межсоединения NVIDIA — обеспечивает пропускную способность до 900 ГБ/с в одну сторону между GPU, что значительно быстрее, чем 50 ГБ/с (400G) в традиционных сетях InfiniBand/Ethernet.
Главный недостаток подхода Huawei — значительно более высокое энергопотребление. При выполнении типичных задач искусственного интеллекта AI сервер CloudMatrix 384 потребляет в 4,1 раза больше энергии, чем GB200 NVL72, причем потребляемая мощность на FLOP в 2,5 раза выше.
Это отличие объясняется использованием 7-нм техпроцесса SMIC для чипов Ascend 910C, что менее эффективно по сравнению с 4-нм техпроцессом для чипов NVIDIA. Кроме того, архитектура CloudMatrix требует большого количества оптических трансиверов и сложной сети для поддержки масштабирования, что дополнительно увеличивает энергопотребление.
Для наглядного сравнения характеристик NVIDIA GB200 и Huawei Ascend 910С приведем основные технические параметры на уровне отдельных чипов:
Параметр |
Единица измерения |
NVIDIA GB200 |
Huawei Ascend 910C |
Соотношение Huawei/NVIDIA |
Производительность BF16 |
TFLOPS |
2,500 |
780 |
0,3x |
Объем памяти HBM |
ГБ |
192 |
128 |
0,7x |
Пропускная способность памяти |
ТБ/с |
8,0 |
3,2 |
0,4x |
Пропускная способность межчиповых соединений |
Гбит/с (однонаправленная) |
7,200 |
2,800 |
0,4x |
И на уровне кластеров:
Параметр |
Единица измерения |
NVIDIA GB200 NVL72 |
Huawei CM384 |
Соотношение Huawei/NVIDIA |
Производительность BF16 |
PFLOPS |
180 |
300 |
1,7x |
Объем памяти HBM |
ТБ |
13,8 |
49,2 |
3,6x |
Общая пропускная способность памяти |
ТБ/с |
576 |
1,229 |
2,1x |
Количество чипов в кластере |
Штук |
72 |
384 |
5,3x |
Общее энергопотребление |
Вт |
145,000 |
599,821 |
4,1x |
Энергоэффективность |
Вт/TFLOP |
0,81 |
2,00 |
2,5x |
Как видно из таблиц, отдельные чипы NVIDIA значительно превосходят решения Huawei по всем ключевым параметрам. Однако на уровне систем Huawei компенсирует это отставание за счет масштабирования — использования в 5,3 раза большего количества чипов в кластере. Это позволяет CloudMatrix 384 обеспечить в 1,7 раза более высокую общую производительность и в 3,6 раза больший объем памяти по сравнению с NVIDIA GB200 NVL72.
Стоимость кластера CloudMatrix 384 составляет около 8 миллионов долларов, что примерно в три раза выше, чем у конфигурации NVIDIA GB200 NVL72. Это показывает, что основная цель Huawei — не просто выгодность решения, но и создание независимого продукта, полностью разработанного за счет собственных ресурсов и способного конкурировать с западными альтернативами.
Программный барьер: экосистема CUDA против новичков
Аппаратные решения — это лишь часть уравнения в гонке AI-технологий. Не менее важный фактор — программное обеспечение, которое позволяет эффективно использовать эти мощные системы. Здесь NVIDIA с ее зрелой экосистемой CUDA имеет существенное преимущество, которое китайским конкурентам еще только предстоит преодолеть.
CUDA — это параллельная вычислительная платформа, которую NVIDIA разработала еще в 2006 году. За почти два десятилетия она превратилась в мощную экосистему, включающую компиляторы, библиотеки и инструменты оптимизации. Сила CUDA не только в ее функциональности, но и в библиотеках, таких как cuDNN для глубокого обучения и cuBLAS для линейной алгебры, оптимизированные для работы с графическими процессорами NVIDIA.
Получается, что NVIDIA контролирует всю технологическую цепочку — от программного обеспечения до оборудования, что дает оптимальную производительность и совместимость. Кроме того, ведущие фреймворки машинного обучения, такие как TensorFlow и PyTorch, оптимизированы для работы с GPU NVIDIA через CUDA. Это делает ее незаменимой частью современной разработки AI.
Huawei осознает стратегическую важность программной экосистемы и работает над созданием собственных инструментов. Ключевыми компонентами ее программной стратегии являются:
CANN — модель параллельного программирования и набор инструментов для работы с чипами Ascend. CANN разрабатывается с 2019 года и включает Fusion Engine для оптимизации операторов, библиотеку CCE для компьютерного зрения и NLP, а также Tensor Boost Engine для разработки пользовательских операторов.
MindSpore — открытый фреймворк машинного обучения, оптимизированный для чипов Huawei Ascend. MindSpore предлагает автоматический параллелизм для распределенного обучения сверхбольших моделей и унифицированный язык представления моделей для согласованного развертывания.
Ascend AI — комплексная платформа. Она объединяет аппаратные и программные компоненты для разработки и развертывания AI-приложений.
Несмотря на значительные инвестиции, программная экосистема Huawei всё еще отстает от конкурента. Разработчики отмечают, что работать с Ascend 910B сложно, а отсутствие активного сообщества затрудняет решение проблем.
Huawei признает сложность создания полноценной альтернативы CUDA с нуля и поэтому развивает несколько параллельных стратегий. В октябре 2023 года компания стала премьер-членом PyTorch Foundation и начала разрабатывать адаптеры, такие как torch_npu, для интеграции своих чипов с популярными фреймворками. Также Huawei инвестирует в ONNX, чтобы обеспечить переносимость моделей между разными платформами.
Уже есть примеры успешного преодоления программного барьера. DeepSeek поддерживает репозиторий PyTorch, который обеспечивает плавный переход от CUDA к CANN, что упрощает использование оборудования Huawei. Кроме того, Huawei утверждает, что разработала инструмент для one-click conversion кода CUDA в код CANN с интеграцией PyTorch, эффективность которого составляет более 95%.
Создание собственной программной экосистемы — долгосрочная задача, которая требует значительных инвестиций. NVIDIA строила экосистему CUDA почти два десятилетия, и Huawei придется пройти аналогичный путь. Но компания может сократить этот срок благодаря государственной поддержке, быстрому росту внутреннего рынка и активному сотрудничеству с международными организациями.
Битва за будущее AI: китайский рынок, перспективные чипы и геополитика
Китайский рынок AI-чипов стремительно трансформируется в ответ на экспортные ограничения США. По прогнозам, за 2025 год его объем достигнет 50 миллиардов долларов и создаст огромные возможности для отечественных производителей. До введения запрета в 2024 году Huawei продала около 200 000 чипов Ascend 910B, в то время как NVIDIA реализовала примерно миллион чипов H20 на китайском рынке.
Huawei активно развивает линейку AI-ускорителей серии Ascend. Текущая модель Ascend 910C обеспечивает около 60–70% производительности NVIDIA H100 при выполнении задач инференса, при этом имеет преимущество в энергоэффективности: 310 Вт против 700 Вт у H100. Следующее поколение — Ascend 910D, образцы которого ожидаются к концу мая 2025 года, разрабатывается, чтобы достичь полной производительности H100 или даже превзойти ее. Однако компания сталкивается с серьезными производственными проблемами: количество исправных чипов составляет лишь 40% от общего объема производства, хотя это на 20% лучше, чем годом ранее.
Еще более амбициозная разработка — Ascend 920, анонсированный в апреле 2025 года. Этот чип производится по 6-нм технологии и оптимизирован для моделей Mixture of Experts. Он запланирован к массовому производству в конце 2025 года.
Ключевым рынком для Huawei становятся китайские технологические гиганты. ByteDance, родительская компания TikTok, уже заказала 100 000 чипов Ascend 910B, а Baidu закупила 1600 таких чипов. В целом Huawei планирует поставить более 800 000 своих AI-чипов Ascend 910B и 910C клиентам в 2025 году.
В ответ на развитие китайских альтернатив в мае 2025 года США объявили, что использование чипов Huawei Ascend «в любой точке мира» нарушает американские правила экспортного контроля. Одновременно администрация отменила правило, которое ограничивает экспорт американских AI-чипов на международные рынки без специального разрешения. То есть формируются две параллельные технологические экосистемы: западная и китайская.
Государственная поддержка в Китае становится ключевым фактором развития отрасли. В январе 2025 года Банк Китая объявил о пятилетнем плане финансирования всех этапов производства и внедрения искусственного интеллекта (от разработки до применения) на сумму 138 миллиардов долларов. В марте 2025 года был создан Национальный фонд руководства инвестициями в инновации, нацеленный на привлечение такой же суммы.
В глобальном масштабе мы наблюдаем начало новой эры технологической конкуренции, где доступ к передовым AI-чипам определит экономическое и военное превосходство. Эта гонка технологий формирует не только будущее рынка AI-чипов, но и экономическое будущее государств на десятилетия вперед.
Кстати, если вы работаете с AI/ML задачами, то у нас действует актуальное предложение со скидкой в 25% на облачные серверы с NVIDIA L40S 48Gb и уже включает в себя 16 ядер высокочастотного EPYC 9374F, 64GB DDR5 и 500 локального NVMe. Специальная цена в 73 200 р/мес действует на ограниченное количество серверов. Также можно выбрать и GPU других типов, как например NVIDIA L4 или NVIDIA A16.
unreal_undead2
Почему не с CloudMatrix? ;)
mClouds_editor Автор
Кажется, что Huawei их так просто не отдаст, тем более со скидкой ))