Пока все обсуждали, насколько мощнее стали новые GPU, возникла другая проблема: большие модели не помещаются туда, где их пытаются запускать. Дата-центры дорожают, пропускные сети упираются в физические пределы, а зависимость от облака становится стратегическим риском. О компании, которая предлагает альтернативную инфраструктуру для ИИ.

Cerebras Systems компания, которая пошла против главного правила полупроводниковой индустрии. Вместо того чтобы нарезать кремниевую пластину на сотни маленьких чипов и затем пытаться соединить их проводами, они оставили её целой. Так появился Wafer Scale Engine – самый большой процессор в истории человечества размером с обеденную тарелку.

Это инженерное решение создано с одной целью: убрать коммуникационный налог. Пока конкуренты строят сложные кластеры, где данные теряют время в пути между серверами, Cerebras предлагает систему, где память и вычисления слиты в единый монолит. К нам пришло уже не просто быстрое железо, а принципиально иная философия вычислений.

Заложник геополитики

В конце 2025 года рынок аппаратного обеспечения для ИИ столкнулся с парадоксом, который невозможно объяснить стандартной рыночной логикой. Компания Cerebras Systems, демонстрирующая финансовые показатели, о которых мечтает любой единорог Кремниевой долины, неожиданно нажала на стоп-кран в шаге от публичного размещения. 

Вместо ожидаемого IPO, которое аналитики называли главным событием года в секторе полупроводников, компания в октябре официально отозвала заявку и закрыла частный раунд финансирования Series G объемом $1,1 млрд.

С чисто экономической точки зрения это решение выглядит абсурдным.
За прошедший год выручка Cerebras выросла на фантастические 535%, достигнув отметки около $500 млн, а список клиентов перестал ограничиваться научными лабораториями, пополнившись такими гигантами, как AWS, Meta* и IBM. Однако блестящий баланс разбился о стену национальной безопасности США. Комитет по иностранным инвестициям (CFIUS) фактически заблокировал выход на биржу, усмотрев в ключевом партнере компании (арабском холдинге G42) потенциальный канал утечки технологий в Китай.

В результате сложилась уникальная ситуация: производитель, чья оценка достигла $8,1 млрд и чьи чипы в конкретных задачах превосходят решения Nvidia на порядки, оказался заложником большой политики. Вашингтон видит в их технологиях стратегический актив, который нельзя выпускать из-под контроля, а инвесторы вынуждены наблюдать, как один из самых перспективных активов индустрии остается в частных руках, получая ликвидность через вторичный рынок и закрытые раунды. Эта история перестала быть просто рассказом про железо – теперь это наглядное пособие о том, как геополитическое противостояние перекраивает карту технологического лидерства.

 Архитектура: Одиночный гигант против армии клонов

Попытка сравнить флагманский чип Cerebras WSE-3 с новейшим ускорителем Nvidia B300 (Blackwell Ultra) ставит в тупик любого, кто привык к стандартным метрикам. Формально это конкуренты, но технически они находятся в разных весовых категориях: WSE-3 – это целая кремниевая пластина, функционирующая как единый супер-процессор, в то время как B300 – модуль, спроектированный для работы в составе огромных кластеров. Однако именно в этом различии кроется ответ на вопрос, почему индустрия ищет альтернативы монополии Nvidia.

Фундаментальный водораздел проходит по линии работы с памятью – главной головной боли современных ИИ-систем. Архитектура Nvidia Blackwell опирается на память стандарта HBM3e. В модели B300 её много: 288 ГБ на чип, что позволяет загружать огромные слои нейросетей целиком. Но физику обмануть сложно: HBM-память расположена рядом с вычислительным кристаллом, а не внутри него. Это создает неизбежную задержку (по-научному латентность) при обращении к данным.

Именно здесь кроется ключевой рыночный парадокс и одновременно главная линия обороны Nvidia. Технология HBM стала самым узким местом глобальной цепочки поставок: если TSMC способна произвести практически любой объем логических кристаллов, то производство сложной стековой памяти (которое ведут всего три игрока: SK Hynix, Samsung и Micron) масштабируется крайне медленно. Nvidia, пользуясь доминирующим положением, фактически монополизировала поставки HBM, выкупая квоты на годы вперед, что лишает стартапы физической возможности создать прямой аналог – им просто нечего ставить рядом с процессором. Главное конкурентное преимущество Cerebras заключается в радикальном выходе из этой технологической колеи: благодаря гигантской площади Wafer Scale Engine, вся память интегрирована непосредственно в структуру чипа (SRAM). Это и устраняет физическую латентность, о которой говорилось выше,  и выводит компанию из-под удара глобального дефицита HBM, делая их архитектуру единственной, неуязвимой для ресурсной блокады со стороны Nvidia.

Cerebras пошла радикально иным путем.
В их пластине WSE-3 вся память (44 ГБ) – это сверхбыстрая SRAM, интегрированная непосредственно в вычислительные ядра. Здесь нет шин, по которым данные должны ехать до процессора – они уже на месте. 

Это обеспечивает феноменальную пропускную способность в 21 Петабайт в секунду, что примерно в 2600 раз превышает показатели топовых решений Nvidia. 

Да, объем памяти меньше, что требует специфического подхода к программированию (так называемый Weight Streaming), но выигрыш в скорости доступа к данным меняет правила игры.

Второй критический аспект – масштабирование.
Современные LLM требуют мощностей, превышающих возможности одного GPU, поэтому инженеры вынуждены объединять тысячи видеокарт в кластеры. Nvidia потратила годы на создание шины NVLink, чтобы заставить тысячи чипов B300 работать синхронно, но проблема коммуникационного налога никуда не делась. Чем больше кластер, тем больше времени и энергии тратится не на полезные вычисления, а на пересылку результатов между серверами и синхронизацию градиентов. WSE-3 решает эту проблему методом грубой силы: 900 000 ядер размещены на едином куске кремния. Между ними нет сетевых кабелей, коммутаторов и оптических трансиверов. Задержки внутри этой системы практически нулевые, что позволяет обучать модели с эффективностью, недостижимой для распределенных систем.

Лучше всего эту архитектурную пропасть иллюстрирует транспортная аналогия. Представьте, что кластер на базе Nvidia B300 – это автопарк из 50 суперкаров Ferrari. Каждая машина обладает потрясающей мощностью, но чтобы перевезти единый тяжелый груз, водителям необходимо постоянно координировать действия по рации: кто тормозит, кто разгоняется, кто поворачивает. Любая помеха в эфире или ошибка пилота замедляет всю колонну. В этом сравнении Cerebras WSE-3 как сверхзвуковой грузовой поезд на магнитной подушке. Ему не нужна координация по рации, все вагоны сцеплены намертво в единую жесткую конструкцию и движутся как монолит. Именно поэтому в задачах инференса (генерации ответов) Cerebras показывает результаты в 20 раз быстрее: пока парк Ferrari согласовывает движение, поезд уже доставил груз.

Арабский кит и американская паранойя

Около 85% всех доходов Cerebras генерирует единственный клиент –технологический холдинг G42 из Абу-Даби. Этот дисбаланс превращает американского производителя чипов из классической рыночной компании в узкоспециализированного подрядчика для конкретного иностранного государства.

Партнерство с G42 не рядовая закупка оборудования, а масштабный стратегический альянс стоимостью $1,43 млрд, который фундаментально меняет расстановку сил в индустрии. В рамках этого соглашения развертывается «Созвездие Кондор» (Condor Galaxy) – сеть суперкомпьютеров, которая к 2025 году стала одной из крупнейших в мире. Масштаб проекта поражает: каждый узел сети, например, уже функционирующий CG-3, объединяет 64 системы CS-3 в единый кластер с 58 миллионами ядер, выдающий 8 эксафлопс ИИ-мощности. Общая плановая мощность всей сети из девяти таких центров должна достигнуть 36 эксафлопс. Это инфраструктура национального масштаба, которую ОАЭ строят на территории США, чтобы обойти экспортные ограничения и получить доступ к передовым вычислениям.

Именно этот масштаб и происхождение капитала стали триггером для американских властей. Комитет по иностранным инвестициям США (CFIUS) рассматривает G42 не просто как щедрого инвестора, а как потенциальный шлюз для утечки критических технологий в Китай. Вашингтон опасается, что через эмиратовские структуры доступ к мощностям Cerebras могут получить китайские компании, находящиеся под санкциями. В условиях, когда ИИ-чипы приравнены к вооружению, такая связь может стать токсичной. Блокировка и последующий отзыв IPO Cerebras, вполне вероятно прямое следствие этой настороженности: регулятор поставил ультиматум, требуя либо разорвать связи с ключевым донором, либо оставаться частной компанией под жестким надзором.

Руководство Cerebras пытается диверсифицировать портфель, чтобы показать рынку жизнь за пределами контракта с шейхами. В 2025 году список публичных внедрений пополнился крупными игроками: фармацевтический гигант GlaxoSmithKline, медицинская сеть Mayo Clinic и немецкая Aleph Alpha используют системы для задач, требующих строгой конфиденциальности. Однако, несмотря на статусность этих имен, их финансовый вклад пока не может перевесить чашу весов, на которой лежит миллиардный контракт с G42. Возникает парадоксальная ситуация: у компании есть лучший в классе продукт и бесконечные деньги от якорного заказчика, но путь к публичному рынку закрыт шлагбаумом национальной безопасности.

Энергетический парадокс и Суверенный ИИ

Помимо геополитических интриг и архитектурных споров, у технологии wafer-scale есть козырь, который становится решающим в эпоху глобального дефицита электроэнергии. Современные дата-центры для обучения нейросетей превратились в энергетических монстров, потребление которых сопоставимо с нуждами небольших городов, что вынуждает операторов ЦОД проектировать собственные подстанции. 

В этом контексте решения Cerebras предлагают экономику, недостижимую для классических архитектур: согласно внутренним бенчмаркам, их системы расходуют в 44 раза меньше электричества на единицу производительности по сравнению с традиционными GPU-кластерами. Если для достижения вычислительной мощности в один эксафлопс стандартной ферме видеокарт требуются десятки мегаватт и гигантские площади охлаждения, то инфраструктура Cerebras справляется с этой задачей, потребляя менее 500 киловатт. Это превращает их холодильники CS-3 из экзотической новинки в прагматичный инструмент для снижения операционных расходов (OPEX), что критически важно при долгосрочном планировании.

Такая энергоэффективность в сочетании с высокой плотностью вычислений породила совершенно новый сегмент рынка, который аналитики окрестили Суверенным ИИ. Правительства стран, обладающих амбициями и капиталом, больше не хотят арендовать вычислительные мощности у американских облачных гиперскейлеров, опасаясь зависимости, отключений или утечек чувствительных данных. Они стремятся владеть собственной инфраструктурой, печатным станком интеллекта, расположенным в своей юрисдикции и работающим по своим законам. Cerebras идеально вписалась в эту нишу: вместо строительства гигантского кампуса с тысячами серверов и сложной сетевой топологией, государство может развернуть компактный кластер, обеспечивающий национальный уровень вычислений под ключ.

Логика суверенизации движет не только арабскими шейхами из G42, но и новыми, неожиданными игроками на технологической карте. Ярким подтверждением тренда стала сделка, заключенная в ноябре 2025 года с правительством Гайаны. Эта южноамериканская страна, переживающая стремительный экономический рост благодаря нефтяному буму, решила инвестировать сверхдоходы в создание национальной ИИ-инфраструктуры именно на базе чипов Cerebras. Подобные контракты доказывают, что модель работает: технология выходит за пределы корпоративных дата-центров Кремниевой долины и становится инструментом государственного строительства, позволяя странам создавать собственные, полностью изолированные и контролируемые экосистемы ИИ.

Инвестиция в эпоху неопределенности

В 2023 году, когда я только формировал инвестиционную позицию по Cerebras Systems, эта ставка выглядела как классический венчурный риск: поверит ли рынок в экзотическую архитектуру, идущую вразрез с общепринятыми стандартами? 

К концу 2025 года ответ получен, и он оказался сложнее любого линейного прогноза. Технологическая гипотеза полностью подтвердилась: подход wafer-scale доказал свою жизнеспособность, перестав быть инженерным курьезом и превратившись в основу для национальной инфраструктуры. Рынок действительно начал дробиться, и эра универсальности, когда один тип чипов решал все задачи, подошла к концу. Теперь для каждой задачи есть свой инструмент: Nvidia остается королем универсальных вычислений, Groq занимает нишу сверхбыстрого инференса, а Cerebras становится безальтернативным выбором для тяжелых тренировок и суверенных дата-центров.

Однако финансовый успех компании теперь зависит не столько от качества кремния, сколько от настроений в Вашингтоне. История с отложенным IPO и вниманием CFIUS показывает, что Cerebras переросла статус простого производителя электроники и вошла в зону стратегических интересов национальной безопасности. Для инвестора это меняет профиль риска: вместо вопроса «Взлетит ли технология?» на первый план выходит вопрос «Разрешат ли ей летать?». Закрытый в 2025 году раунд на $1,1 млрд и агрессивная риторика CEO Эндрю Фельдмана говорят о том, что компания готова играть в долгую, используя частный капитал как подушку безопасности, пока юристы распутывают геополитический узел.

В сухом остатке мы видим актив, который стал заложником собственного успеха и масштаба. Cerebras – это уже не стартап, пытающийся бросить вызов Голиафу, а полноценный инфраструктурный игрок, построивший свою отдельную железную дорогу. По ней уже движутся составы с миллиардными контрактами, и единственное, что может их остановить – не конкуренция со стороны Nvidia, а красный сигнал семафора от американского регулятора. Для тех, кто готов ждать смены политического сигнала, это, возможно, самая интригующая история на современном рынке полупроводников.

И к слову: я веду блог о технологичных компаниях, которые привносят в мир инновации, и успешно реализуют себя на бирже, на pre-IPO и IPO-стадиях и рассказываю где их можно купить.

А с вами был Александр Столыпин.
Увидимся в будущем!

*Компания Meta Признана экстремистом в РФ

Комментарии (30)


  1. kryvichh
    08.12.2025 08:22

    Не совсем понятно, как IPO компании Cerebras повысило бы риски утечки технологий в Китай? Та же Nvidia торгуется на бирже, и тем не менее они подчиняются американскому регулятору.

    Тем более это не такой и рокет-сайенс. Активно разрабатываются фотонные и квантовые вычисления, и это будет гораздо круче и энергетически эффективнее и решений Cerebras, и NVidia.


    1. onlyahead Автор
      08.12.2025 08:22

      Попробую ответить на оба вопроса: первый сложнее, но я его постарался подробно описать в статье.

      Про IPO и риски. Дело не в самом факте торгов на бирже, а в структуре бизнеса, ведь у Nvidia диверсифицированный портфель клиентов. У Cerebras 85% выручки и миллиардные инвестиции зависят от одного игрока (Арабский G42). Регулятор (в их случае CFIUS) увидел риск не в публичности, а в том, что ключевой партнер (G42) может стать прокси для передачи технологий в Китай. Блокировка IPO - это способ давления: США требуют очистить цепочку поставок и капитал от связей с Китаем до того, как компания станет публичной. это вопрос контроля над единственным каналом сбыта.

      Теперь про фотонику и кванты. Звучит отлично в теории, но весь наш дьявол в таййминге. Квантовые вычисления пока не оптимизированы под матричные операции (основа LLM), а полностью фотонные процессоры все еще мягко говоря далеки от серийного производства масштаба Nvidia или Cerebras. Они решают проблему сегодняшнего дня: дефицит энергии и скорости для обучения моделей уровня GPT-5. Пока фотоника выйдет на коммерческую арену (в чём, я кстати, не сомневаюсь, и не отношу это к фантастике. вопреки очень распространённому мнению) индустрия успеет сжечь еще гигаватты электричества. Wafer Scale это решение здесь и сейчас. Мост в будущее с текущими знаниями, пока мы ждем новой физики.


      1. theult
        08.12.2025 08:22

        Большое спасибо за статью и подробный развернутый ответ. Очень интересный монстр на 900к ядер. Конкуренция всегда хорошо, правда я сомневаюсь, что из-за уменьшения продаж серверных решений нвидиа снизит цены на потребительский сегмент.


  1. saag
    08.12.2025 08:22

    У такой пластины должен быть медный блин радиатора охлаждения с двумя ручками, а еще смеялись над советскими микросхемами:-)


    1. onlyahead Автор
      08.12.2025 08:22

      Смех смехом, а технически так и есть: чип накрыт огромной пластиной с водяным контуром (cold plate). Получилась герметичная система, которая отводит тепло эффективнее, чем тысячи маленьких радиаторов в стандартной серверной стойке :)


    1. Arhammon
      08.12.2025 08:22

      Давным-давно придумано жидкостное охлаждение кристаллов, причем чуть ли не внутри бутерброда кристаллов можно жидкость гонять. Было бы желание...


      1. theult
        08.12.2025 08:22

        В коммерческих продуктах пока никто массово не применяет. Проблемы скорее всего две: коррозия металлизации от теплоносителя и вопрос крепления подводящих каналов к хрупкому кремнию. В обозреваемом чипе с этим проще - гигантская площадь поверхности, можно одну сторону накрыть огромным водоблоком с ультимативным жидким гелием. Вторая сторона для питания. И сокет с шестизначным числом (по количеству контактов).


        1. Arhammon
          08.12.2025 08:22

          Добавлю еще вероятную проблему - патенты IBM... у них вопрос крепления решен был просто, верх и низ в виде кремниевого корыта с входом и выходом.


      1. NKulikov
        08.12.2025 08:22

        Много снять тепла можно и на обычных водоблоках:

        Уже сейчас это 140-180кВт на стойку и до 370кВт в следующем году:

        https://newsletter.semianalysis.com/p/another-giant-leap-the-rubin-cpx-specialized-accelerator-rack

        NVIDIA еще показала прототип системы c 600кВт на стойку (Kyber Rack NVL576):

        https://www.tomshardware.com/pc-components/gpus/nvidia-shows-off-rubin-ultra-with-600-000-watt-kyber-racks-and-infrastructure-coming-in-2027


  1. Poison48
    08.12.2025 08:22

    Как они обошли явление - Utilization Wall? Попытка заработать на теме ИИ, не более. Похоже на умную соковыжималку Juicero из мира фудтеха.


    1. onlyahead Автор
      08.12.2025 08:22

      Juicero была попыткой продать дорогую обертку для дешевого сока. Cerebras же продает решение главной проблемы индустрии -- простоя вычислительных ядер.

      Барьер утилизации, о которой вы говорите (Utilization Wall) существует только потому, что в стандартной архитектуре память и процессор разделены. Пока данные едут по проводам, процессор, говоря метафорой, курит. Cerebras разместила память внутри процессора. Данным не нужно никуда ехать, они уже на месте. В итоге КПД (утилизация) у них близка к 100%, пока кластеры на GPU греют воздух в ожидании синхронизации.


      1. dzav
        08.12.2025 08:22

        Cerebras разместила память внутри процессора. Данным не нужно никуда ехать, они уже на месте.

        Зачем тогда есть кэши L3, L2, L1, да еще и регистры? При том, что все они находятся на одном кристалле...

        А все просто: время в пути = расстояние / скорость. Больше площадь -- больше расстояние, больше расстояние -- больше время доступа.

        Процессор (без GPU) имеет порядка 20 миллиардов транзисторов. А это ~4 Гб SRAM (состоит из ~5 транзисторов) памяти. 128 Гб памяти по площади уже будет, как минимум, в 32 раза больше процессора!

        И размещение памяти на том же кристалле, что и процессор, проблему никак решить не может.

        Кстати, SoC (System on Chip) уже давно существуют, но вот чудес по скорости не показывают.


        1. dzav
          08.12.2025 08:22

          А это ~4 Гб SRAM (состоит из ~5 транзисторов) памяти. 128 Гб памяти по площади уже будет, как минимум, в 32 раза больше процессора!

          Прошу прощения за ошибку: ~5 транзисторов на 1 бит. т.е. не ~4 Гб, а всего 512 МБ, SRAM. И 128 Гб памяти по площади уже будет, как минимум, в 256 раза больше процессора!


      1. ideavi
        08.12.2025 08:22

        Что-то здесь не сходится. Как уже упоминали здесь, данных на много порядков больше, чем процессоров, поэтому их надо как-то к процессору доставить из всего массива памяти - затолкать в немногочисленные регистры, чтобы обработать. И здесь никуда бутылочное горлышко на доставку не денется, а с учетом размера тарелочки, ещё и дольше должно оказаться.


        1. onlyahead Автор
          08.12.2025 08:22

          Есть публичные метрики. По AI Inference Cerebras в разы быстрее всех на планете


          1. ideavi
            08.12.2025 08:22

            На ванильных тестах, под конкретный пример, без учета переплаты за неиспользуемую мощность тарелочки и без возможности масштабирования вне её пределов – да, вполне возможно показать кратный прирост скорости.
            Но архитектурно здесь же никакого прорыва нет, просто жестко скомпонованная многоядерная система, не?


          1. NKulikov
            08.12.2025 08:22

            А можно пруф? Независимых тестов ОБОРУДОВАНИЯ только, а не Endpoint. В индустриально стандартных и признаваемых MLPerf и InferenceMAX их нет.

            Вы, вероятно, сошлетесь на Artificial Analysis, но тут "нюансы":

            • Те тесты, где есть Cerebras - это тесты Endpoint/провайдера, а не оборудования. Например в топе для GPT-OSS-120B там сейчас AWS Bedrock (хотя на бекенде у него "не самые быстрые на планете" Inferentia и Trainium, а так же NVIDIA GPUs.)

            • А еще они любят сравнивать с HGX B200 (или на Hopper) на 8 GPU, а не сравнимые rack-scale GB200/300 NVL72. Которые, по заявлениям NVIDIA, дают 1.5M tokens per second для gpt-oss-120B на стойку.

            • Ну и можно открыть AI Hardware Benchmarking & Performance Analysis у них же, а там... Снова все те же лица, NVIDIA, AMD, Google. А Cerebras нету...

            • Плюс надо строго выбирать модели, которые они поддерживают и по которым сравниваются. Их там 4 (6) штук - https://inference-docs.cerebras.ai/models/overview


  1. NKulikov
    08.12.2025 08:22

    Любопытно, если они такие быстрые, классные и в разы/порядки быстрее NVIDIA, то почему не отправили ни одной заявки в MLPerf? https://mlcommons.org/benchmarks/inference-datacenter/ NVIDIA есть, AMD, Intel, Qualcomm - есть. TPU от Google - есть. А их - нет.

    Здесь нет шин, по которым данные должны ехать до процессора – они уже на месте. 

    Ну как нет... "Weights are stored and recalculated from Backpropagation. The system stores weights in external memory and streams them onto the wafer for forward and backward passes." https://arxiv.org/html/2503.11698v1 Просто потому, что у вас в 40GB ни одна современная модель даже среднего размера (типа LLama 70B FP16, а gpr-oss-120B даже в MXFP4 - ~60GB) туда не влезет. Поэтому размещать надо в RAM и SSD на отдельных узлах (MemoryX nodes) и которые должны "ехать до процессора". И там этих коммуникаций еще больше - https://training-docs.cerebras.ai/rel-2.5.0/concepts/weight-streaming-execution

    Ну либо использовать только маленькие модели (но зачем?) + активно сжимать, например, до FP8, как они сделали для той же LLama 70B, чтобы влезть в заветные 40GB - https://www.cerebras.ai/blog/introducing-cerebras-inference-ai-at-instant-speed.

    Ну и нагрузку, а KVCache куда пихать? Для того же gpt-oss-120B ~70KB per token нужно. LLama в FP16 - 0.3MB per token. Понятно, что его можно выносить в RAM/SSD внешних узлоы, ибо места в VRAM/SRAM нету, но это точно такое же внешнее взаимодействие.

    Ему не нужна координация по рации, все вагоны сцеплены намертво в единую жесткую конструкцию и движутся как монолит.

    "The Cerebras WSE is actually many chips on a wafer within the confines of the reticle limit. Instead of cutting the chips apart along the scribe lines between chips, they developed a method for cross die wires. These wires are patterned separately from the actual chips and allow the chips to connect to each other. In effect, the chip can scale beyond the reticle limits." + "Cerebras deals with this by adding 2 additional rows of cores across each reticle sub-chip. The interconnect within these chips is a 2D mesh where each core is connected in the vertical and horizontal directions. They also have additional interconnects for each of the diagonal cores as well. This allows defective cores to be routed around and software to still recognize a 2D mesh." + "Cerebras software stack places and routes these layers while maintain high utilization rates of cores and fabric." https://newsletter.semianalysis.com/p/cerebras-wafer-scale-hardware-crushes

    А дальше интереснее - если модель не влезает в одну вафлю "20B models fit on a single CS-3 while 70B models fit on as few as four systems.", то вместо сверх быстрых коммуникаций и "монолита", о которых вы пишите, у нас всплывает обычный Ethernet (пишут всего про 100GbE, но это CS2, может в CS3 подняли https://www.servethehome.com/detail-of-the-giant-cerebras-wafer-scale-cluster-nvidia/), который проигрывает NVLINK в разы по скорости и задержкам.

    P.S. Я не говорю, что у них все плохо и т.д. Возможно, под какие-то отдельные use-cases под это хорошо подойдет. Но то, что вы пишите имеет достаточно далекое отношение к действительности.

    Да, они делают ставку на другие вещи - на маленькую, но очень быструю SRAM + на очень быстрый, но ограниченный Scale-up (за ним провал).

    У NVIDIA же SRAM тоже есть, но сильно меньше (~50-100MB на карту), а основное хранение в быстром HBM большего объема, затем дешевая и большая RAM в Grace (которая кстати быстрее, чем у CS3<->MemoryX, ибо там NVLINK C2C) и т.д. У NVIDIA так же два чипа под крышкой, которые связаны очень быстрым интерконнектом, но основная ставка на Scale-Up NVLINK (который пусть и медленее, но сильно лучше масштабируется), потом Scale-Out SpX или IB.


    1. Krasnoarmeec
      08.12.2025 08:22

      Со стороны сильно походит на надувательство: владельцы - арабские шейхи и неизвестная компания G24, в портфеле контрактов - правительство Гайаны (!!!), клиника Мейо (что там-то считать на GPU?), немецкая Aleph Alpha (честно, впервые о них слышу), GlaxoSmithKline (ну, хоть эти могут всякие новые модельки лекарств и прививок считать).


      1. onlyahead Автор
        08.12.2025 08:22

        G42 - это крупнейший технологический холдинг Саудовской Аравии, а они очень нацелены на развитие сейчас, сам Микрософт недавно в них $1.5 млрд инвестировал. Mayo Clinic - это самая прогрессивная медицина в мире. И даже Гайна - это не просто банановая республика, у них уровень жизни в разы вырос за последние годы. Можно ведь просто сделать рисерч за 3 мин, а потом уже давать оценочные суждения.


        1. Krasnoarmeec
          08.12.2025 08:22

          Сначала дополнение к отличному комментарию уважаемого @NKulikov: от Cerebras Systems такое ощущение как от CRAY в конце 90-х. Да, мощные многопроцессорные системы для науки и бизнеса, но в конце концов оказалось, что науке и бизнесу дешевле купить много ПК, которые, к тому же, оказались многофункциональными. Так и с Cerebras Systems - выпустили нишевую дорогую числодробилку, а NVIDIA выпускает многофункциональные более дешёвые решения, на которых можно и посчитать и поиграть.

          Ну и, как Вы и просили, провёл "рисёрч за 3 мин".

          • Да, на Гайану обрушилось денежное цунами, но по индексу человеческого развития она на 89 месте, то есть, где-то в серединке вместе со Шри-Ланкой и Доминиканской Республикой. Мне Вам рассказать, где осядут бешеные деньги, или лучше не надо?

          • G42 - частная компания, то есть, всё не очень прозрачно. К тому же, они сами - недавний стартап, инвестиции Microsoft возможно ещё не отбиты. Ну и так, немного занудства: G42 - это ОАЭ, а не Саудовская Аравия.

          • Про "Aleph Alpha" Вы как-то умолчали. А это опять стартап с неотбитыми инвестициями.

          • Про клинику Майо ничего сказать не могу.

          Под конец "рисёрча за 3 мин" посмотрел страницу Википедии по Cerebras Systems. Честно говоря, примеров там больше чем у Вас и они релевантнее. Да, суховато, но более полно и объективно.


    1. onlyahead Автор
      08.12.2025 08:22

      Вы очень технически подкован! Не берусь спорить. Я всего лишь простой инвестор, разбираюсь до того уровня, чтобы понять, стоит делать на них ставку рублем или нет. И тут моя ставка 2023 года сыграла (когда про Cerebras мало кто слышал), сейчас +450% доходности.


      1. NKulikov
        08.12.2025 08:22

        Ну так вы пишите про то, как оно работает и почему (с точки зрения технической реализации) оно такое классное. И это, мягко говоря, не очень правда. Писали бы вы про инвестиции, я бы комментировал это, а не ваше техническое описание.

        Но и про акции я могу :)

        разбираюсь до того уровня, чтобы понять, стоит делать на них ставку рублем или нет. И тут моя ставка 2023 года сыграла (когда про Cerebras мало кто слышал), сейчас +450% доходности.

        Ну так себе она сыграла. Потому что вложились бы вы в 2023 (Январь для примера) в более "известных и про которых все слышали" конкурентов Cerebras, то получили бы - +1,200% на NVIDIA или 620% на Broadcom. ;)

        Так что, если говорить про рубли, а не технику, то оказывается выгоднее бы было ставить на NVIDIA/Broadcom. С "обычными" отдельными чипами, быстрой scale-up/out фабрикой, HBM и всем прочим :)


      1. Krasnoarmeec
        08.12.2025 08:22

        Во-первых, доходность за почти три года с февраля 2023 (yahoo finance) всего 79%, а не 450%. А за последний год, так и вовсе 5%. Очень хотелось бы увидеть ссылку на "+450% доходности".

        Во-вторых, компания так и не провела IPO, то есть, возможность купить долю есть только через раунды финансирования той или иной степени закрытости. Вроде, согласно Википедии, в октябре 2025 года они отозвали заявку на проведение IPO.


  1. IceGlance
    08.12.2025 08:22

    Каков процент брака подобных больших чипов и итоговая цена в пересчете на производительность? Он внутри модульный и можно отключать отдельные бракованные сегменты?


    1. yamifa_1234
      08.12.2025 08:22

      Мне кажется наверняка будут варианты где отключены разное количество модулей. Иначе целую пластину в утиль.


    1. NKulikov
      08.12.2025 08:22

      Там внутри куча отдельных ядер/"чипов". Просто на одной пластине. Поэтому они и могут отключать отдельные бракованные ядра, а не все пластину. "The Cerebras WSE is actually many chips on a wafer within the confines of the reticle limit."

      Вот тут детали https://newsletter.semianalysis.com/p/cerebras-wafer-scale-hardware-crushes


  1. Grogcm20
    08.12.2025 08:22

    Кстати та же логика была и проекта Dojo от Маска, пока они его не свернули. Скоро увидим, как Илон наснет кусать себе локти, как это было с Open AI.


  1. Hardcoin
    08.12.2025 08:22

    бесконечные деньги от якорного заказчика

    Если бы это была правда, IPO было бы не нужно. Что бы делать чипы и продавать, не требуется быть публичной компанией. Ваш интерес как инвестора понятен, но он не в технологическом успехе (у cerebras он средний на общем фоне, конкуренты очень уж хороши), а продаже доли другим инвесторам (впрочем, ничего плохого в этом нет).


  1. josef_polak
    08.12.2025 08:22

    Быть ближе к своему правительству не менее важно, чем быть ближе к оперативной памяти.

    Именно так человек с фамилией Хуанг и соответствующей наружностью стал самым благонадежным патриотом Асашай и ни в коем случае никогда не передаст критические технологии в Китай.