Всем привет! Недавно мы обсуждали рынок AI-инфраструктуры с моим коллегой Александром. В компании OpenYard он отвечает за развитие отношений с вендорами и выстраивание цепочек поставок. Нам быстро стало понятно, что за громкими заявлениями об AI-революции скрывается куда более сложная и не всегда очевидная экономика. Компании массово инвестируют в обучение моделей, строительство дата-центров и AI-кластеров, растет спрос на GPU, ускорители и серверную инфраструктуру. На этом фоне кажется логичным ожидать аналогичного роста со стороны производителей памяти ― одного из ключевых компонентов AI-систем. Однако реальность оказывается сложнее.

Два крупнейших поставщика DRAM: Samsung Electronics и SK Hynix, которые в совокупности контролируют более 70% мирового рынка оперативной памяти, неожиданно ведут довольно сдержанную игру. Несмотря на рекордный спрос со стороны AI-сегмента, компании не планируют резкого расширения производства. Почему рынок, испытывающий дефицит, сознательно отказывается от масштабирования?

Рост спроса и дефицит DRAM: что происходит на рынке

В 2024-2025 годах рынок серверной памяти столкнулся с резким ростом цен. Основные драйверы хорошо известны:

  • активное строительство AI-кластеров и гиперскейл-дата-центров,

  • рост потребления HBM и высокоплотной серверной DRAM,

  • ограниченные производственные мощности после периода сокращений.

По оценкам корейского издания Hankyung, текущий дефицит памяти может сохраниться как минимум до 2028 года. При этом рост цен на DRAM уже начал напрямую влиять на экономику серверных решений и TCO инфраструктурных проектов. 

Важно отметить, что рост цен на память во многих случаях опережает рост цен на серверы как конечный продукт, снижая маржинальность интеграторов и OEM-производителей.

Концентрация рынка как фактор стратегии

Рынок DRAM традиционно высоко концентрирован:

  • Samsung Electronics ― около 40-45%,

  • SK Hynix ― около 25-30%,

  • Micron ― около 20-25%,

  • прочие игроки ― менее 10%.

В такой структуре даже небольшие изменения в стратегии крупнейших поставщиков оказывают существенное влияние на глобальный рынок. Фактически производители обладают возможностью управлять темпами предложения, избегая резких ценовых колебаний.

Именно в этом контексте становится понятна осторожность: контролируемый дефицит оказывается выгоднее, чем агрессивное расширение мощностей с риском обвала цен в будущем.

Почему производители не увеличивают выпуск, несмотря на дефицит

Несмотря на благоприятную рыночную конъюнктуру, Samsung и SK Hynix публично подчеркивают приоритет долгосрочной устойчивости, а не краткосрочного роста объемов.

1. Риск перепроизводства

История рынка DRAM циклична. Периоды бурного роста часто заканчивались перепроизводством и резким падением цен, что приводило к миллиардным убыткам. Производители хорошо помнят эти сценарии и не готовы повторять их в условиях неопределенности.

2. Неопределенность AI-спроса

Хотя текущий спрос со стороны AI-инфраструктуры выглядит устойчивым, производители не считают его гарантированным на горизонте 5-7 лет.

Часть инвестиций в AI сегодня носит экспериментальный характер, а бизнес-модели многих проектов еще не доказали долгосрочную окупаемость. Это заставляет поставщиков базовых компонентов действовать осторожно.

3. Долгий инвестиционный цикл

Строительство и запуск новой фабрики DRAM ― это инвестиции порядка $10-20 млрд, срок ввода в эксплуатацию 3-5 лет и высокая зависимость от будущего спроса. Ошибки в прогнозах слишком дорого обойдутся.

Отложенный эффект пандемии

Дополнительным фактором стал наследственный эффект пандемии COVID-19. В 2020-2022 годах производители памяти были вынуждены:

  • сокращать CAPEX,

  • консервировать или замедлять производственные линии,

  • откладывать расширение мощностей.

Эти решения принимались в условиях неопределенного спроса и были экономически оправданы на тот момент. Однако сегодня рынок развернулся, а производственные мощности оказались физически ограничены.

Даже при наличии капитала и спроса быстро нарастить выпуск невозможно ― полупроводниковая индустрия не работает в квартальных циклах.

Память как узкое место AI-инфраструктуры

Для AI-нагрузок память играет критическую роль. Современные модели требуют больших объемов DRAM, высокой пропускной способности и минимальных задержек. В типовой конфигурации AI-сервера 2025 года память (DRAM + HBM) может составлять 20-30% стоимости BOM, уступая по доле только GPU и ускорителям.

Рост цен на память напрямую отражается на стоимости AI-кластеров, сроках окупаемости проектов и доступности инфраструктуры для средних и небольших заказчиков.

Последствия для рынка серверных решений

Для заказчиков, интеграторов и производителей серверов это означает несколько практических изменений:

  • переход поставщиков памяти на краткосрочные контракты с гибкой ценой,

  • ограничение доступных конфигураций серверов,

  • рост сроков поставки компонентов,

  • необходимость более точного планирования емкости RAM под реальные профили нагрузки.

Для производителей серверного оборудования это приводит к смещению фокуса на оптимизацию конфигураций под конкретные задачи, баланс между производительностью и стоимостью и консультационную работу с заказчиком еще на этапе проектирования.

Почему некоторые аналитики говорят об AI-пузыре: взгляд через CAPEX

Отдельно стоит остановиться на том, почему всё чаще звучат разговоры о возможном «пузыре» вокруг искусственного интеллекта. Речь идет не о технологиях как таковых, а об экономике текущих инвестиций.

Один из ключевых аргументов аналитиков связан с CAPEX крупнейших технологических компаний, активно инвестирующих в AI-инфраструктуру. За последние годы бигтех закупил огромные объёмы GPU-серверов и оборудования для дата-центров, резко увеличив капитальные затраты.

При этом для сглаживания финансовой отчётности используется вполне легальная, но показательная бухгалтерская практика: срок амортизации AI-оборудования увеличивается с привычных 3 лет до 5-6 лет. Формально это позволяет «размазать» стоимость инвестиций по времени и не показывать резкое падение прибыли в краткосрочной перспективе.

Проблема в том, что такая модель плохо сочетается с реальностью рынка.

Генеральный директор NVIDIA Дженсен Хуанг уже открыто говорит о ежегодном цикле обновления AI-ускорителей. Новые поколения чипов становятся заметно быстрее и энергоэффективнее, а оборудование, купленное всего 2-3 года назад, перестаёт быть конкурентоспособным для обучения передовых моделей.

В результате возникает структурное противоречие:

  • оборудование учитывается в балансе как актив, который должен окупаться 5-6 лет,

  • фактически же через 2-3 года оно уже не может эффективно использоваться для топовых AI-нагрузок,

  • дата-центры оказываются заполнены морально устаревшими серверами, которые сложно загрузить задачами с высокой добавленной стоимостью.

Если при этом выручка от AI-сервисов не растет пропорционально инвестициям, компании сталкиваются с риском: на балансе остаются крупные активы, которые придется списывать в убытки.

Именно эта разница между понесенными затратами и реальной способностью инфраструктуры генерировать доход и лежит в основе разговоров о возможном AI-пузыре. В этом контексте нежелание производителей памяти заранее масштабировать выпуск выглядит логичным: расширение мощностей под потенциально избыточный спрос может привести к тем же проблемам с окупаемостью, но уже на стороне поставщиков компонентов.

Прогноз: что ждать до 2027–2028 годов

По оценкам отраслевых аналитиков и профильных медиа:

  • дефицит DRAM и HBM сохранится как минимум до 2027-2028 г.,

  • расширение производственных мощностей будет происходить плавно и строго контролируемо.

Это означает, что фактор памяти останется одним из ключевых ограничений для масштабирования AI-инфраструктуры в ближайшие годы.

Поведение крупнейших производителей памяти показывает: внутри индустрии нет полной уверенности в долгосрочной устойчивости текущего AI-бума.

Пока публичный дискурс говорит о «новой технологической эпохе», поставщики ключевых компонентов действуют консервативно, ориентируясь на управляемый рост и прибыльность.

Для рынка серверной инфраструктуры это означает одно: память остаётся стратегическим ресурсом, а ее доступность и стоимость становятся критически важными при проектировании AI-систем.

Интересно, как эта ситуация выглядит с вашей стороны. Уже приходится пересматривать конфигурации серверов из-за стоимости или доступности памяти?

Давайте обсудим в комментариях ― опыт практиков здесь особенно ценен.

P.S. Спасибо за интересный разговор и экспертизу @Alex621

Источник: Wccftech

Комментарии (7)


  1. fossfusion
    30.12.2025 13:34

    А зачем? Склады готовой продукции не пусты, очевидно, а то что есть сейчас раскупают втридорога, идеально же. Материальные запасы уменьшаются, проход увеличивается, все как завещал Голдратт, и даже делать ничего не надо.

    Ну а если производители не получают прямую выгоду от повышения цен (например продавали дешево оптом перекупам тоннами), то и прибыли они не видят и тем более нет резона наращивать производство.


    1. Alex621
      30.12.2025 13:34

      С логикой, в целом, согласен. При текущей структуре рынка управляемый дефицит действительно максимизирует проход (и, само собой, прибыль)
      Но есть нюанс: склады готовой продукции это в основном стандартная DRAM, а узкое место сейчас смещается в сторону HBM. Там запасы куда менее комфортные, а перенастройка производственных линий - это не «включил станок».

      Плюс производители действительно не всегда забирают весь апсайд роста цен - часть маржи съедают долгосрочные контракты и крупные клиенты (хотя с ними тоже не так все однозначно стало после отказа от долгосрочных контрактов). Поэтому стратегия «не дёргаться» здесь скорее про контроль цикла, чем про лень или жадность.

      Опять же, мы можем только гадать про уровень стока и каким-то образом интерпретировать их "нежелание быстро строить фабы".


  1. ZaRzaka
    30.12.2025 13:34

    Обычная рыночная экономика. Нужно пуху накинуть и цену, распродать то, что не очень)) А вот потоооом будет норм товар.


    1. Alex621
      30.12.2025 13:34

      Да, рыночная экономика в чистом виде.
      рынок памяти слишком хорошо помнит, чем заканчивались прошлые «потом будет норм товар»- перепроизводством и обвалом цен. Недавно же проходили такое.

      Сейчас ощущение, что производители сознательно тормозят именно в ожидании понимания, сколько AI спроса реально переживёт хайп-фазу. Лучше продать меньше и дорого, чем через 3-4 года списывать фабрики. (а может и больше)

      Так что «потом» будет, но очень дозированно и сильно позже, чем хотелось бы рынку.

      спасибо за комментарий!


  1. Mike_666
    30.12.2025 13:34

    Потому что олигополия на рынке памяти это раз.

    Подавление конкурентов не рыночными методами (ограничение поставок Китаю передовых литографических машин ASML и прочих необходимых компонентов) это два.

    Потому что львиную долю памяти которую будут производить в ближайшие годы Samsung Electronics и SK Hynix выкупила в пластинах OpenAI. - Звучит прямо как завязка для комикса с супер злодеями. Это три.


    Одна надежда что CXMT и другие китайские производители подтянуться хотя бы по тем типам памяти которые могут выпускать. А в среднесрочной перспективе всё ж рухнет монополия ASML.


  1. ABowser
    30.12.2025 13:34

    Несмотря на рекордный спрос со стороны AI-сегмента, компании не планируют резкого расширения производства. 

    А я спросил у ясеня. И ясень мне ответил:

    Here are simple lists of new/planned memory chip factories for Samsung and SK hynix:

    ✅ Samsung — New / Planned Memory Chip Factories

    1. Pyeongtaek P5 Fab (South Korea) — New memory fab under construction, expected to start operations in 2028. DIGITIMES Asia
    2. Samsung Yongin Semiconductor Cluster (South Korea) — Large multi-fab memory manufacturing cluster planned (multiple fabs over time) — starting construction in coming years. Wikipedia

    ✅ SK hynix — New / Planned Memory Chip Factories

    1. M15X Fab (Cheongju, South Korea) — New DRAM/HBM memory production fab, construction nearly complete, pilot/production starting ~2026. Businesskorea
    2. Yongin Semiconductor Cluster (South Korea) — Large new memory fab cluster with multiple fabs planned; first fab completion expected ~2027. 동아비즈니스리뷰
    3. West Lafayette / Indiana HBM Packaging Plant (USA) — New advanced packaging facility for HBM memory modules targeted ~2028. 

    2026 → 2028 Estimated Memory Production Capacity Growth

    Samsung - 25-35%

    SK Hynix - 30-40%

    Это разве не резко?


    1. yj87l43gye
      30.12.2025 13:34

      это просто отчёты к концу года - в пузырь они не верят тк контракты и отгрузки это разное