27 января 2025 года Nvidia потеряла $589 млрд капитализации — крупнейшее однодневное падение в истории публичных компаний. Причина оказалась неожиданной: китайский стартап DeepSeek заявил, что обучил модель уровня GPT-4 за $6 млн. Не миллиардов. Миллионов.
Новость ударила по рынку, потому что противоречила всему, во что индустрия верила последние годы. В тот момент OpenAI готовился привлечь $40 млрд инвестиций, а проект Stargate анонсировал вложения до полутриллиона долларов в дата-центры. Правила казались простыми: передовая модель требует огромных денег. И тут появляется команда, которая добилась сопоставимых результатов за $6 млн — в тридцать с лишним раз дешевле конкурентов.
Нужны ли вообще миллиарды для создания конкурентоспособного AI?
Шкала безумия
Данные Stanford AI Index 2025 показывают масштаб аномалии. Стоимость обучения флагманских моделей росла экспоненциально: GPT-4 обошёлся примерно в $78 млн, Google Gemini 1.0 Ultra перевалил за $190 млн. DeepSeek R1 стоил в тридцать с лишним раз дешевле.

Структура инвестиций не менее показательна. Частные вложения в AI достигли $150 млрд в 2024 году — исторический максимум. Значительная часть денег закручена в «круговую экономику»: инвесторы вкладывают в AI-компании, те тратят на GPU от Nvidia, акции Nvidia растут, инвесторы фиксируют прибыль и вкладывают снова. Система питает сама себя, пока все верят в её устойчивость.
Анатомия прорыва
DeepSeek — не «дешёвый китайский клон». Модель R1 показала результаты на уровне OpenAI o1 в задачах многошагового рассуждения, и это данные независимых бенчмарков, а не маркетинг. Команда работала на чипах H800 — версии, которую Nvidia выпустила специально для соответствия американским экспортным ограничениям. Санкции должны были замедлить китайский AI, но создали давление, подтолкнувшее к инновациям в архитектуре.
Код выложен в открытый доступ. Пока OpenAI и Google держат модели закрытыми, китайская команда сделала ставку на прозрачность.
Результат зафиксирован в Stanford AI Index: разрыв в качестве между лучшими американскими и китайскими моделями сократился с 9.26% до 1.70% за один год.

Впрочем, измерять этот разрыв становится всё сложнее. Отчёт Stanford констатирует: большинство стандартных бенчмарков «насыщены» — системы AI получают настолько высокие баллы, что тесты перестают что-либо измерять. Общие знания, математика, программирование, анализ изображений — везде модели упираются в потолок шкалы. Йоланда Гил, один из руководителей Stanford AI Index, признаётся: она ожидала, что прогресс выйдет на плато и потребует новых архитектур. Этого не произошло.
Исследователи отвечают созданием всё более сложных испытаний. Один из них — «Последний экзамен человечества»: набор вопросов экстремальной сложности от экспертов из 500 институтов мира. Лучший результат пока у OpenAI o1 — 8.8% правильных ответов. Посмотрим, надолго ли.
И вот что любопытно: на этих новых бенчмарках DeepSeek R1 идёт вровень с американскими моделями. Команда из Китая, работавшая под санкциями и с ограниченным доступом к железу, добилась паритета с лидерами рынка. Возникает неудобный вопрос: что тогда мешает остальным?
Почему корпорации всё равно тратят миллиарды
Путь к эффективности существует, но крупнейшие компании продолжают наращивать расходы.
Отчасти это инфраструктурный хайп: компании конкурируют размером дата-центров, скупают энергетические активы, бронируют производственные слоты на годы вперёд. Отчасти — защита позиций: когда конкурент объявляет об инвестициях в сотни миллиардов, скромный бюджет выглядит слабостью. Отчасти — инерция: масштабирование работало пять лет, каждое увеличение параметров давало прирост качества.
Проблема в том, что отдача снижается. Релиз GPT-5 не произвёл эффекта GPT-4. Улучшения стали слишком незначительными, и пользователи всё чаще задаются вопросом: стоит ли новая версия своих денег?
Разрыв между затратами и отдачей
Данные McKinsey из отчёта Stanford: среди компаний, внедривших AI, большинство сократили расходы менее чем на 10%, прирост выручки — менее 5%. Полезная оптимизация, но не обещанная трансформация бизнеса.
Стоимость инференса падает стремительно — запрос к GPT-3.5 подешевел с $20 до $0.07 за миллион токенов. Использовать модели становится дёшево. А если DeepSeek прав, и обучение тоже можно удешевить на порядок, барьеры входа рушатся, и компании, сделавшие ставку на инфраструктурное превосходство, рискуют обнаружить, что их главное преимущество обесценилось.
Практические выводы
История DeepSeek несёт урок для всех, кто работает с AI без гигантских бюджетов. Архитектурные решения могут компенсировать недостаток ресурсов — инвестиции в эксперименты способны дать больше отдачи, чем наращивание GPU. Экосистема открытых моделей формирует альтернативу закрытым решениям. Ограничения создают давление, давление порождает изобретательность: китайская команда превратила дефицит в стимул.
Что дальше
Если 2025-й стал годом, когда индустрия AI впервые столкнулась с неудобными вопросами, то 2026-й потребует на них ответить. Безоглядный оптимизм уступает место трезвой оценке, и теперь компаниям придётся доказывать жизнеспособность бизнес-моделей и демонстрировать реальную экономическую отдачу.
Эпоха «поверьте, прибыль будет» подходит к концу. Но история DeepSeek показала главное: миллиардные бюджеты — не обязательное условие для результата. А для практического применения AI можно и вовсе обойтись без собственного дата-центра.
Cloud4Y предлагает облачную инфраструктуру для AI и машинного обучения — запускайте проекты на готовой платформе, пока другие спорят о размерах бюджетов.
Комментарии (31)

vtal007
27.01.2026 13:20Не умаляя заслуг китайских ученых. Но хочется задать вопрос. Дипсик (у него есть более забавное народное название) успешен не потому ли, что он "догоняющий" и может учитывать пройденный путь других (тех, кто его опережает) моделей и разработчиков?

Moog_Prodigy
27.01.2026 13:20Так и есть, но поскольку китайцы были ограничены в ресурсах, именно они придумали новую модель, которая показала сравнимую эффективность.
Это не совсем "догонялки", как раньше было в технологиях. Китайцы вот этим шагом уже опередили openai, чисто по ресурсам. Конечно, про 6 млн это они тоже кривят душой - подготовка датасетов, электроэнергия и стоимость всего кластера тут не включена. Но в чем не соврали - это то, что моделька действительно крутая, и выложили в открытый доступ. Пофиг, что железо у большинства не тащит 100 токенов в секунду, через mmap оно запускается даже на CPU с 0.05 токенов в секунду, главное результат выдает тот же по итогу. Это можно проверить на компе стоимостью не в миллион баксов, а копеешном. Если что - я проверял, это действительно так. А тут и на хабре минимум два поста было от чуваков, имеющими 1 терабайт озу, тоже проверяли.
Тут видится классическая идея "голодного художника". Нет ресурсов - оптимизируй\переделай архитектуру. У китайцев таких ресурсов нет (не было на тот момент), а мозги таки были. Ну и вырастили себе OpenAI конкурентов, молодцы, чо. Без сарказма. А без конкуренции цены могут только расти. Нам же лучше.

Politura
27.01.2026 13:20Конечно, про 6 млн это они тоже кривят душой
Это не они кривят душой, а либо в оригинале наврали, либо переводчик наврал. Проверить не проверишь, т.к. ссылка на якобы оригинал указывает на какую-то другую статью.
Разработчики ДипСик в своем отчете указали, что 6 млн стоило только дообучение не-размышляющей DeepSeek v3 до размышляющей DeepSeek R1. Сколько стоило обучить с нуля DeepSeek v3 в отчете нет.

min8
27.01.2026 13:20Он успешен потому, что для его использования не требуется ничего, скачать можно легко из маркета, впн для использования не нужен, платить не надо сложностей с аккаунтом нет

vtal007
27.01.2026 13:20так причем тут "использование" и ВПН в частности
речь шла про успешность модели с точки зрения ее достижений
"Модель R1 показала результаты на уровне OpenAI o1 в задачах многошагового рассуждения "а вообще есть и платная (или даже платные) варианты дипсика

ZetaTetra
27.01.2026 13:20Обычно, считается что чем больше вложений, тем больше у технологий перспектив, а в мире где каждый год решение может превратиться в тыкву без вложений. И показатель что вложений немного, скорее настораживает, а не воодушевляет.
И не стоит забывать что это копирование существующей технологии. Да, удачи в копировании и удешевлении иногда получаются успешными. К примеру Segway <=> Ninebot (Причём Ninebot'у в итоге пришлось продаться Xiaomi иначе такой иск от Segway'я им было не потянуть).

logran
27.01.2026 13:20Это не копирование, а развитие. DeepSeek предложил достаточно солидный список улучшений и новых наработок (и не спрятал их за пейвол или коммерческую тайну), которые сейчас уже себе растащили все крупные игроки и благодаря которым как раз таки и просели цены на API (а не благодаря конкуренции с китаем).
С таким же успехом можно сказать, что ChatGPT это копирование существующей технологии гугла. Подумаешь, пару новшеств добавили и на больших данных обучили...

MrCina32
27.01.2026 13:20Релиз GPT-5 не произвёл эффекта GPT-4
не соглашусь. как ежедневный пользователь чатагпт вижу разительные изменения в качестве ответов, особенно в гуманитарной сфере.

Okeu
27.01.2026 13:20Когда вышел GPT-4 он был сильно мощнее предыдущей версии. Т.е там за год-два был коллосальный прирост качества ответов. GPT-5 почти не дал никакого буста в сравнении с прошлой версией. Напомню, что после GPT-4 был GPT-4o, GPT-o1, GPT-4.5, GPT-o3 - и на каждой итерации нам лили в уши, что это прорыв.
Конечно GPT-5 лучше, чем GPT-4, с этим никто и не спорит. А вот с предшественником не так все однозначно)
MrCina32
27.01.2026 13:20Руководствуясь опытом скажу что хоть GPT- 4 был прорывом (как по мне по причине низкой базы 3.5) , но он не был полноценно юзабельным в реальной практике. (я эпоху GPT-4 пересидел в Grok) А вот теперь без 5.2 не могу и дня прожить чтобы его не использовать и в работе и в личных запросах. Знакомая сегодня очень удивилась когда увидела как один и тот же промпт на моем GPT-5 и ее Deepsek выдал совершенно разный по качеству ответ, не в пользу последнего.

KivApple
27.01.2026 13:20Только вот DeepSeek сейчас выдаёт гораздо более посредственные ответы, чем актуальные версии ChatGPT или Claude. Попробуйте не энциклопедические знания у него спрашивать, а реальные задачи типа рефакторинга крупной кодовой базы.
Снижение стоимости обучения не значит, что теперь все за 6 миллионов будут учить, а значит, что будут учить по прежнему на миллиарды, но чаще выпускать версии, использовать больше обучающих данных и т д

logran
27.01.2026 13:20Для Deepseek потому что ждите v4. У гопоты и клода с тех пор уже кучу новых версий вышло.
Для кодовой базы за условно смешные деньги есть Minimax M2.1, и за еще более смешные (почти бесплатно) GLM-4.7, которые конечно не уровня Opus, но кодовая база проблем у них не вызывает.

deepmind7
27.01.2026 13:20Если новая версия дапсика сократит обучение ещё на 30 будет интересно посмотреть на лицо Джейсона Куртки

anonym0use
27.01.2026 13:20Есть мнение(не моё) что разработчики дипсика скомуниздили обучающую выборку, смогли бы они достичь такого же результата с нуля за те же $6млн ?

evgensenin
27.01.2026 13:20некоторое время дипсик даже отвечал что создан в компании OpenAI, потом сразу это из выдачи убрали

logran
27.01.2026 13:20Обучение на синтетике != "стырили датасет". Клод тоже сперва говорил что он ГПТ, большая часть моделей сейчас через раз считаем себя гемини и т.д ибо пол интернета этим уже зас*ано.
У китайцев огромный корпус китайских датасетов в довесок, из-за чего их модели пишут тексты прям заметно иначе (не всегда лучше, но - иначе)

remindscope
27.01.2026 13:20Подумаешь, что ChatGPT использовался для генерации данных для обучения DeepSeek. Об этом мы тактично умолчим.

hremlin
27.01.2026 13:20Почему ЧатЖПТ не использует ЧатЖПТ для обучения? Или все же использует, тогда весь смысл поста куда-то теряется?

beswalod
27.01.2026 13:20Ну, есть мнение, что ребята из DeepSeek немного приукрашивают:

Okeu
27.01.2026 13:20если честно, источники так себе. Вполне могу поверить, что кожаная куртка с альтманом в слезах бросились публиковать страшную правду о которой невозможно молчать через третьи руки))

bow
27.01.2026 13:20Как в старом анекдоте.
- Доктор, DeepSeek всем говорит, что обучился за $6 млн. Что мне делать?
- Голубчик, и вы можете говорить всем то же самое про себя.

Grogcm20
27.01.2026 13:20Это мнение можно будет считать объективным только если Дипсик добьется превосходства первым, а не будет идти по пятам уже имеющихся технологий! Китай страна-копия, не стоит забывать.

Uglevod
27.01.2026 13:20Если это дешевле ( да хоть в 40 раз ) но, это для кого то а ,не для меня.. То, мне на это пуфик ) .. просто как версия мнения)
... Интересно, когда в Китае будут уже объявлять празник-выходной или ежегодный национальный праздник, приуроченный к выходу новой победной версии DeepSeek )?
MrCina32
спасибо дипсику что могу пользоваться чатом GPT за 7usd в месяц.