Всем привет!
2025-й постепенно подходит к концу. А хайп вокруг искусственного интеллекта (ИИ), длящийся уже три года, заканчиваться не собирается. И вполне возможно, что именно в этом году происходит зарождение нового тренда внутри этого хайпа. Он заключается в переносе вычислительных мощностей ближе к пользователю - прямо домой, на его личную вычислительную станцию. Похоже, что большие языковые модели (LLM) и генеративный ИИ перестают быть прерогативой дата-центров.
![Рис. 1. Техно-магнат дарит другому техно-магнату техно-энтузиасту специализированный миникомпьютер для локальной работы с нейросетями [1]. Рис. 1. Техно-магнат дарит другому техно-магнату техно-энтузиасту специализированный миникомпьютер для локальной работы с нейросетями [1].](https://habrastorage.org/r/w780/getpro/habr/upload_files/e66/774/f0e/e66774f0ef29f6cf47a8cda546be985e.webp)
В этой статье приведен обзор решений, которые можно применить в качестве домашних вычислительных станций ИИ сегодня.
Постановка задачи
На определенном этапе мне понадобилась железка для локальной работы с LLM с удовлетворительными показателями качества и скорости за вменяемые деньги. Для решения следующих задач:
анализ довольно большого объёма кода;
анализ технической документации;
различные административные задачи (составление вакансий, отбор соискателей, анализ договоров, саммаризация совещаний и т.п.)
немного вайбкодинга.
В каждом из перечисленных случаев речь идет о чувствительной информации, которой неправильно делиться с операторами облачных LLM.
Что касается качества работы - стоит рассматривать нейросети с максимальным количеством параметров, которые могут поместиться в оперативной памяти целиком. Эксперименты с Openrouter на нечувствительных к передаче данных показали, что более мелкие модели выглядят менее сообразительными, чем их более крупные родственники.
Есть грубое эмпирическое правило (не помню откуда оно взялось), что размер модели в миллиардах параметров примерно соответствует количеству гигабайт оперативной памяти машины, на которой ты хочешь эту модель запустить. То есть модель на 120 миллиардов параметров можно запустить на железе со 128 ГБ оперативки. Поскольку речь идет об анализе больших документов, размер контекстного окна должен быть при этом максимальным (хотя бы 100 тыс. токенов). Контекст "отъест" еще сколько-то, так что чем больше памяти, тем лучше.
И желательно при этом, чтобы скорость ответов не вызывала чувства мучительного ожидания. Основной показатель скорости, который обычно все обсуждают, это скорость генерации ответа в токенах/сек (t/s). Мне не удалось в моменте найти какие-то академические исследования на тему оптимально воспринимаемого порога скорости. Но вопрос периодически всплывает в различных сообществах, например, здесь [2]. Вполне можно взять за основу, так что будем отталкиваться от следующих показателей:
Для фоновых задач и запросов с большим контекстом многие могут терпеть скорости около 1–5 t/s, если качество вывода достаточно высокое.
Самый «минимально терпимый» диапазон для диалога с сетью в чате: 5–10 t/s.
Для программирования — часто озвучивают минимум 20–30 t/s.
Под агентные или длинные сессии — принято ожидать от 50 t/s и выше.
Крайнее неудобно всё, что ниже 3–5 t/s, особенно для интерактивных задач (диалог, код).
Также желательны компактные размеры девайса и по возможности минимальное энергопотребление (собирать комбайн на основе нескольких RTX 3090 или 4090, потребляющий более киловатта, не очень хочется).
Итак, чем же нас могут порадовать плоды прогресса?
Nvidia DGX Spark
Фото, приведенное на первом рисунке и весьма популярное в сети, было сделано 14 октября 2025 года. Улыбающийся Дженсен Хуанг дарит своё новое детище (тот самый DGX Spark) Илону Маску. Скорее всего, не только для того, чтобы сделать Илона чуть более счастливым. Возможно, столь тяжелая PR артиллерия подтянута потому, что Nvidia прочит этой небольшой коробочке большое будущее.
![Рис. 2 Скриншот рекламного баннера с сайта Nvidia [3]. Рис. 2 Скриншот рекламного баннера с сайта Nvidia [3].](https://habrastorage.org/r/w780/getpro/habr/upload_files/8a3/503/f3b/8a3503f3b71cd7a65d6b5b1af9e0ebf3.png)
Официальный анонс устройства состоялся 18 марта текущего года [4]. По сути это первое специализированное устройство Nvidia для инференса LLM, рассчитанное на масс маркет. Его стоимость составляет 3 999 долл. США, поставки начались как раз в октябре. При большом желании можно заказать и в Россию (на известном сайте с частными объявлениями цены стартуют от 410 тыс. руб.).
Что мы имеем под капотом:
Характеристика |
Описание / Значение |
|---|---|
AI-чип (GB10 Blackwell) |
CPU + GPU, 1 петаFLOP FP4, оптимизирован для инференса LLM |
Оперативная память |
128 ГБ LPDDR5x Unified System Memory |
Пропускная способность памяти |
273 GB/s |
Размер моделей для инференса |
До 200 млрд параметров (одна система), до 405 млрд (две системы) |
Tensor Cores |
5-е поколение, FP4 |
Сеть |
ConnectX-7 NIC, 200 Гбит/с |
NVMe SSD |
4 ТБ, аппаратное шифрование |
Форм-фактор |
150×150×50,5 мм, 1,2 кг |
Питание |
140–240 Вт TDP |
AI софт/ОС |
NVIDIA DGX OS и программный стек |
Насколько хорош девайс для инференса свежих open source моделек? А ведь он реально неплох. Основная фишка устройства - объединенная память CPU/GPU. Это позволяет загружать модели до 120 миллиардов параметров целиком в область памяти, выделенную под GPU. Основные результаты тестов на фреймворке ollama, согласно [5], следующие:
Model Name |
Model Size |
Quantization |
Prefill (t/s) |
Decode (t/s) |
gpt-oss |
20b |
mxfp4 |
2,053.98 |
60.91 |
gpt-oss |
120b |
mxfp4 |
94.67 |
41.88 |
llama-3.1 |
8b |
q4_K_M |
23,169.59 |
43.18 |
llama-3.1 |
8b |
q8_0 |
19,826.27 |
28.54 |
llama-3.1 |
70b |
q4_K_M |
411.41 |
4.58 |
gemma-3 |
12b |
q4_K_M |
1,513.60 |
26.51 |
gemma-3 |
12b |
q8_0 |
1,131.42 |
16.09 |
gemma-3 |
27b |
q4_K_M |
680.68 |
11.51 |
gemma-3 |
27b |
q8_0 |
65.37 |
7.35 |
deepseek-r1 |
14b |
q4_K_M |
2,500.24 |
21.45 |
deepseek-r1 |
14b |
q8_0 |
1,816.97 |
13.68 |
qwen-3 |
32b |
q4_K_M |
100.42 |
9.53 |
qwen-3 |
32b |
q8_0 |
37.85 |
6.24 |
Prefill здесь - скорость обработки токенов запроса, Decode - скорость генерации ответа. К сожалению, в оригинальной таблице не указаны длины запросов и ответов (а это важно, скорость падает при увеличении длины запроса). Предположу, что и запрос и ответ были не более 1 максимум 2 килотокенов. Обычно подобное тестирование ведется с такими длинами.
Тестирование показывает, что Spark проигрывает по производительности до 4 раз современным дискретным GPU (например, RTX 5090 или RTX Pro 6000 Blackwell). Узким местом является относительно низкая пропускная способность ОЗУ (273 Гб/с). Но при этом Spark гораздо более компактный и энергоэффективный. Приведу-ка ещё раз первоисточник, отчет весьма подробный - [5].
Mac Studio M4 Max и M3 Ultra
По хорошему стоило бы поставить эти гаджеты на первое место (особенно M3 Ultra). Ибо на текущей момент это наиболее интересный вариант для локального запуска LLM. За исключением, пожалуй, небольшого нюанса, о котором упомяну чуть ниже.
![Рис. 3. Внешний вид Mac Studio (одинаков для M3 Ultra и M4 Max). Фото и подробный обзор здесь [6]. Рис. 3. Внешний вид Mac Studio (одинаков для M3 Ultra и M4 Max). Фото и подробный обзор здесь [6].](https://habrastorage.org/r/w780/getpro/habr/upload_files/ad2/82c/316/ad282c316dfea4db1ed28a4b975f7d2b.webp)
Итак, 18 марта 2025-ого Nvidia публикует пресс релиз о первом в своем роде устройстве для локального инференса LLM, которое собирается начать продавать в октябре. А за пару недель до этого Apple публикует пресс релиз о своих новых Mac Stations, в котором M3 Ultra ни много ни мало «capable of running large language models (LLMs) with over 600 billion parameters entirely in memory, thanks to its advanced GPU and up to 512GB of unified memory with M3 Ultra — the most ever in a personal computer».
То бишь данный зверь с 512 Гб оперативной памяти на борту способен запускать большие языковые модели (LLM) с более чем 600 миллиардами параметров полностью в памяти. DeepSeek R1 с 671B параметров - прямо на вашем рабочем столе! Кстати, продажи начались уже в марте.
Что запрятано внутрь Mac Studio:
Параметр |
Mac Studio M3 Ultra |
Mac Studio M4 Max |
|---|---|---|
Процессор (CPU) |
28-ядерный (20 производительных + 8 энергоэффективных) или 32-ядерный (24+8) |
14-ядерный (10 производительных + 4 энергоэффективных) или 16-ядерный |
Графический процессор (GPU) |
60 или 80 ядер |
32 или 40 ядер |
Нейронный движок |
32-ядерный |
16-ядерный |
Оперативная память |
96–512 ГБ унифицированной памяти, с пропускной способностью 819 ГБ/с |
36–128 ГБ унифицированной памяти, с пропускной способностью 546 ГБ/с |
Хранилище (SSD) |
1–16 ТБ |
512 ГБ–8 ТБ |
Поддержка дисплеев |
До 8 дисплеев с разрешением до 6K и 8K |
До 5 дисплеев: 4×6K@60 Гц + 1×4K@144 Гц HDMI |
Порты |
6 × Thunderbolt 5, 2 × USB-A, HDMI 2.1, 10 Gb Ethernet, слот SDXC, аудио 3.5мм |
Аналогичные порты, включая Thunderbolt 5, HDMI 2.1, USB-C и Ethernet |
Энергопотребление |
До 480 Вт |
До 370 Вт |
Нагрев и охлаждение |
Усиленная система охлаждения с двумя вентиляторами |
Эффективная система охлаждения |
Особенности |
Двойной чип M3 Max, оптимизирован для ресурсоёмких задач, ИИ и многопоточных вычислений |
Новый чип M4 Max с акцентом на энергоэффективность и высокую частоту ядер |
Было бы любопытно взглянуть на результаты тестов. К сожалению, подробного отчета найти не удалось, так что будем довольствоваться разрозненными данными.
Первым делом, конечно же, любопытно было бы взглянуть на результаты работы полноразмерного DeepSeek. Могучего джина, помещенного в столь маленькую коробочку. К счастью, любопытно было не только лишь мне [6]:
Модель |
Размер контекста (запрос) |
Скорость обработки запроса (t/s) |
Скорость генерации (t/s) |
|---|---|---|---|
DeepSeek V3 0324 |
0.069K |
58.08 (1.19s) |
21.05 |
DeepSeek V3 0324 |
1.145K |
82.48 (13.89s) |
17.81 |
DeepSeek V3 0324 |
15.777K |
69.45 (227s) |
5.79 |
DeepSeek R1 |
1K |
75.92 |
16.83 |
DeepSeek R1 |
13K |
58.56 |
6.15 |
Mac Studio M3 Ultra с 512 Гб на борту реально позволяет работать локально с моделями размером 670B+ при больших окнах контекста. Скорости генерации при малых контекстах (до ~1К токенов) у DeepSeek V3 и R1 схожи — 17–21 токен/сек. По мере увеличения длины контекста скорость генерации резко падает: на 16K токенов DeepSeek V3 выдаёт только 5.79 токенов/сек, DeepSeek R1 на 13K — 6.15 токенов/сек. То есть при реальной работе с длинным контекстом скорость заметно ниже, но в целом приемлемо. При запросе в 16 тысяч токенов использование памяти достигло 466 ГБ.
Для сопоставления результатов инференса Mac Studio с Nvidia DGX Spark приведу ещё одну таблицу [7]. Здесь приведены замеры на версии Mac Studio с меньшим размером ОЗУ. Но поскольку и модели тоже меньшего размера, полагаю, что сопоставление будет более менее адекватным. С запросом для тестирования тут всё понятно. Замеры делались по промту "Write a 500 word story".
Models |
M3 Ultra (256GB, 80-core GPU) |
|---|---|
mistral-large:123b (4bit) |
8.42 tokens/s |
llama3.1:8b (4bit) |
85.02 tokens/s |
deepseek-r1:14b (4bit) |
46.50 tokens/s |
deepseek-r1:32b (4bit) |
25.58 tokens/s |
deepseek-r1:70b (4bit) |
13.16 tokens/s |
Qwen2.5:7B (4bit) |
88.87 tokens/s |
Qwen2.5:14B (4bit) |
47.25 tokens/s |
Qwen2.5:32B (4bit) |
26.02 tokens/s |
Qwen2.5:70B (4bit) |
12.21 tokens/s |
На примере пары совпавших позиций видно, что скорость генерации у Mac Studio M3 Ultra примерно в 2 раза выше, чем у Nvidia DGX Spark. Не обязательно сравнивать эти цифры сейчас, я приведу финальную таблицу в конце статьи.
Но уже сейчас понятно, что Mac Studio M3 Ultra (особенно версия с 512 ГБ оперативной памяти на борту) - самое оптимальное решение для локального инференса LLM на сегодняшний день. Если бы не один жирный минус - высокая цена [8]:
Конфигурация |
Официальная цена Apple ($) |
|---|---|
M4 Max, 16C CPU, 40C GPU, 128GB, 512GB |
3499 |
M4 Max, 16C CPU, 40C GPU, 128GB, 1TB |
3699 |
M4 Max, 16C CPU, 40C GPU, 128GB, 2TB |
4099 |
M4 Max, 16C CPU, 40C GPU, 128GB, 4TB |
4699 |
M4 Max, 16C CPU, 40C GPU, 128GB, 8TB |
5899 |
M3 Ultra, 28C CPU, 60C GPU, 256GB, 1TB |
5599 |
M3 Ultra, 28C CPU, 60C GPU, 256GB, 2TB |
5999 |
M3 Ultra, 28C CPU, 60C GPU, 256GB, 4TB |
6599 |
M3 Ultra, 28C CPU, 60C GPU, 256GB, 8TB |
7799 |
M3 Ultra, 28C CPU, 60C GPU, 256GB, 16TB |
10199 |
M3 Ultra, 32C CPU, 80C GPU, 256GB, 1TB |
7099 |
M3 Ultra, 32C CPU, 80C GPU, 256GB, 2TB |
7499 |
M3 Ultra, 32C CPU, 80C GPU, 256GB, 4TB |
8099 |
M3 Ultra, 32C CPU, 80C GPU, 256GB, 8TB |
9299 |
M3 Ultra, 32C CPU, 80C GPU, 256GB, 16TB |
11699 |
M3 Ultra, 32C CPU, 80C GPU, 512GB, 1TB |
9499 |
M3 Ultra, 32C CPU, 80C GPU, 512GB, 2TB |
9899 |
M3 Ultra, 32C CPU, 80C GPU, 512GB, 4TB |
10499 |
M3 Ultra, 32C CPU, 80C GPU, 512GB, 8TB |
11699 |
M3 Ultra, 32C CPU, 80C GPU, 512GB, 16TB |
14099 |
Забываем на время про потенциальную возможность завести на своем рабочем столе свой личный полноразмерный Deepseek и двигаемся дальше.
Strix Halo (RYZEN AI MAX+ 395)
Строго говоря, это название не какого-то конкретного мини ПК, а архитектуры (Strix Halo) нового процессора AMD на её основе (RYZEN AI MAX+ 395), анонсированного 6 января 2025 года на выставке CES 2025. Продажи мини ПК на его основе начались немного позже - в апреле - июле 2025.

RYZEN AI MAX+ 395 это высокопроизводительный мобильный процессор от AMD, построенный на архитектуре Zen 5. Он сочетает 16 ядер и 32 потока с базовой частотой 3 ГГц и ускорением до 5.1 ГГц. В процессоре интегрирован ускоритель Radeon 8060S с 40 вычислительными блоками RDNA 3.5, которая обеспечивает производительность, близкую к выделенным видеокартам. Кроме того, чип оснащён нейронным ускорителем ИИ XDNA 2 с производительностью 50 триллионов операций в секунду (TOPS).

Перечень доступных на рынке моделей на основе этого процессора с ценами на них любезно сведен в таблицу каким-то заботливым участником сайта Reddit здесь [9]. Надо сказать, что цены на большинство моделей со 128 Гб оперативной памяти составляют 1999 дол. США. Что на фоне рассмотренных выше альтернатив выглядит довольно привлекательно.
В качестве примера приведем характеристики наиболее распространенного в России (судя по количеству предложений на маркетплейсах) GMKtec EV0-X2 [10]:
Параметр |
Значение |
|---|---|
Процессор |
AMD Ryzen AI Max+ 395, 16 ядер / 32 потока, TSMC 4nm FinFET, до 5.1 ГГц, 16 MB L2, 64 MB L3 |
Графика |
Интегрированная AMD Radeon 8060S (архитектура RDNA 3.5, до 40 вычислительных блоков) |
Оперативная память |
LPDDR5X, 64 ГБ или опционально 128 ГБ, 8-канальная, частота 8 ГГц, пропускная способность 217 Гб/с |
Постоянная память |
PCIe 4.0 SSD, 1 ТБ или 2 ТБ |
Сетевые интерфейсы |
Wi-Fi 7 (максимальная скорость до 46 Гбит/с), Bluetooth 5.4, Ethernet 2.5 Гбит/с |
Видеовыходы |
Поддержка до 4 мониторов 4K/8K (HDMI 2.1, DisplayPort 1.4) |
Порты |
2x USB4 (40 Гбит/с), 3x USB 3.1 Gen2, 2x USB 2.0, HDMI, 3x DisplayPort, слот SD UHS-II |
Хранение данных |
SSD PCIe 4.0, 1-2 ТБ |
Тепловой пакет (TDP) |
Стабильная работа при 120 Вт, пик до 140 Вт |
Дополнительные функции |
Нейронный ускоритель XDNA 2 с производительностью до 126 TOPS для AI задач |
Шум вентилятора |
37–44 дБА в нагрузке |
Режимы работы |
Performance (120 Вт), Balanced (80 Вт), Quiet (50 Вт) |
Питание |
Блок питания 230 Вт |
Нас особенно интересуют результаты инференса данного девайса и подобных ему. Они подробнейшим образом изложены в замечательном тесте [11]:


Выводы
Теперь нам остается сравнить описанные решения на инференсе на чем-нибудь одинаковом. Ранее у нас нашлись пересечения по двум моделям (llama3.1:8b квантизация 4bit и deepseek-r1:14b квантизация 4bit). Я не нашел в интернет результатов тестирования этих моделей на Strix Halo, поэтому сделал сам на своем GMKtec EV0-X2 (как можно догадаться, в результате своих изысканий я остановился именно на нём).
Итак, что мы имеем в сухом остатке:
Параметр |
Nvidia DGX Spark |
Mac Studio M3 Ultra |
Strix Halo |
Скорость генерации для llama3.1:8b (4bit), t/s |
43.18 |
85.02 |
40.81 |
Скорость генерации для deepseek-r1:14b (4bit), t/s |
21.45 |
46.50 |
20.57 |
Размер ОЗУ, Gb |
128 |
256 или 512 |
64 или 128 |
Энергопотребление, W |
до 240 |
до 480 |
до 140 |
Цена, USD |
3999 |
от 5599 до 14099 |
1999 |
Ну что тут сказать... Было бы неплохо завести себе Mac Studio M3 Ultra, конечно. Но цена в 5,6 тыс. USD за модель с 256 Г ОЗУ выглядит не особо оправданной. Strix Halo лидирует по цене и энергосбережению, показывая производительность на уровне Nvidia DGX Spark.
При этом мини ПК на основе Strix Halo - это полноценный персональный компьютер на Windows 11, готовый к работе из коробки, совместимый со всем офисным и профессиональным софтом. Просто ставь на стол и работай. Так что выбор очевиден.
Большое спасибо, что дочитали до конца. Прошу потратить ещё 10 секунд своего времени и поучаствовать в опросе (ниже).
PS: LLaMA (Large Language Model Meta AI) — семейство больших языковых моделей компании Meta Platforms, Inc., признанной в РФ экстремистской организацией. Упоминание LLaMA используется исключительно в описательном ключе и не предполагает поддержки или одобрения её владельца.
Комментарии (13)

d3d11
10.11.2025 04:07Я правильно понимаю, что локальные LLM должны постоянно дообучаться, в этом вопросе у облачных, видимо, преимущество? Или я что-то недопонимаю?

Walker2000 Автор
10.11.2025 04:07И те и другие могут добучаться только в том случае, если их кто-то дообучает )

d3d11
10.11.2025 04:07Это я и имею ввиду )
Облачные дообучает вендор. Стало быть они будут всегда впереди?
Walker2000 Автор
10.11.2025 04:07Ну если в общем, то да. Облачная LLM это не только собственно LLM, но и сопутствующие сервисы (поиск в интернет, преобразование документов и автомтическое помещение их в промт, оптимизация системного промта, как минимум). В награду за всё это удобство пользователь шлёт информацию, которую ранее не доверял даже поисковикам.

Litemanager_remoteadmin
10.11.2025 04:07Спасибо за проделанную работу, интересно было почитать, я не очень силен в теме , но что если разбивать задачу на несколько ПК у меня например есть пара лишних ноутов без дела

Walker2000 Автор
10.11.2025 04:07Спасибо за оценку. Если есть несколько компов с небольшим объемом памяти, можно запустить несколько небольших моделей или несколько агентов на основе них. Если, конечно, есть соответствующая задача.

nikolz
10.11.2025 04:07Есть грубое эмпирическое правило (не помню откуда оно взялось), что размер модели в миллиардах параметров примерно соответствует количеству гигабайт оперативной памяти машины, на которой ты хочешь эту модель запустить. То есть модель на 120 миллиардов параметров можно запустить на железе со 128 Гб оперативки.
Число параметров надо умножить на формат параметра.
Если модель имеет 120 миллиардов параметров, то запустить ее на железе со 128 ГБ оперативки возможно при формате FP8.
Для запуска с форматом FP32 (полная точность) требуемый объем оперативки составит 512 ГБ.

Walker2000 Автор
10.11.2025 04:07Да, всё верно. В меньшую сторону тоже работает. 120 млрд параметров с квантизацией 4 бита это примерно 60 Гб весов модели.
GospodinKolhoznik
Каких только оправданий не придумаешь, чтобы объяснить жене, зачем потратил столько денег на покупку дорогой видеокарты.
achekalin
Или новорожденной дочке вертолета на радиоуправлении.
Walker2000 Автор
Так и есть. Теперь можно показать жене эту статью. Правда, тут не совсем про видеокарту, скорее про мини компы.