
Компьютер для работы с ИИ — как Восток – дело тонкое. Это не игровая сборка и не печатная машинка, которую обычно берут в офис. Чтобы собрать ПК для работы с нейросетями, необходимо чётко понимать, какие компоненты дадут реальный прирост, а какие станут просто дорогим балластом. Поэтому если и браться за дело, то с умом. Сегодня разбираемся, что действительно нужно для ML, LLM и прочих аббревиатур, а чего точно стоит избегать.
Видеокарта – важнейший компонент для обучения ИИ
Важнейшим компонентом системы для обучения нейросетей являются видеокарты. Особенно видеокарты NVIDIA. И это не снобизм, а суровая реальность. Все основные библиотеки и фреймворки годами затачивались под экосистему CUDA, поэтому в какой-то момент она стала фактически безальтернативной.
Во-первых, NVIDIA предлагает комплексное решение: лучшие чипы, сетевые технологии и программное обеспечение.
Во-вторых, экосистема CUDA давно стала фактическим стандартом. Разработчики высоко ценят зрелость этой платформы, обилие документации и готовых примеров.
В-третьих, тензорные ядра в GPU NVIDIA специально оптимизированы для матричных операций, критичных для машинного обучения. Например, RTX 5090 обеспечивает производительность до 3352 AI TOPS, что делает ее исключительно эффективной для обучения ИИ.
Впрочем, внутри NVIDIA тоже есть нюансы. Взять хотя бы RTX 4070. Сама карточка выглядит довольно неплохо, но на практике объёма её памяти для серьёзных задач может и не хватить.

Ещё один важный нюанс – поддержка FP8. Это формат вычислений с плавающей запятой, как FP16 или FP32. Для ИИ он необязателен, но отличается легковесностью и быстротой. Поэтому с ним математика происходит быстрее, а ресурсов требуется меньше. Но соль в том, что эта особенность характерна только для видеокарт на базе архитектуры Ada Lovelace и новее. Так вот в RTX 4070 FP8 нет. А значит, не будет и той эффективности, которую обеспечивает этот формат. То есть, если модель умеет работать в FP8, а карточка нет – на выходе мы получаем больший расход памяти, большее тепловыделение и меньшую скорость.
RTX 5090 с 32 ГБ VRAM стандарта GDDR7 – полная противоположность. У неё и памяти вдоволь, и поддержка FP8 есть, но стоит эта видеокарта под 300 тысяч рублей в зависимости от исполнения. Для профессионалов это не проблема. Но энтузиасты, у которых вся сборка стоит меньше, вряд ли останутся довольны.
Безусловно, в модельном ряду NVIDIA довольно много вариантов “посередине”. Просто отталкиваться нужно от того, чего вы ждёте от своей сборки. Обучение с нуля? Инференс? Файнтюнинг? Все эти операции требуют разных ресурсов. Поэтому и железо под каждую из задач может отличаться.
На практике многие начинают с RTX 5070 — она недорога, поддерживает FP8 и довольно неплохо справляется с инференсом 7B-моделей. Правда, при работе с тяжеловесами начинаются трудности. В этом случае лучше ориентироваться на RTX 5080. У неё уже 16 ГБ VRAM, а сама она более мощна, но всё ещё не требует отдельной электростанции. Кто-то даже называет её золотой серединой, отмечая, что эта карточка может работать практически на одном уровне с RTX 4090. Неоднозначное утверждение. Поэтому тем, кто вообще не терпит, компромиссов, лучше ориентироваться всё-таки на RTX 5090.
Какой процессор подойдет для ПК под ИИ-задачи

Несмотря на то, что большая часть вычислений в работе с ИИ ложится на видеокарту, процессор тоже играет важную роль. Он отвечает за подготовку данных, управление процессом обучения, так что вполне может спровоцировать эффект бутылочного горлышка, если его возможностей вдруг окажется недостаточно.
По статистике, до 30% времени обучения нейросетей может уходить на ожидание ответа от CPU. То есть при обучении ИИ на больших пакетах данных слабый процессор может сослужить вам плохую службу, снизив эффективность видеокарты до 20-40%. Поэтому и выбирать его нужно, ориентируясь на конкретные характеристики:
Количество ядер и потоков - минимум 8 физических ядер и 16 потоков для работы с мощными GPU вроде RTX 5090. Для видеокарт среднего уровня достаточно 6-8 ядер.
Тактовая частота - высокая базовая частота (от 4,2 ГГц) обеспечивает быструю обработку однопоточных задач, важных для некоторых операций в процессе машинного обучения.
Объем кэш-памяти - большой объем кэша L3 (от 32 МБ) значительно ускоряет доступ к данным при обработке больших объемов информации.
Совместимость с остальными компонентами - поддержка быстрой оперативной памяти (DDR5-5200 и выше) и достаточное количество линий PCIe.
Несмотря на это, не всегда самый дорогой процессор будет оптимальным выбором. Например, тесты TRG Datacenters показали, что многие CPU прошлых лет отлично показывают себя в сценариях, завязанных на ИИ.
Возможные варианты:
Intel Core i9-13900K/KS - один из лучших, по мнению TRG Datacenters, процессоров для обучения ИИ. Сочетание из 24 ядер с частотой до 5,8 ГГц и 32 потоков легко справляется с параллельной обработкой данных и позволяет быстро подготавливать данные для GPU.
Главное преимущество этого процессора – стабильность под длительной нагрузкой. При обучении моделей, которое может занимать дни, i9-13900K держит высокую частоту без проседаний. А 36 МБ кэша L3 обеспечивает быстрый доступ к данным, что критично при работе с большими датасетами.
AMD Ryzen 9 7950X выделяется большим объемом кэш-памяти. Это хороший базис для задач ИИ, где часто используются одни и те же данные. Лучше себя покажут только модели с 3D-V Cache.
Ядра, потоки и высокая тактовая частота делают его отличным выбором для параллельной обработки данных. При этом его TDP заметно ниже, чем у конкурентов от Intel, и позволяет строить более компактные и тихие системы для ИИ.
Intel Core i7-13700K - отличный баланс цены и возможностей. В тестах машинного обучения i7-13700K показывает результаты, близкие к более дорогим моделям, но стоит дешевле “девятки”. Это позволяет сэкономить на процессоре и вложить больше в видеокарту.
Память и накопители для системы ИИ

В сборке ПК для задач искусственного интеллекта оперативная память играет не меньшее значение. Поэтому в 2025 году лучше выбирать DDR5. Этот стандарт имеет значительно более высокую пропускную способность, что напрямую влияет на скорость обработки больших объемов данных при обучении моделей.
При условии, что остальное железо позволяет, рекомендуется брать планки памяти с частотой не ниже 5200 МТ/с. Можно и выше. Более высокие частоты (например, 6000-6400 МТ/с) дадут дополнительный прирост производительности, а для задач, сопряжённых с обучением ИИ, это имеет большое значение. Правда, тот же объём для ML важнее, чем мелочи вроде таймингов, но и экономить не стоит
Что касается объема, для базовых сборок с RTX 5070 минимум – 32 ГБ (2×16 ГБ). Для систем среднего уровня с RTX 5080 оптимально 64 ГБ (2×32 ГБ). Топовые конфигурации с RTX 5090 раскроют свой потенциал со 128 ГБ (4×32 ГБ) оперативной памяти.
Конечно, DDR4 тоже может стать неплохим вариантом. Особенно, если есть цель сэкономить. Но в этом случае фактически обязательно использовать двухканальную конфигурацию. Она увеличивает пропускную способность памяти почти вдвое. Например, вместо одной планки на 32 ГБ лучше взять две по 16 ГБ.
Те же вводные справедливы и для накопителя. Для современных систем под ИИ лучше брать NVMe SSD с интерфейсом PCIe 4.0 или PCIe 5.0. Ведь, помимо пиковой скорости, твердотельники имеют ещё и на порядок меньшее время доступа. Для ML это значит, что загрузка даже тысячи мелких файлов может происходить без заметных задержек.
Если сборка бюджетная, будет достаточно NVMe PCIe 4.0 SSD объемом 1 ТБ. Они выдают довольно внушительную скорость, которая достигает 7300 МБ/с. А это, на минуточку, в 12-13 раз быстрее, чем у HDD. Кстати, жёсткий диск сборке тоже может пригодиться: для хранения редко используемых данных.
Для более продвинутых систем, ориентированных на “тяжеловесные” сценарии использования, лучше подойдут PCIe 5.0 SSD объемом от 2 ТБ. В их случае скорость чтения может достигать 12 500 МБ/с. Такие значения позитивно сказываются на эффективности работы с большими датасетами, поэтому лучше не экономить. Особенно, если и остальные компоненты, которые вы используете, соответствующего уровня.
Учитывайте, что накопителю предстоит вмещать датасеты, модели, результаты экспериментов, которые могут весить довольно много. Если работа идет с изображениями, видео или большим текстовым корпусом, терабайтным SSD можно не обойтись. Хорошим тоном будет иметь как минимум в 2-3 раза больше свободного места, чем размер крупнейшего датасета.
Оптимальная конфигурация накопителей для серьезной работы с ИИ:
Быстрый PCIe 5.0 SSD на 2 ТБ для ОС, программ и активных проектов
Дополнительный PCIe 4.0 SSD на 2-4 ТБ для хранения датасетов
Опционально: HDD на 8-12 ТБ для архивного хранения моделей и данных
Такая многоуровневая система хранения обеспечит оптимальный баланс между скоростью, объемом и стоимостью.
Материнская плата, блок питания, охлаждение и корпус
Вспомогательные компоненты зачастую влияют на стабильность и возможность модернизации сборки. Поэтому пренебрегать ими тоже не стоит.
Для высокопроизводительных сборок обычно берут платы на топовых чипсетах. Это гарантия поддержки новейших интерфейсов, качественная подсистема питания и соответствующее количество линий PCI Express.
Мощные процессоры под нагрузкой могут потреблять и 150, и 250 Вт. И плата должна справляться с этим и рассеивать тепло достаточно эффективно, чтобы не перегреваться.
Немаловажное условие – количество слотов для ОЗУ. Многие платы позволяют установить максимум 128 ГБ (или 192 ГБ для DDR5), и обычно этого оказывается более чем достаточно. Но, если нужно больше (например, 256 ГБ), то придётся рассмотреть полноценные рабочие станции на Xeon или Threadripper с 8 слотами и поддержкой RDIMM.
Блок питания – сердце системы, подающее энергию всем компонентам. В ML-нагрузках компьютер может потреблять значительные мощности длительное время. Поэтому к выбору БП надо подойти ответственно: он должен обеспечить достаточную мощность с запасом и стабильность напряжений.
Например, для связки RTX 5090 + Intel Core i9-13900K нужен блок под 1000 Вт. По классике рекомендуется выбирать модель с рейтингом не ниже 80 Plus Gold (а лучше Platinum) от известного бренда: Seasonic, Corsair, EVGA, be quiet!, Cooler Master, FSP, SilverStone и т.д. Они обеспечат стабильное напряжение даже под резкими изменениями нагрузки, лучше справляются с теплом и имеют защиту.
Что касается охлаждения, то у мощного железа оно также должно быть эффективным. Особенно при длительных нагрузках, характерных для обучения сетей. Боксовых кулеров хватает лишь для начальных CPU, да и то под кратковременную нагрузку.
Для процессоров помощнее нужен хороший охлад. При 100% загрузке длительное время температура может подняться к своим пределам. Поэтому, если охлаждение слабое, CPU начнёт троттлить. Чтобы этого не допустить, берите в сетап башенный кулер или СЖО.
Ну, и корпус. Поскольку компоненты у нас довольно серьёзные, рекомендуется брать кейс формата Mid-Tower или Full-Tower с хорошей продуваемостью. Внутри должно быть достаточно пространства для длинной и широкой видеокарты и по возможности не глухая фронтальная панель, а также минимум 2-3 вентилятора: пара на вдув спереди и один на выдув сзади.
Примеры сборок ПК для искусственного интеллекта

Теперь к сборкам.
Понятное дело, что каждый выбирает систему под себя. Но не привести несколько примеров мы всё-таки не могли.
Базовая сборка
Эта конфигурация подходит для начинающих ML-инженеров, студентов и просто интересующихся с ограниченным бюджетом.
Процессор: Intel Core i7-13700KF
Кулер: DeepCool AK620
Материнская плата: ASUS PRIME Z790-P
Оперативная память: 32 ГБ (2×16 ГБ) Kingston Fury Beast DDR5-5600
Видеокарта: GeForce RTX 5070
Накопитель: WD Black SN850X 1TB NVMe PCIe 4.0
Блок питания: Exegate EX292157RUS-S
Корпус: Zalman S3 или Deepcool MATREXX 50
Эта сборка не про большие модели, но обучить Diffusion или запустить LLaMA-7B она позволит. 16 потоков процессора хватит, чтобы обеспечить стабильную работу RTX 5070, а 32 ГБ RAM позволят держать в памяти приличный объём данных и параллельно работать с IDE/браузером.
Процессор Intel Core i7-13700KF предлагает хорошее соотношение цена/производительность. Более новые модели, хотя и доступны, не дают существенного прироста в задачах ИИ, где основная нагрузка ложится на GPU. При желании эту систему можно будет модернизировать в будущем: добавить ещё ОЗУ, поставить более мощный CPU (когда это будет иметь смысл), а в перспективе и заменить видеокарту. Правда, БП тогда, вероятно, придётся тогда поменять на что-то помощнее.
Сборка-середнячок
Перед вами рабочая станция средне-высокого уровня для профессионального использования. Она позволяет комфортно заниматься исследовательской работой, обучать сложные модели и проводить различные тесты с использованием мультимодальных архитектур.
Процессор: AMD Ryzen 9 7950X
Система охлаждения: Arctic Liquid Freezer II 360
Материнская плата: ASUS TUF Gaming X670E-PLUS WIFI
Оперативная память: 64 ГБ (2×32 ГБ) G.Skill Trident Z5 DDR5-6000 CL30
Видеокарта: GeForce RTX 5080
Накопители: Samsung 990 PRO 2TB + WD Black SN850X 2TB
Блок питания: be quiet! Straight Power 11 1000W
Корпус: Fractal Meshify 2
Здесь сбалансированы все компоненты. RTX 5080 16GB обеспечивает мощность, достаточную для серьёзных исследований, внушительный объем кэш-памяти Ryzen 9 7950X делает его идеальным для задач ИИ. А 64 ГБ RAM хватит с запасом даже при последующем апгрейде.
Топовая сборка
Это не максимально возможная конфигурация, но она довольно близка по возможностям к профессиональной станции. Она предназначена для тех, кто работает с большими моделями и сложными пайплайнами.
Процессор: Intel Core i9-13900KS или выше
Система охлаждения: NZXT Kraken Z73
Материнская плата: MSI MEG Z790 ACE
ОЗУ: 128 ГБ (4×32 ГБ) DDR5-5600 Kingston Fury Beast
Видеокарта: NVIDIA GeForce RTX 5090
Блок питания: Seasonic PRIME PX-1300
Корпус: be quiet! Dark Base Pro 900 Rev.2
RTX 5090 на 32 ГБ позволит делать всё, что угодно в рамках одной карты от обучения огромных ResNet-152 на полноразмерных изображениях до экспериментов с LLM на десятки миллиардов параметров. Ну, и 128 ГБ RAM даст возможность развернуть целиком датасет вроде LAION-400M в память или хранить гигантские промежуточные матрицы при анализе.
А можно ли иначе?
Приведенные в статье конфигурации ПК – это отправные точки, которые можно и нужно адаптировать под свои конкретные задачи и бюджет. Бюджетная сборка позволит начать работу с большинством современных моделей, средняя даст комфорт в исследовательской работе, а топовая практически не имеет ограничений в рамках одной GPU.
Помните, что технологии развиваются стремительно, и то, что сегодня кажется избыточным, завтра может стать необходимым минимумом. Поэтому, если позволяет бюджет, лучше взять систему с запасом на будущее – особенно это касается объема памяти и возможностей расширения.
Собрав правильно сбалансированную ML-станцию, вы получите инструмент, который позволит сосредоточиться на алгоритмах и данных, а не на технических ограничениях. И это, пожалуй, главное преимущество хорошо подобранного железа - оно становится незаметным, позволяя погрузиться в творческий процесс создания и обучения нейронных сетей.
DarkMitya
А есть смысл/вариант сборки для работы с несколькими картами?
Использование серверных конфигураций?