Комплектующие для ИИ сервера
Комплектующие для ИИ сервера

Я это сделал. За один день.


Часть 1: Аппаратная часть

Выбор видеокарт: RTX 2060 vs RTX 1060

Когда я начал планировать сборку, первый вопрос был: какие GPU выбрать? У меня лежали две RTX 2060 (2019) и одна RTX 1060 (2017). Интуитивно казалось, что 1060 давно устарела, но я решил проверить.

RTX 1060 — это действительно прошлый век для ML:

  • Нет поддержки NVLINK (не синхронизируются две карты)

  • CUDA Compute Capability 6.1 (старая архитектура, плохая поддержка современных операций)

  • Memory bandwidth всего 192 ГБ/сек

  • Нет Tensor Cores (ускорение операций матричного умножения)

  • На Stable Diffusion генерирует 512x512 за 60+ секунд

RTX 2060 — совершенно другой уровень:

  • CUDA Compute Capability 7.5 (хорошая поддержка современных фреймворков)

  • Встроены Tensor Cores (ускорение ML операций в 2-3 раза)

  • Memory bandwidth 360 ГБ/сек (почти в 2 раза выше)

  • Две карты синхронизируются через PCIe x16 + x4 без проблем

  • На обеих вместе генерируют 512x512 за 35-40 секунд

Вердикт: две RTX 2060 с 12GB VRAM на двух картах — это идеал для локального ML на бюджете. Они работают параллельно: одна генерирует Stable Diffusion, вторая анализирует через YOLOv8.

Материнская плата и BIOS: Gigabyte Z390-D

Выбрал Z390-D потому что она поддерживает dual-GPU без наворотов и имеет встроенную поддержку аппаратного RAID через Intel EZ RAID.

Критичные BIOS настройки:

Menu: Setting → IO Ports
  ├─ Initial Display Output: PCIEX16
  │  (основной монитор подключается к первой карте)
  └─ Internal Graphics: Disabled
     (освобождаем ресурсы для GPU)

Menu: Setting → Miscellaneous
  └─ Re-Size BAR: Enabled
     (BAR = Base Address Register Resizing)
     (даёт +5-10% производительности GPU)

Menu: Tweaker → AI Tweaker
  └─ XMP Profile 1: Enabled
     (память DDR4-3000 работает на полной частоте)

Почему это важно:

  • Если не отключить Internal Graphics, система может отдать память встроенному видеоядру вместо выделения памяти GPU

  • Re-Size BAR позволяет CPU полностью адресовать всю VRAM GPU (по умолчанию адресуется только часть)

  • XMP включает профиль XMP 1 для памяти, поднимая её с стоковых ~2133 МГц до 3000 МГц

После этих настроек обе GPU видны в nvidia-smi без конфликтов.

Дисковая система: 6 дисков с аппаратным RAID 1

Это была самая боль часть настройки — инициализация пяти дополнительных дисков и создание RAID 1 через BIOS.

Текущая конфигурация:

Диск

Тип

Объём

Назначение

Паттерн I/O

C:

SSD

1ТБ

Windows 10/11 + Python + PyTorch

Random I/O (система)

D:

HDD

2ТБ

Архив исходных изображений

Sequential read

E:

HDD

2ТБ

Архив готовых результатов

Sequential write

F:

SSD

1ТБ

Кэш ML (временные файлы)

Random I/O (кэш)

G:

SSD

1ТБ

Рабочие данные ML

Random read

Intel RAID 1

SSD

2ТБ

Зеркало (Диск 4+5 в BIOS)

Аппаратный RAID

Почему именно такая схема:

  • C: на SSD — Windows и Python нужны быстрый доступ. Если загрузка долгая, всё упирается в дисковый I/O

  • D: и E: на HDD — там гигабайты сырых изображений и результатов. Скорость доступа не критична для архива, но объём нужен

  • F: на отдельном SSD — ML операции пишут кэш параллельно. Если поставить на HDD, это создаст узкое место (IOPS). SSD обработает одновременно и операции чтения из памяти ML

  • G: на SSD — рабочие данные, нужен быстрый доступ

  • Intel RAID 1 — аппаратное зеркало двух SSD на уровне BIOS контроллера

Аппаратный RAID 1 через Intel EZ RAID:

BIOS: Main Menu → EZ RAID
├─ Создаём массив (Array 1)
├─ Выбираем два SSD (физически Диск 4 и Диск 5)
├─ Режим: RAID 1 (зеркало)
└─ Применяем

Результат:
├─ Два SSD синхронизируются на уровне контроллера
├─ Любые данные пишутся на оба одновременно
├─ Если один выходит из строя — второй продолжает работу
├─ Windows видит это как один логический том
└─ RPO (Recovery Point Objective) = 0 (нет потерь данных)

Почему RAID 1, а не другие уровни:

  • RAID 0 — быстрее, но если один диск сломается, всё потеряется

  • RAID 1 — медленнее (нужно писать дважды), зато при отказе одного диска данные остаются

  • RAID 5 — лучше (паритет), но нужно минимум 3 диска

Для критичной системы RAID 1 — компромисс между надёжностью и простотой.


Часть 2: Программная часть

Python 3.12 и экосистема

Почему Python 3.12, а не 3.13/3.14:

  • 3.12 — стабильна, все ML фреймворки полностью совместимы, используется в production

  • 3.13-3.14 — слишком новые, могут быть проблемы совместимости с PyTorch, TensorFlow и др.

  • 3.9-3.10 — уже не поддерживаются, лучше избегать для новых проектов

Установка:

# Скачиваем с https://www.python.org/downloads/
# ОБЯЗАТЕЛЬНО отмечаем "Add Python to PATH"

# Проверка
python --version
# Output: Python 3.12.x

Виртуальное окружение (venv)

Виртуальное окружение изолирует зависимости проекта от системного Python. Это критично, потому что разные проекты могут требовать разные версии одних и тех же пакетов.

# Создание рабочей папки
mkdir D:\ML
cd D:\ML

# Создание venv
python -m venv venv

# Активация (Windows)
venv\Scripts\activate

# Результат: (venv) D:\ML>

Почему это нужно:

  • Если установить пакеты глобально в Python, они загрязняют системный интерпретатор

  • Разные версии PyTorch для разных GPU или версий CUDA конфликтуют

  • venv позволяет иметь несколько проектов с несовместимыми зависимостями

PyTorch + CUDA: сердце системы

PyTorch свяжет Python с GPU через CUDA (Compute Unified Device Architecture от NVIDIA).

# Обновление pip (критично!)
python -m pip install --upgrade pip

# Установка PyTorch с CUDA 11.8
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

Этот шаг займёт 10-15 минут и скачает 2-3GB. Не прерывайте!

Что происходит:

  • PyTorch скачивает бинарики скомпилированные с поддержкой CUDA 11.8

  • Если установить просто pip install torch, по умолчанию скачается CPU-only версия (бесполезная для нас)

  • С флагом --index-url https://download.pytorch.org/whl/cu118 мы принудительно берём GPU версию

  • Скачивается ~800MB основного пакета PyTorch + зависимости

Проверка:

# Проверка доступности CUDA
python -c "import torch; print(torch.cuda.is_available())"
# Output: True

# Количество GPU
python -c "import torch; print(f'GPUs: {torch.cuda.device_count()}')"
# Output: GPUs: 2

# Информация о каждой GPU
python -c "import torch; print(torch.cuda.get_device_name(0)); print(torch.cuda.get_device_name(1))"
# Output: NVIDIA GeForce RTX 2060
#         NVIDIA GeForce RTX 2060

# Memory доступная на GPU
python -c "import torch; print(f'GPU 0: {torch.cuda.get_device_properties(0).total_memory / 1e9:.1f}GB'); print(f'GPU 1: {torch.cuda.get_device_properties(1).total_memory / 1e9:.1f}GB')"
# Output: GPU 0: 6.0GB
#         GPU 1: 6.0GB

ML библиотеки

# Основной стек
pip install diffusers transformers accelerate

# Computer Vision
pip install ultralytics opencv-python

# Утилиты
pip install pillow numpy pandas matplotlib scikit-learn

# Опционально: для работы с моделями
pip install safetensors huggingface-hub

# Этот шаг займет 5-10 минут

Что это:

  • diffusers — официальная библиотека HuggingFace для работы с diffusion моделями (Stable Diffusion)

  • transformers — HuggingFace трансформеры (LLM, BERT и др.)

  • accelerate — оптимизация обучения/инференса на нескольких GPU/TPU, автоматическое распределение нагрузки

  • ultralytics — YOLOv8 для детекции объектов, натренирована на COCO dataset

  • opencv-python — обработка изображений (чтение, запись, трансформации)

  • safetensors — безопасный формат хранения весов моделей (быстрее чем pickle)

  • huggingface-hub — скачивание моделей из HuggingFace (где хранятся Stable Diffusion, LLM и т.д.)


Часть 3: Первый тест системы

Создание тестового скрипта

import torch
from diffusers import StableDiffusionPipeline
from ultralytics import YOLO
import time
import cv2
import numpy as np

print("="*60)
print("TESTING DUAL GPU ML SYSTEM")
print("="*60)

# === ДИАГНОСТИКА ===
print(f"\n✓ CUDA Available: {torch.cuda.is_available()}")
print(f"✓ GPU Count: {torch.cuda.device_count()}")

for i in range(torch.cuda.device_count()):
    props = torch.cuda.get_device_properties(i)
    total_memory_gb = props.total_memory / 1e9
    print(f"  GPU {i}: {props.name}, {total_memory_gb:.1f}GB VRAM")

# === ТЕСТ GPU #0: STABLE DIFFUSION ===
print("\n[GPU 0] Loading Stable Diffusion v1.5...")
start = time.time()

pipe = StableDiffusionPipeline.from_pretrained(
    "runwayml/stable-diffusion-v1-5",
    torch_dtype=torch.float16,
    safety_checker=None  # отключаем проверку безопасности для ускорения
)
pipe = pipe.to("cuda:0")

load_time = time.time() - start
print(f"✓ Model loaded in {load_time:.1f}s")

# Генерация изображения
print("[GPU 0] Generating image (512x512)...")
start = time.time()

image = pipe(
    prompt="a beautiful laser engraving design with geometric patterns",
    height=512,
    width=512,
    num_inference_steps=20,
    guidance_scale=7.5
).images[0]

gen_time = time.time() - start
image.save("D:/test_gpu0.png")
print(f"✓ Generated in {gen_time:.1f}s")
print(f"  → Speed: {512*512/gen_time:.0f} pixels/sec")

# === ТЕСТ GPU #1: YOLOV8 ===
print("\n[GPU 1] Loading YOLOv8 nano...")
start = time.time()

model = YOLO("yolov8n.pt")
# Явно указываем device
model.to("cuda:1")

yolo_load_time = time.time() - start
print(f"✓ Model loaded in {yolo_load_time:.1f}s")

# Тест детекции
print("[GPU 1] Running inference...")
test_frame = np.random.randint(0, 255, (640, 480, 3), dtype=np.uint8)

start = time.time()
results = model(test_frame, device="cuda:1", verbose=False)
detect_time = time.time() - start

print(f"✓ Detection in {detect_time:.3f}s")
print(f"  → Throughput: {1/detect_time:.1f} FPS")

# === РЕЗУЛЬТАТЫ ===
print("\n" + "="*60)
print("PERFORMANCE SUMMARY")
print("="*60)
print(f"Stable Diffusion (GPU 0):")
print(f"  Load time:     {load_time:.1f}s")
print(f"  Generation:    {gen_time:.1f}s for 512x512")
print(f"  Throughput:    {512*512/gen_time:.0f} px/s")
print(f"\nYOLOv8 (GPU 1):")
print(f"  Load time:     {yolo_load_time:.1f}s")
print(f"  Inference:     {detect_time*1000:.1f}ms per frame")
print(f"  Throughput:    {1/detect_time:.1f} FPS")
print("\n✓ SYSTEM READY FOR PRODUCTION")
print("="*60)

Запуск теста

# В окне CMD с активированным venv
python test_system.py

Ожидаемый результат:

============================================================
TESTING DUAL GPU ML SYSTEM
============================================================

✓ CUDA Available: True
✓ GPU Count: 2
  GPU 0: NVIDIA GeForce RTX 2060, 6.0GB VRAM
  GPU 1: NVIDIA GeForce RTX 2060, 6.0GB VRAM

[GPU 0] Loading Stable Diffusion v1.5...
✓ Model loaded in 12.5s

[GPU 0] Generating image (512x512)...
✓ Generated in 38.2s
  → Speed: 6862 pixels/sec

[GPU 1] Loading YOLOv8 nano...
✓ Model loaded in 2.1s

[GPU 1] Running inference...
✓ Detection in 0.045s
  → Throughput: 22.2 FPS

============================================================
PERFORMANCE SUMMARY
============================================================
Stable Diffusion (GPU 0):
  Load time:     12.5s
  Generation:    38.2s for 512x512
  Throughput:    6862 px/s

YOLOv8 (GPU 1):
  Load time:     2.1s
  Inference:     45.0ms per frame
  Throughput:    22.2 FPS

✓ SYSTEM READY FOR PRODUCTION
============================================================

Что это значит:

  • Обе GPU работают без конфликтов параллельно

  • Stable Diffusion генерирует адекватную скорость (38 сек — это нормально для RTX 2060)

  • YOLOv8 готов к real-time обработке видео (22 FPS достаточно для анализа качества)

  • Обе модели загружены в VRAM одновременно (12+3 = 15GB теоретически, но используется ~11GB из 12 доступных)

  • Нет ошибок CUDA, конфликтов памяти или синхронизации

Сравнение: локальное решение vs облако

Метрика

RTX 2060 (локально)

ChatGPT API

Google Cloud AI

Генерация 512x512

38 сек

20-30 сек

~15 сек

Стоимость 1000 операций

₽0 (один раз)

₽50-100

₽30-50

Конфиденциальность

100% (на машине)

0% (облако Openai)

0% (облако Google)

Latency сети

0мс

200-500ms

200-500ms

Работает offline

Да

Нет

Нет

Полный контроль

Да

Нет

Нет

Масштабируемость

Одна машина

Неограниченно

Неограниченно

Гарантия 99.9% uptime

Нет

Да

Да

Для ACMER P3 локальное решение — идеально:

  • Нет задержек из-за интернета (критично для real-time обработки)

  • Полный контроль над процессом генерации (можно встроить в workflow)

  • Можно встроить в автоматизацию без API лимитов

  • Бесплатно после первоначальной инвестиции


Заключение

За ₽0 и несколько часов работы я собрал production-grade ML сервер, который:

✅ Генерирует дизайны через Stable Diffusion (38 сек/изображение)
✅ Анализирует изображения через YOLOv8 в real-time (22 FPS)
✅ Работает полностью локально (без облака, без API лимитов)
✅ Использует аппаратный RAID 1 для надёжности системы
✅ Готов к интеграции с ACMER P3 для автоматизированной лазерной гравировки
✅ Масштабируется для других ML задач (LLM, компьютерное зрение и т.д.)

Стоимость: ₽0 (всё из хлама)
Время сборки: 1 день
Потенциал: неограниченный

Следующая часть: интеграция с ACMER P3 и первая гравировка.

Кто ещё собирал ML сервер на б/у железе? Какие трудности встретили? Какие модели планируете запускать? Пишите в комментарии!

Подпишитесь на мой Telegram канал!

@gromov_tech_insights

Там я публикую:

  • ? Еженедельные обновления про AI и ML

  • ? Практические гайды по настройке железа и ПО

  • ? Инсайты про нейротехнологии и локальные LLM

  • ? Промежуточные результаты этого проекта и интеграцию с ACMER P3

  • ? Ранний доступ к новым статьям и экспериментам

В канале уже обсуждается:

  • Часть 2: Python 3.12 + PyTorch установка (детальный гайд)

  • Оптимизация Stable Diffusion для максимальной скорости

  • Подключение лазера ACMER P3 к ML pipeline

  • Обзор локальных LLM для различных задач

Присоединяйтесь, чтобы не пропустить следующую часть про интеграцию лазера!


Используемые технологии:

  • PyTorch 2.x + CUDA 11.8

  • Stable Diffusion v1.5 (HuggingFace)

  • YOLOv8 (Ultralytics)

  • Python 3.12

  • Gigabyte Z390-D с Intel EZ RAID

  • 2x NVIDIA RTX 2060 + 32GB DDR4-3000

Комментарии (23)


  1. Rive
    31.10.2025 14:28

    del


  1. Rezzet
    31.10.2025 14:28

    А так у меня то же есть такой сервер, даже круче и то же за 0 рублей, я просто поставил ComfyUI и моя RTX 4090 отлично работает на генерацию картинок и обучение LoRa с Flux-Dev, процессор Ryzen 5950х отлично справляется с нагрузкой, а 128Gb памяти позволяют держать крупную модель в памяти и продолжать работать с другими задачами такими как компиляция, всем рекомендую такой продукшен реди воркстейшен за ноль рублей. Ах да забыл что у меня еще два SSD формата M2( на 1 ТБ и 2ТБ), а так же 16ТБ жесткий диск для постоянного хранения файлов. И главное все за нуль рублей, и 10 минут работы, именно столько устанавливается ComfyUI на моем гигабитном интернете(а че бы еще этим не похвастаться). Забыл добавить что это еще мощный продукт реди воркстейшен интерпрайз грейд левел для работы с LLM, и главное за нуль рублей, ведь установка LMStudio и ollama ничего не стоит.


    1. Andrey_Gromov Автор
      31.10.2025 14:28

      С ollama я тоже перед этим развлекался, но это немного другое


      1. Rezzet
        31.10.2025 14:28

        Вы не поняли, что иронизирую над вашей статьей потому что ее ценность около нулевая и если ее сократить, то можно уложится примерно в одну фразу "я взял неплохое железо пятилетней давности и развернул на нем немного софта из репозитория".


        1. Andrey_Gromov Автор
          31.10.2025 14:28

          А Вы взяли на себя смелость и вынесли суждение за всю аудиторию о нулевой ценности материала или это лично Ваше оценочное суждение? Если персонально Ваше, так зачем читаете и пишите?


          1. Moog_Prodigy
            31.10.2025 14:28

            Да он прав, ценность статьи и правда нулевая. 512х512 за 40 секунд говорите? Нет, ну если железо скажем так, нашли на помойке - то вполне неплохо. Но ведь это не так ведь? Когда-то вы его купили, возможно даже за оверпрайс из-за майнеров. Сейчас для нейросеток это почитай, калькулятор. Запустится и даже будет работать, но смысла мало. Есть 3060, которая 1024х1024 за 15 сек делает, гоняет LLM, да у ней нет NVLINK, но его почти нигде нет. Но ее можно купить не из под майнеров. Есть 3090, тоже очень хорошая но в три раза дороже. Есть 4090, дороже уже в 10 раз. И так далее. А да, я забыл про материнку, которая может быть хоть и китайской но стоить вполне себе нехило.

            И да, это все совсем не 0 рублей, а иногда 10 ЗП если такой комп собирать с нуля - памяти навалить, потоков у проца...блок питания этого дела всего.... Хайпуете, короче. И говорите неправду.


            1. Andrey_Gromov Автор
              31.10.2025 14:28

              Ну так основной то смысл не в генерации, а в управлении Acmer P3


    1. VnNort
      31.10.2025 14:28

      128gb - 4 планки?


      1. Rezzet
        31.10.2025 14:28

        Да, по 32Гб. Сам был удивлен, но на АМ4 платах, даже на старых чипсетах с новым процессором лимит памяти становится больше чем заявлено в ее спеках и когда появились DDR4 планки по 32Гб, оказалось что их можно поставить в мать на х470 и все завелось. Наверно х470 не самый старый, но у материнке на сайте производителе максимальный размер памяти указан 64Гб.


    1. nukler
      31.10.2025 14:28

      За 100 рублей видимо будет уже H200!
      Как то так наверное да


  1. scientificus-emigrans
    31.10.2025 14:28

    RTX 1060 — это действительно прошлый век для ML:

    • Нет поддержки NVLINK (не синхронизируются две карты)

    Было бы смешно, если бы не было так грустно. У Nvidia даже современная флагманская 5090 за 2000 Евро идет без NVLINK


    1. Moog_Prodigy
      31.10.2025 14:28

      Они спецом убрали нвлинк в бытовых картах, типа "покупайте h100". Немного напоминает ситуацию из 2000 про Sound Blaster Live! - карта вышла настолько крута, что использовалась даже на профессиональных студиях, а "проф" карточки в продажах сильно просели. Ну и все, перестали ее выпускать. С такими возможностями за такую цену ломается маркетинг, у нвидии похожее, они вроде даже и не скрывают это.


    1. eigrad
      31.10.2025 14:28

      Тоже на этом месте остановился, чтобы пожелать автору использовать llm при написании статей как-нибудь по-другому.


  1. denis_iii
    31.10.2025 14:28

    Лучше не отключать встроенный iGPU в процессоре, а наоборот – сделать его устройством вывода по-умолчанию в биос. Windows будет отъедать память на основном видеоадаптере под свои нужды, независимо подключаете вы монитор или нет, отнимая ее у моделей. А контролировать запуск моделей на определенных GPU можно - или через переменные среды или через параметры запуска.
    Также стоит сказать, что возможна работа в WSL2 и Linux через специальные драйверы предоставляемые Nvidia.


  1. Bardakan
    31.10.2025 14:28

    а можно аналогичную статью, только для текстовых моделей?


    1. mmMike
      31.10.2025 14:28

      А какая разница, если все заработало на уровне драйверов?

      Автор правда упустил принципиальный момент, не указав какая OS.
      Но судя по косвенным признакам "" (cd D:\ML) это Windows. И драйвера встали "сами собой". Под linux пришлось бы возможно повозится (а может и нет, для столь старых карт).

      А если Windows, то просто ставится LLM studio. И играйтесь в ее UI интерфейсе с любыми текстовыми моделями.
      можно и на python загружать модели, но если просто поиграться.. то какая разница то.

      Да и для графики, генерить изображения используя чисты питон.. Ну мазохизм (хотя и дает более глубокое понимание что и как). Лучше использовать comfy ui. Под капотом те же цепочки вызовов что и руками можно сделать. Но более наглядно и проще экспериментировать.

      Но 512x512 за 38 сек.. Хотя нахаляву (условно). Я даже не знаю..


      1. Bardakan
        31.10.2025 14:28

        я пробовал разные варианты, но у меня то ли компьютер слабый для ИИ (встроенная видеокарта), то ли я не те модели использую - результаты хуже, чем у бесплатной версии perplexity


    1. Ivanesons37
      31.10.2025 14:28

      Если ПК не очень мощный, то можно попробовать koboldcpp — он есть в разных вариациях под разное железо, на гитхабе у автора всё расписано, что под какое лучше. У меня лично i5-13400F, 64 ГБ ОЗУ, RTX3050 8 ГБ, мне этого хватает для комфортного использования KoboldCPP с Q5K_M-квантованными (другие типы квантования тоже будут работать, но либо скорость, либо качество будут хуже) GGUF-моделями размеров 8B, 9B, 13B с Huggingface. Если нужны более крупные и серьёзные модели, то уже нужна видеокарта с куда более объёмной видеопамятью. Не, можно и в ОЗУ, но быстродействие будет ужасным, проверено на 20B-моделях.


      1. Shannon
        31.10.2025 14:28

        У меня лично i5-13400F, 64 ГБ ОЗУ, RTX3050 8 ГБ, мне этого хватает для комфортного использования GGUF-моделей размером 8B, 9B, 13B
        Если нужны более крупные и серьёзные модели, то уже нужна видеокарта с куда более объёмной видеопамятью. Не, можно и в ОЗУ, но быстродействие будет ужасным, проверено на 20B-моделях.

        На 20B да, не получится, а вот 120B самое оно. У вас хватает RAM и VRAM, чтобы запускать GPT-OSS-120B со скоростью выше 10 t/s.

        Речь конечно про разницу между Dense и MoE моделями, и про специальный способ запуска для MoE. Вот тут подробнее: Ускоряем GPT-OSS-120B на домашнем ПК. Вам нужна RAM, а не VRAM. Новый параметр -cmoe для ускорения больших MoE LLM

        Для примера запуск GPT-OSS-120B на Ryzen 5600, 64 Гб DDR4 3600 и AMD RX6600 8 Гб. Скорость генерации 13 t/s, и под контекст и под систему остается память. Видеокарта примерно того же уровня как 3050, только AMD работает через Vulkan, что медленнее чем CUDA.

        Команда запуска:
        .\llama-server.exe -m "D:\models\gpt-oss-120b-mxfp4-00001-of-00003.gguf" -ngl 99 -ncmoe 34 -c 16384 --jinja

        GPT-OSS-120B запущена на AMD RX 6600, 13 t/s
        GPT-OSS-120B запущена на AMD RX 6600, 13 t/s


        1. Andrey_Gromov Автор
          31.10.2025 14:28

          Генерация у меня это не основная задача машины. Далее я буду прикручивать YOLOv8 для работы с Acmer P3. Поэтому часть ресурсов я зарезервировал под YOLOv8.


  1. falldown
    31.10.2025 14:28

    На моменте "Почему это важно" перелистнул в конец и влепил честный минус за очередной чатГПТ-шный текст.

    Как же надоело читать этот один и тот же щеняче-восторженно-серьезный стиль текста у разных авторов, которые рассуждают о нейросетях, но не могут даже банальную личность у llm настроить, чтобы она хоть как-то отличалась от дефолтного "ребенка-умницы-эрудита".


  1. holodoz
    31.10.2025 14:28

    Здоровые зубы за 0 минут в день! Вот у меня здоровые зубы, посмотрите на мои здоровые зубы. Зубы мои зубки. Еду могу жевать, ничего не болит. Ноль минут потратил на зубы. Подпишитесь на мой телеграм


  1. eigrad
    31.10.2025 14:28

    На эпиках/ксеонах и 4x3090 действительно можно собрать что-то стоящее, если про экономию. Нет смысла мучаться с (недо)описанным в статье железом.