Я устроил вебинар и пригласил Марата Рахимова — директора по ИИ и цифровой трансформации в MR Group (до этого Сбер, МТС, Data Monsters). Мы обсудили, как компаниям подходить к выбору «железа» под ИИ: покупать своё или брать в аренду, какие карты нужны и что с этим всем делать.
О чём говорили
Прошлись по простому плану:
Какие нужны пререквизиты внутри компании, чтобы вообще думать про on-prem.
Аренда vs покупка «железа» и где экономика складывается.
Как выбирать GPU под реальные задачи.
Платформы и поставщики.
Пререквизиты: без этого никак
— Опыт владения своей ИТ-инфраструктурой.
— ЦОД или стойка, куда всё поставить.
— Команда с MLOps/DevOps-скиллами.
— Реальная потребность в прод-сервисах.

Аренда или покупка
Аренда одной A100 80GB ≈ 225 тыс ₽/мес.
За год — 2,7 млн ₽.
За 5 лет — 13,5 млн ₽.
Покупка такой карты ≈ 1,2 млн ₽.
Окупается за 5 месяцев, если нагрузка есть.





Как выбирать GPU
Инференс или обучение.
Сколько памяти нужно под контекст.
Нужно ли NVLink между картами.
Потянет ли сеть и NVMe.
Оптимальный вариант для MR Group: NVIDIA H100 PCIe 80 GB. Подходит и для прод-инференса (ассистенты, RAG), и для дообучений. Даёт запас по памяти и скорости, NVLink решает вопрос связности.


Платформы и поставщики
Глобальные: Dell, Lenovo, Supermicro.
Российские: Yadro.
Китайские: Kaytus, Gooxie.
Критично учитывать: питание (3 кВт+), охлаждение, реальные PCIe Gen5 линии, поддержка NVLink. Вендор должен подтвердить, что сервер тянет H100.




Итоги
On-prem выгоден, если есть продовые сервисы и нагрузка.
GPU отбиваются за полгода.
H100 сейчас «новый стандарт», A100 всё ещё в строю.
Китайские и российские платформы уже можно рассматривать наравне с глобальными.
Ссылки
https://t.me/r77_ai/265 — тут ссылка на презентацию и наш канал
А вот сам вебинар:
Комментарии (2)
Ivano_Digital
11.09.2025 14:30Больше интересно что за ИИ Марат внедрял в Застройщике. Хотелось бы видеть кейсы.
NeriaLab
Всё таки как хорошо иметь LBS/CESP систему, она не требует таких расходов :) Только расходы на большого объема SSD и HDD, раз в 2-3 года