NVIDIA раздаёт бесплатные API-ключи к 100+ моделям — DeepSeek R1, Llama, Mistral, GLM, Kimi и десятки других. Регистрация за 2 минуты, OpenAI-совместимый эндпоинт, без привязки карты.
Звучит как маркетинговый трюк, и отчасти это он — NVIDIA хочет посадить разработчиков на свою инфраструктуру. Но бесплатный tier реальный, и для прототипирования и пет-проектов его хватает. Я пользуюсь уже два месяца — расскажу, что получается, а где подвох.
Что конкретно дают
Платформа — build.nvidia.com. Регистрируешься в NVIDIA Developer Program, подтверждаешь номер телефона, генерируешь API-ключ. Всё.
Что доступно бесплатно:
100+ моделей — LLM, vision, speech, embedding, генерация изображений
OpenAI-совместимый API —
/v1/chat/completions, тот же формат, что и у OpenAI. Меняешьbase_urlиmodel— всё работает40 запросов в минуту — лимит на бесплатном tier
Без привязки карты — только email + телефон
Ключевые модели на апрель 2026:
DeepSeek R1 (671B) — reasoning, пошаговое рассуждение
Llama 3.3 70B — Meta, general purpose
Nemotron — собственная модель NVIDIA, оптимизированная для агентов
Kimi K2.5 — Moonshot AI, сильная в кодинге
GLM-5 — Z.ai, 744B параметров
Mistral Large — Mistral AI
gpt-oss-120b — открытая модель OpenAI, оптимизированная NVIDIA для Blackwell
Плюс модели для speech (Riva), генерации изображений, embedding/retrieval, и даже protein folding (BioNeMo).
Как подключить за 5 минут
Python
from openai import OpenAI client = OpenAI( api_key="nvapi-YOUR_KEY", base_url="https://integrate.api.nvidia.com/v1" ) response = client.chat.completions.create( model="deepseek-ai/deepseek-r1", messages=[ {"role": "user", "content": "Объясни, как работает MoE"} ] ) print(response.choices[0].message.content)
JavaScript
import OpenAI from 'openai'; const client = new OpenAI({ apiKey: "nvapi-YOUR_KEY", baseURL: "https://integrate.api.nvidia.com/v1" }); const response = await client.chat.completions.create({ model: "meta/llama-3.3-70b-instruct", messages: [ { role: "user", content: "Напиши React-компонент для формы логина" } ] });
Обратите внимание: base_url один для всех моделей — https://integrate.api.nvidia.com/v1. Модель выбирается через поле model. Переключение между DeepSeek и Llama — одна строчка.
Подключение к существующим инструментам
Раз API OpenAI-совместимый, он работает с любым инструментом, который поддерживает кастомный base_url:
Claude Code / OpenClaw:
OPENAI_BASE_URL=https://integrate.api.nvidia.com/v1 OPENAI_API_KEY=nvapi-YOUR_KEY OPENAI_MODEL=deepseek-ai/deepseek-r1
Cursor: Settings → Models → Custom API → указать base_url и ключ.
Любой OpenAI-совместимый клиент: Тот же принцип — меняете base_url и api_key.
Лимиты: где подвох
40 запросов в минуту. Для прототипирования — достаточно. Для продакшена с реальными пользователями — мало. Если у вас бот, который обрабатывает 10 сообщений в минуту — хватит. Если 100 — нет.
Кредиты. Бесплатный tier работает на кредитах. Крупные модели (DeepSeek R1 671B, GLM-5 744B) съедают больше кредитов за запрос. Мелкие (Llama 8B, Mistral 7B) — значительно меньше. Точные цифры NVIDIA не публикует, но по опыту: на DeepSeek R1 кредиты заканчиваются в 3-4 раза быстрее, чем на Llama 70B.
Не для продакшена. NVIDIA явно позиционирует бесплатный tier для разработки и тестирования. Для продакшена — платный NVIDIA AI Enterprise (90 дней бесплатно, потом по подписке).
Телефон обязателен. Без подтверждения номера API-ключ не сгенерируется. Российские номера работают.
Зачем NVIDIA это делает
Стратегия прозрачная: бесплатно для разработчиков → привыкаешь к NIM → разворачиваешь на своих серверах с NVIDIA GPU → покупаешь их железо и подписку AI Enterprise.
NIM (NVIDIA Inference Microservices) — это контейнеры с оптимизированными под NVIDIA GPU моделями. На бесплатном tier вы используете NIM в облаке NVIDIA. Когда нужен продакшен — скачиваете контейнер и запускаете на своём сервере с NVIDIA GPU. Оптимизации под TensorRT дают ~2x прирост throughput по сравнению с ванильным деплоем.
Сравнение с альтернативами
Параметр |
NVIDIA NIM |
OpenRouter |
DeepSeek API |
Groq |
|---|---|---|---|---|
Бесплатный tier |
Да (кредиты) |
Нет (оплата) |
Да (ограничен) |
Да (лимитирован) |
Моделей |
100+ |
300+ |
2 (V3, R1) |
~10 |
API-формат |
OpenAI |
OpenAI |
OpenAI |
OpenAI |
Rate limit |
40 req/min |
По оплате |
60 req/min |
30 req/min |
Для продакшена |
Нет (free tier) |
Да |
Да |
Ограниченно |
NVIDIA выигрывает по количеству бесплатных моделей. OpenRouter — по количеству моделей вообще и по продакшен-готовности. DeepSeek API — если нужна именно DeepSeek. Groq — по скорости инференса.
Для чего я использую
Прототипирование. Прежде чем платить за API, тестирую идею на бесплатных моделях NVIDIA. Если работает — переключаюсь на платный провайдер.
Сравнение моделей. Один ключ, один эндпоинт — меняю только model. За час можно прогнать один и тот же промпт через 10 моделей и сравнить.
Пет-проекты. Telegram-бот, который отвечает на 50-100 сообщений в день — вписывается в лимит. Бесплатно и стабильно.
OpenClaw / Claude Code. Подключаю как провайдер — экономлю на API-ключах для некритичных задач.
Как получить ключ
Зайдите на build.nvidia.com
Зарегистрируйтесь (email + пароль)
Подтвердите номер телефона
Перейдите в Settings → API Keys
Сгенерируйте ключ (начинается с
nvapi-)Подставьте в код:
base_url="https://integrate.api.nvidia.com/v1"
Пользуетесь бесплатными API для LLM? Какой провайдер используете для прототипирования — NVIDIA, Groq, DeepSeek напрямую? И хватает ли 40 запросов в минуту для ваших задач?
Комментарии (15)

VirtualVoid
14.04.2026 21:06Российские номера работают
Хотел попробовать, но к сожалению, в списке стран я не нашел РФ.
Скрытый текст

Triton5
У Nvidia 1000 бесплатных кредитов на аккаунт, это вообще ни о чём.
"Бесплатный tier OpenRouter Нет (оплата) " - да шо вы говорите?!
jetnet
Почему у вас работает, а у меня нет:
P.S. Qwen3.6 Plus уже давно не бесплатная.
nlaik Автор
есть локальные модели
Noizefan
gqwen/qwen3.6-plus-previewпотому что это реально не валид модел айди, а Тритон потянул чтение ошибок в терминале))
Единственный минус опен роутера - то что никогда не знаешь когда бесплатную модель отключат. С другой стороны - это проблема не опен роутера, а провайдеров. В остальном это отличное место как для прода так и для дева.
jetnet
нда. спать пора… вот как надо было:
Почему на скрине у коммент-стартера эта модель работает - that is the queston!
Noizefan
да может у него скрин полугодовой давности. но вообще у всех бывает, и лучше при каждой попытке что то закодить - смотреть на опенроутере, что реально сейчас бесплатно. а есть допустим тот же groq необоснованно тсом статьи загаженная - там gpt-oss хоть и мало токенов даёт в минуту - лимиты на запросы куда выше.
Triton5
Qwen 3.6 полугодовой давности:)
Noizefan
да я за китайскими поделиями не шибко слежу) хотя квен из них один из лучших конечно
я за опенроутер плачу, так что подсказать не смогу
jetnet
Таки скрин - старый?
Triton5
На OpenRouter китайцы часто выкладывают модели перед коммерческим запуском.
Мне очень нравилась (когда была бесплатной) Step 3.5 Flash, а Qwen 3.6 это вообще пушка:)
Ещё там бывают бесплатные анонимные модели при "обкатке", сейчас вот например там некая Elephant, фиг знает, кто это:)
Вообще, не все модели на OpenRouter которые помечены как free, по факту работоспособны. Наиболее доступные модели использует сам OpenRouter в своём роутере бесплатных моделей openrouter/free https://openrouter.ai/openrouter/free , сейчас там остались сплошь модели Nemotron, и это печально, ибо они не очень сильны:)
Но если качество ответов это не главное, лишь бы было бесплатно, то можно просто вписать точку доступа openrouter/free.
Количество бесплатных запросов на OpenRouter припополнеии на 10 баксов - 1000 запросов в день, а без пополнения - 50. Пополнить можно через крипту или посредников типа plati или ggsel (там при пополнении OpenRouter они не очень сильно борзеют).
Ещё интересный вариант - Mistral. В обшем, я наверное тоже напишу статью на тему халявы))
den_rad
Спасибо за идею с OpenRouter/Mistral, сделал себе скрипт для cli запросов в Mistral