NVIDIA раздаёт бесплатные API-ключи к 100+ моделям — DeepSeek R1, Llama, Mistral, GLM, Kimi и десятки других. Регистрация за 2 минуты, OpenAI-совместимый эндпоинт, без привязки карты.

Звучит как маркетинговый трюк, и отчасти это он — NVIDIA хочет посадить разработчиков на свою инфраструктуру. Но бесплатный tier реальный, и для прототипирования и пет-проектов его хватает. Я пользуюсь уже два месяца — расскажу, что получается, а где подвох.

Что конкретно дают

Платформа — build.nvidia.com. Регистрируешься в NVIDIA Developer Program, подтверждаешь номер телефона, генерируешь API-ключ. Всё.

Что доступно бесплатно:

  • 100+ моделей — LLM, vision, speech, embedding, генерация изображений

  • OpenAI-совместимый API/v1/chat/completions, тот же формат, что и у OpenAI. Меняешь base_url и model — всё работает

  • 40 запросов в минуту — лимит на бесплатном tier

  • Без привязки карты — только email + телефон

Ключевые модели на апрель 2026:

  • DeepSeek R1 (671B) — reasoning, пошаговое рассуждение

  • Llama 3.3 70B — Meta, general purpose

  • Nemotron — собственная модель NVIDIA, оптимизированная для агентов

  • Kimi K2.5 — Moonshot AI, сильная в кодинге

  • GLM-5 — Z.ai, 744B параметров

  • Mistral Large — Mistral AI

  • gpt-oss-120b — открытая модель OpenAI, оптимизированная NVIDIA для Blackwell

Плюс модели для speech (Riva), генерации изображений, embedding/retrieval, и даже protein folding (BioNeMo).

Как подключить за 5 минут

Python

from openai import OpenAI

client = OpenAI(
    api_key="nvapi-YOUR_KEY",
    base_url="https://integrate.api.nvidia.com/v1"
)

response = client.chat.completions.create(
    model="deepseek-ai/deepseek-r1",
    messages=[
        {"role": "user", "content": "Объясни, как работает MoE"}
    ]
)

print(response.choices[0].message.content)

JavaScript

import OpenAI from 'openai';

const client = new OpenAI({
    apiKey: "nvapi-YOUR_KEY",
    baseURL: "https://integrate.api.nvidia.com/v1"
});

const response = await client.chat.completions.create({
    model: "meta/llama-3.3-70b-instruct",
    messages: [
        { role: "user", content: "Напиши React-компонент для формы логина" }
    ]
});

Обратите внимание: base_url один для всех моделей — https://integrate.api.nvidia.com/v1. Модель выбирается через поле model. Переключение между DeepSeek и Llama — одна строчка.

Подключение к существующим инструментам

Раз API OpenAI-совместимый, он работает с любым инструментом, который поддерживает кастомный base_url:

Claude Code / OpenClaw:

OPENAI_BASE_URL=https://integrate.api.nvidia.com/v1
OPENAI_API_KEY=nvapi-YOUR_KEY
OPENAI_MODEL=deepseek-ai/deepseek-r1

Cursor: Settings → Models → Custom API → указать base_url и ключ.

Любой OpenAI-совместимый клиент: Тот же принцип — меняете base_url и api_key.

Лимиты: где подвох

40 запросов в минуту. Для прототипирования — достаточно. Для продакшена с реальными пользователями — мало. Если у вас бот, который обрабатывает 10 сообщений в минуту — хватит. Если 100 — нет.

Кредиты. Бесплатный tier работает на кредитах. Крупные модели (DeepSeek R1 671B, GLM-5 744B) съедают больше кредитов за запрос. Мелкие (Llama 8B, Mistral 7B) — значительно меньше. Точные цифры NVIDIA не публикует, но по опыту: на DeepSeek R1 кредиты заканчиваются в 3-4 раза быстрее, чем на Llama 70B.

Не для продакшена. NVIDIA явно позиционирует бесплатный tier для разработки и тестирования. Для продакшена — платный NVIDIA AI Enterprise (90 дней бесплатно, потом по подписке).

Телефон обязателен. Без подтверждения номера API-ключ не сгенерируется. Российские номера работают.

Зачем NVIDIA это делает

Стратегия прозрачная: бесплатно для разработчиков → привыкаешь к NIM → разворачиваешь на своих серверах с NVIDIA GPU → покупаешь их железо и подписку AI Enterprise.

NIM (NVIDIA Inference Microservices) — это контейнеры с оптимизированными под NVIDIA GPU моделями. На бесплатном tier вы используете NIM в облаке NVIDIA. Когда нужен продакшен — скачиваете контейнер и запускаете на своём сервере с NVIDIA GPU. Оптимизации под TensorRT дают ~2x прирост throughput по сравнению с ванильным деплоем.

Сравнение с альтернативами

Параметр

NVIDIA NIM

OpenRouter

DeepSeek API

Groq

Бесплатный tier

Да (кредиты)

Нет (оплата)

Да (ограничен)

Да (лимитирован)

Моделей

100+

300+

2 (V3, R1)

~10

API-формат

OpenAI

OpenAI

OpenAI

OpenAI

Rate limit

40 req/min

По оплате

60 req/min

30 req/min

Для продакшена

Нет (free tier)

Да

Да

Ограниченно

NVIDIA выигрывает по количеству бесплатных моделей. OpenRouter — по количеству моделей вообще и по продакшен-готовности. DeepSeek API — если нужна именно DeepSeek. Groq — по скорости инференса.

Для чего я использую

Прототипирование. Прежде чем платить за API, тестирую идею на бесплатных моделях NVIDIA. Если работает — переключаюсь на платный провайдер.

Сравнение моделей. Один ключ, один эндпоинт — меняю только model. За час можно прогнать один и тот же промпт через 10 моделей и сравнить.

Пет-проекты. Telegram-бот, который отвечает на 50-100 сообщений в день — вписывается в лимит. Бесплатно и стабильно.

OpenClaw / Claude Code. Подключаю как провайдер — экономлю на API-ключах для некритичных задач.

Как получить ключ

  1. Зайдите на build.nvidia.com

  2. Зарегистрируйтесь (email + пароль)

  3. Подтвердите номер телефона

  4. Перейдите в Settings → API Keys

  5. Сгенерируйте ключ (начинается с nvapi-)

  6. Подставьте в код: base_url="https://integrate.api.nvidia.com/v1"


Пользуетесь бесплатными API для LLM? Какой провайдер используете для прототипирования — NVIDIA, Groq, DeepSeek напрямую? И хватает ли 40 запросов в минуту для ваших задач?

Комментарии (15)


  1. Triton5
    14.04.2026 21:06

    У Nvidia 1000 бесплатных кредитов на аккаунт, это вообще ни о чём.

    "Бесплатный tier OpenRouter Нет (оплата) " - да шо вы говорите?!


    1. jetnet
      14.04.2026 21:06

      Почему у вас работает, а у меня нет:

      {
        "error": {
          "message": "gqwen/qwen3.6-plus-preview is not a valid model ID",
          "code": 400
      

      P.S. Qwen3.6 Plus уже давно не бесплатная.


      1. nlaik Автор
        14.04.2026 21:06

        есть локальные модели


      1. Noizefan
        14.04.2026 21:06

        gqwen/qwen3.6-plus-preview

        потому что это реально не валид модел айди, а Тритон потянул чтение ошибок в терминале))

        Единственный минус опен роутера - то что никогда не знаешь когда бесплатную модель отключат. С другой стороны - это проблема не опен роутера, а провайдеров. В остальном это отличное место как для прода так и для дева.


        1. jetnet
          14.04.2026 21:06

          нда. спать пора… вот как надо было:

          {
            "error": {
              "message": "No endpoints found for qwen/qwen3.6-plus-preview.",
              "code": 404
          

          Почему на скрине у коммент-стартера эта модель работает - that is the queston!


          1. Noizefan
            14.04.2026 21:06

            да может у него скрин полугодовой давности. но вообще у всех бывает, и лучше при каждой попытке что то закодить - смотреть на опенроутере, что реально сейчас бесплатно. а есть допустим тот же groq необоснованно тсом статьи загаженная - там gpt-oss хоть и мало токенов даёт в минуту - лимиты на запросы куда выше.


            1. Triton5
              14.04.2026 21:06

              Qwen 3.6 полугодовой давности:)


              1. Noizefan
                14.04.2026 21:06

                да я за китайскими поделиями не шибко слежу) хотя квен из них один из лучших конечно

                я за опенроутер плачу, так что подсказать не смогу


              1. jetnet
                14.04.2026 21:06

                Таки скрин - старый?


      1. Triton5
        14.04.2026 21:06

        На OpenRouter китайцы часто выкладывают модели перед коммерческим запуском.
        Мне очень нравилась (когда была бесплатной) Step 3.5 Flash, а Qwen 3.6 это вообще пушка:)
        Ещё там бывают бесплатные анонимные модели при "обкатке", сейчас вот например там некая Elephant, фиг знает, кто это:)

        Вообще, не все модели на OpenRouter которые помечены как free, по факту работоспособны. Наиболее доступные модели использует сам OpenRouter в своём роутере бесплатных моделей openrouter/free https://openrouter.ai/openrouter/free , сейчас там остались сплошь модели Nemotron, и это печально, ибо они не очень сильны:)
        Но если качество ответов это не главное, лишь бы было бесплатно, то можно просто вписать точку доступа openrouter/free.

        Количество бесплатных запросов на OpenRouter припополнеии на 10 баксов - 1000 запросов в день, а без пополнения - 50. Пополнить можно через крипту или посредников типа plati или ggsel (там при пополнении OpenRouter они не очень сильно борзеют).

        Ещё интересный вариант - Mistral. В обшем, я наверное тоже напишу статью на тему халявы))


        1. den_rad
          14.04.2026 21:06

          Спасибо за идею с OpenRouter/Mistral, сделал себе скрипт для cli запросов в Mistral


  1. VirtualVoid
    14.04.2026 21:06

    Российские номера работают

    Хотел попробовать, но к сожалению, в списке стран я не нашел РФ.

    Скрытый текст


    1. Flux82
      14.04.2026 21:06

      Может подойдёт Казахстан? У него тоже +7.


      1. sLs-Irk
        14.04.2026 21:06

        его тоже нет, выдыхаем, порожняк...


  1. ToniDoni
    14.04.2026 21:06

    Триал ещё и с регистрацией по телефону, ну спасибо!