Сегодня многие AI-сервисы требуют наличия иностранной банковской карты или работы через зарубежные платежные системы. Это создает сложности для разработчиков из стран с региональными ограничениями.

В этой статье я покажу, как подключить нейросеть (инференс GPT и LLaMA) в n8n без использования иностранной карты и разберу работу с ней на простом примере.

Я использовал инструменты и сервисы нашей компании, поэтому статья получилась откровенно рекламной и содержащей не универсальный способ, а конкретную, узкую реализацию задачи. Надеюсь на ваше понимание в этом вопросе.

Подключать мы будем Amvera LLM Inference API, который предоставляет доступ к инференсу моделей GPT (GPT-5, GPT-4.1) и LLaMA (llama-8b, llama-70b) с оплатой в рублях. И для подключения использовать комьюнити-ноду, про создание которой писали в одной из прошлых статей на Хабр.

Как описал выше, подключать нейросеть мы будем к n8n, однако, благодаря открытому API, вы можете беспрепятственно использовать GPT и LLaMA в приложении любых типов: в боте, в любом веб-интерфейсе или приложении.

Что такое Amvera?

Amvera - облако для простого хостинга IT-сервисов (боты, сайты) с развертыванием через git push, также предлагающее вышеописанный Inference API.

После регистрации вы сразу получаете 111 рублей на баланс без дополнительных условий и возможность активировать бесплатные тестовые 20 000 токенов на месяц для любой модели.

Помимо этого, вы можете для каждого проекта совершенно бесплатно получить внешний домен с бесплатным SSL-сертификатом, использовать встроенный CI/CD и запускать код без настройки виртуальных машин.

Предоставляется именно собственный API для работы с моделями GPT и LLaMA от Amvera. Токен никак не относится к OpenAI и может использоваться только для Amvera LLM Inference API.

Развертывание n8n

Для начала нам необходимо развернуть n8n и получить доступ к его интерфейсу. n8n также доступен в Amvera как преднастроенный сервис. Развернуть его можно буквально в считанные минуты с минимальным количеством настроек.

Прежде всего необходимо зарегистрироваться в Amvera и открыть главную страницу проектов.

На ней будет доступна плитка с большим множеством преднастроенных сервисов:

Запуск n8n одной кнопкой
Запуск n8n одной кнопкой

Жмем на него, и сразу же открывается окно с настройками. В нем мы выбираем:

  1. Произвольное название проекта и тариф. Жмем далее.

  2. Конфигурация. Здесь можно ничего не менять кроме версии. Сразу жмем завершить.

Буквально за 20 секунд проект готов к запуску и ожидает вас во вкладке "Преднастроенные сервисы" главной страницы.

Открыть n8n можно, перейдя во вкладку "Домены" проекта.

Подключение ноды для работы с Amvera LLM Inference API

С 4 октября 2025 г. стала доступна комьюнити-нода для работы с API - n8n-nodes-amvera-inference. Подключить ее можно по инструкции.

Нода позволяет легко работать с API моделей LLM, непосредственно из n8n без написания http-запросов.

Получение токена

В настройках ноды выше, вам необходимо создать Credentials с токеном от API. Получить его можно также в ЛК Amvera.

Открываем соответствующую вкладку:

Подключаем инференс LLM
Подключаем инференс LLM

На открывшейся странице выбираем интересную нам модель и жмем кнопку справа "Подключить пакет токенов". Мы же подключим GPT-4.1.

Подключаем пакет токенов
Подключаем пакет токенов

Вы можете выбрать любой интересующий тариф. Для тестов можно воспользоваться бесплатными 20 000 токенами.

После приобретения пакета токенов, мы можем открыть страницу модели и скопировать токен. Именно его нужно вставлять в Credentials ноды (без Bearer).

Пример использования

Если вы корректно установили комьюнити-ноду, в списке доступных нод вашего воркфлоу должна появиться нода Amvera LLM.

Давайте проверим все на самом простом примере: чат-бот в n8n.

Весь воркфлоу состоит из триггер-ноды When chat message received и комьюнити-ноды Amvera LLM.

В настройках Messages комьюнити-ноды указываем {{ $json.chatInput }}, чтобы получать введенные сообщения пользователя в чате воркфлоу, режим вывода Ответ модели и Credentials с ранее полученным токеном.

Проверим:

Простейшее флоу n8n
Простейшее флоу n8n

Все работает!

Пример практического сценария: AI ассистент поддержки в Telegram-боте

Теперь, когда базовая интеграция работает, попробуем применить ее для более практичной задачи - создания AI ассистента поддержки в Telegram-боте.

Сценарий состоит из трёх нод:

  1. Trigger-нода Telegram - получает сообщение пользователя.

  2. Amvera LLM - сама LLM - анализирует текст, определяет тему обращения и предлагает ответ.

  3. Send a text message нода - отправляет результат обратно пользователю.

В ноде Amvera LLM зададим следующий system-промпт:

Проанализируй сообщение пользователя и определи его тип (технический вопрос, оплата, жалоба, отзыв)
Затем сформулируй короткий, вежливый ответ, соответствующий определенной категории. 
Формат ответа:
Категория: ...
Ответ: ...

И в сообщение user передадим вывод Trigger-ноды:

{{ $json.message.text }} 

Настройки ноды Amvera LLM будут выглядеть примерно так:

Ответ от нашей комьюнити-ноды передаем вперед также, как передавали в нашу ноду вывод Trigger-ноды:

{{ $json.text }}

Работа бота

Запускаем воркфлоу и пишем сообщения всех четырех типов для проверки

Итог

Мы подключили нейросеть к n8n без использования иностранной карты всего за несколько минут.

Главные плюсы:

  • Не нужны зарубежные карты или прокси.

  • Все модели и проекты в Amvera работают на общем балансе. Это удобно для управления и становится сложнее пропустить исчерпание баланса.

  • Нода интегрируется в n8n как стандартный модуль.

  • Весь процесс визуальный и без программирования.

Этот способ не является универсальным и заточен на конкретного облачного провайдера. Но всегда можно пойти слегка более сложным путём, написав несколько запросов, и использовать обычную HTTP-ноду с любым API, который вам необходим.

Комментарии (0)