Сегодня многие AI-сервисы требуют наличия иностранной банковской карты или работы через зарубежные платежные системы. Это создает сложности для разработчиков из стран с региональными ограничениями.
В этой статье я покажу, как подключить нейросеть (инференс GPT и LLaMA) в n8n без использования иностранной карты и разберу работу с ней на простом примере.
Я использовал инструменты и сервисы нашей компании, поэтому статья получилась откровенно рекламной и содержащей не универсальный способ, а конкретную, узкую реализацию задачи. Надеюсь на ваше понимание в этом вопросе.
Подключать мы будем Amvera LLM Inference API, который предоставляет доступ к инференсу моделей GPT (GPT-5, GPT-4.1) и LLaMA (llama-8b, llama-70b) с оплатой в рублях. И для подключения использовать комьюнити-ноду, про создание которой писали в одной из прошлых статей на Хабр.
Как описал выше, подключать нейросеть мы будем к n8n, однако, благодаря открытому API, вы можете беспрепятственно использовать GPT и LLaMA в приложении любых типов: в боте, в любом веб-интерфейсе или приложении.
Что такое Amvera?
Amvera - облако для простого хостинга IT-сервисов (боты, сайты) с развертыванием через git push, также предлагающее вышеописанный Inference API.
После регистрации вы сразу получаете 111 рублей на баланс без дополнительных условий и возможность активировать бесплатные тестовые 20 000 токенов на месяц для любой модели.
Помимо этого, вы можете для каждого проекта совершенно бесплатно получить внешний домен с бесплатным SSL-сертификатом, использовать встроенный CI/CD и запускать код без настройки виртуальных машин.
Предоставляется именно собственный API для работы с моделями GPT и LLaMA от Amvera. Токен никак не относится к OpenAI и может использоваться только для Amvera LLM Inference API.
Развертывание n8n
Для начала нам необходимо развернуть n8n и получить доступ к его интерфейсу. n8n также доступен в Amvera как преднастроенный сервис. Развернуть его можно буквально в считанные минуты с минимальным количеством настроек.
Прежде всего необходимо зарегистрироваться в Amvera и открыть главную страницу проектов.
На ней будет доступна плитка с большим множеством преднастроенных сервисов:

Жмем на него, и сразу же открывается окно с настройками. В нем мы выбираем:
Произвольное название проекта и тариф. Жмем далее.
Конфигурация. Здесь можно ничего не менять кроме версии. Сразу жмем завершить.
Буквально за 20 секунд проект готов к запуску и ожидает вас во вкладке "Преднастроенные сервисы" главной страницы.
Открыть n8n можно, перейдя во вкладку "Домены" проекта.
Подключение ноды для работы с Amvera LLM Inference API
С 4 октября 2025 г. стала доступна комьюнити-нода для работы с API - n8n-nodes-amvera-inference. Подключить ее можно по инструкции.
Нода позволяет легко работать с API моделей LLM, непосредственно из n8n без написания http-запросов.
Получение токена
В настройках ноды выше, вам необходимо создать Credentials с токеном от API. Получить его можно также в ЛК Amvera.
Открываем соответствующую вкладку:

На открывшейся странице выбираем интересную нам модель и жмем кнопку справа "Подключить пакет токенов". Мы же подключим GPT-4.1.

Вы можете выбрать любой интересующий тариф. Для тестов можно воспользоваться бесплатными 20 000 токенами.
После приобретения пакета токенов, мы можем открыть страницу модели и скопировать токен. Именно его нужно вставлять в Credentials ноды (без Bearer).
Пример использования
Если вы корректно установили комьюнити-ноду, в списке доступных нод вашего воркфлоу должна появиться нода Amvera LLM.
Давайте проверим все на самом простом примере: чат-бот в n8n.
Весь воркфлоу состоит из триггер-ноды When chat message received и комьюнити-ноды Amvera LLM.
В настройках Messages комьюнити-ноды указываем {{ $json.chatInput }}, чтобы получать введенные сообщения пользователя в чате воркфлоу, режим вывода Ответ модели и Credentials с ранее полученным токеном.
Проверим:

Все работает!
Пример практического сценария: AI ассистент поддержки в Telegram-боте
Теперь, когда базовая интеграция работает, попробуем применить ее для более практичной задачи - создания AI ассистента поддержки в Telegram-боте.
Сценарий состоит из трёх нод:
Trigger-нода Telegram - получает сообщение пользователя.
Amvera LLM - сама LLM - анализирует текст, определяет тему обращения и предлагает ответ.
Send a text message нода - отправляет результат обратно пользователю.

В ноде Amvera LLM зададим следующий system-промпт:
Проанализируй сообщение пользователя и определи его тип (технический вопрос, оплата, жалоба, отзыв)
Затем сформулируй короткий, вежливый ответ, соответствующий определенной категории.
Формат ответа:
Категория: ...
Ответ: ...
И в сообщение user передадим вывод Trigger-ноды:
{{ $json.message.text }}
Настройки ноды Amvera LLM будут выглядеть примерно так:

Ответ от нашей комьюнити-ноды передаем вперед также, как передавали в нашу ноду вывод Trigger-ноды:
{{ $json.text }}
Работа бота
Запускаем воркфлоу и пишем сообщения всех четырех типов для проверки

Итог
Мы подключили нейросеть к n8n без использования иностранной карты всего за несколько минут.
Главные плюсы:
Не нужны зарубежные карты или прокси.
Все модели и проекты в Amvera работают на общем балансе. Это удобно для управления и становится сложнее пропустить исчерпание баланса.
Нода интегрируется в n8n как стандартный модуль.
Весь процесс визуальный и без программирования.
Этот способ не является универсальным и заточен на конкретного облачного провайдера. Но всегда можно пойти слегка более сложным путём, написав несколько запросов, и использовать обычную HTTP-ноду с любым API, который вам необходим.