Последние пару лет я активно работаю с автоматизацией и AI-агентами. Проекты разные - от чат-ботов для Telegram до сложных RAG-систем с векторными базами. И знаете, что меня всегда бесило? Каждый раз при развертывании нового проекта уходило несколько часов, а то и целый день на настройку окружения.

Сначала настраиваешь Docker Compose для n8n, потом прикручиваешь Postgres, потом вспоминаешь про Redis (потому что без него n8n в queue mode не заведешь), потом Supabase для векторов, потом Qdrant, потому что Supabase для векторов медленноват... А еще же HTTPS нужно настроить, Caddy или Nginx сконфигурировать, сертификаты получить. И так каждый раз.

После очередного развертыванияя подумал: «Хватит, надо это автоматизировать раз и навсегда». Так родился n8n‑install — репозиторий, который превращает чистый Ubuntu VPS в полноценный AI‑стек одной командой.


Содержание

Что это такое?

n8n-install - это Docker Compose template на стероидах, который разворачивает полноценный стек для автоматизации и AI-разработки. Основа - n8n (для тех, кто не в курсе, это low-code платформа для автоматизации с 400+ интеграциями и отличной поддержкой AI). Но не только n8n.

Одной командой вы получаете рабочее окружение с автоматическим HTTPS, где все сервисы уже настроены и могут общаться между собой. Никаких конфигов, никакой борьбы с сертификатами - просто работает.

P.S. если проект покажется полезным, буду рад звезде ⭐️ на GitHub. Для молодых open-source проектов это реально важно!

Почему я это сделал?

Один из моих последних проектов потребовал сложный AI-стек: n8n с Redis для очередей, Flowise для LLM-логики, Qdrant для векторов, PostgreSQL для данных, Ollama для моделей и эмбеддингов, Crawl4AI для парсинга, Grafana для мониторинга, Postgresus для бэкапов, LangFuse для отслеживания AI-агентов, Portainer для управления контейнерами...

Каждое развертывание на новом сервере превращалось в квест на несколько часов. А когда нужно было быстро поднять dev-окружение для тестов - вообще печаль. Открываешь старые заметки, копируешь docker-compose.yml из прошлого проекта, правишь порты, домены, переменные окружения... Где-то опечатка, где-то забыл volume примонтировать, где-то SSL не подхватился.

Я понял, что трачу время на одни и те же действия, которые можно автоматизировать. И сделал инсталлер, который делает всё за меня.

Что входит в стек?

Вы можете выбрать, что именно установить (есть интерактивный wizard), но доступны:

Основа

  • Postgres + Redis - база данных и очередь для n8n

  • Caddy - автоматический HTTPS с wildcard SSL сертификатами

AI-инструменты

  • n8n - в production-режиме (queue mode с Redis, параллельная обработка workflows)

  • Ollama - для запуска локальных LLM (Llama, Mistral, и т.д.)

  • Open WebUI - ChatGPT-подобный интерфейс для ваших моделей

  • Flowise - еще один no-code AI builder, отлично дополняет n8n

  • Dify - полноценная платформа для AI-приложений с LLMOps

RAG и векторные базы

  • Supabase - Postgres + векторная БД + auth из коробки

  • Qdrant - быстрое векторное хранилище для RAG

  • Weaviate - еще одна векторная БД с интересными фишками

  • RAGApp, RAGFlow, LightRAG - разные готовые подходы к RAG

Мониторинг и управление

  • Langfuse - мониторинг AI агентов и LLM запросов

  • Grafana + Prometheus - классический мониторинг инфраструктуры

  • Portainer - веб-интерфейс для управления Docker

  • Postgresus - мониторинг и бэкапы Postgres (кстати, тоже мой open-source проект)

Дополнительные утилиты

  • ComfyUI - для работы со Stable Diffusion

  • Neo4j - графовая база данных

  • Crawl4ai - для парсинга веб-страниц

  • PaddleOCR - распознавание текста на изображениях

  • LibreTranslate - локальный переводчик

  • Python Runner - сервис для запуска кастомного Python кода из n8n

Всего доступно более 30 инструментов. Не обязательно ставить всё - можете выбрать только то, что нужно. Например, только n8n + Ollama + Qdrant.
Всего доступно более 30 инструментов. Не обязательно ставить всё - можете выбрать только то, что нужно. Например, только n8n + Ollama + Qdrant.

Как это работает?

Все банально просто. Вам нужен домен (любой, дешевый за пару баксов в год сойдет) и VPS с Ubuntu. Настраиваете wildcard DNS запись .yourdomain.com на IP сервера (в панели DNS создаёте A-запись с именем и указываете IP вашего сервера), подключаетесь по SSH и запускаете:

git clone https://github.com/kossakovsky/n8n-install
cd n8n-install
sudo bash ./scripts/install.sh

Скрипт спросит:

  1. Ваш домен

  2. Email (для SSL сертификатов и логинов)

  3. Опционально - OpenAI API ключ (если планируете использовать GPT в Supabase/Crawl4AI)

  4. Хотите ли импортировать 300+ готовых n8n workflows из комьюнити

  5. Сколько n8n workers запустить (для параллельной обработки)

  6. Какие сервисы установить (интерактивный wizard)

И всё. Через 10-15 минут у вас полностью рабочий стек с HTTPS (если выбрали импорт workflows - добавьте ещё 20-30 минут). Время может варьироваться в зависимости от скорости интернета и количества выбранных сервисов.

Заходите на n8n.yourdomain.com - работает.
Заходите на flowise.yourdomain.com - работает.
На webui.yourdomain.com - работает.

Все сервисы изолированы, но могут общаться между собой внутри Docker network. n8n может дергать Ollama, писать в Qdrant, читать из Supabase. Flowise может вызывать n8n workflows. И так далее.

Минимальные требования: Ubuntu 24.04, 4GB RAM, 2 CPU, 30GB диск. Это отправная точка для базовой установки (n8n + Flowise). Для установки всех сервисов понадобится очень мощная машина, поэтому не ставьте всё подряд - выбирайте только то, что реально нужно, и рассчитывайте ресурсы под каждый добавляемый компонент.

Фишки, которые я прикрутил

n8n в queue mode с несколькими workers

n8n по умолчанию запускается в обычном режиме - один процесс обрабатывает все workflows последовательно. Но для production этого мало. В queue mode n8n использует Redis для управления задачами и может запускать несколько workers параллельно. Это значит, что тяжелые workflows не блокируют друг друга.

Во время установки вы указываете количество workers (1, 2, 3, 4...). Если у вас много автоматизаций, которые должны работать одновременно - ставьте больше. Если не знаете нужное вам количество воркеров - ставьте 2 и дальше смотрите по загрузке ресурсов.

Импорт 300+ готовых workflows

В комьюнити n8n куча готовых workflows. Я собрал из официальной библиотеки 300+ самых полезных и запаковал в импорт. Во время установки можете согласиться их импортировать - и сразу получите примеры по:

  • RAG, LangChain, AI-агенты

  • Интеграции с Gmail, Notion, Airtable, Google Sheets

  • Обработка PDF, изображений, аудио, видео

  • Боты для Telegram, Discord, Slack

  • Парсинг соцсетей (LinkedIn, Instagram, TikTok, YouTube)

  • E-commerce автоматизация

Это реально экономит кучу времени на старте. Берешь готовый пример, адаптируешь под свою задачу - и вперед.

Готовые библиотеки и утилиты для Code nodes

В n8n есть Code nodes, где можно писать JavaScript. Через настройку конфигурации я сделал доступными популярные библиотеки: cheerio, axios, moment, lodash - то, что постоянно нужно для парсинга, работы с датами и API запросами.

Плюс через кастомный Docker-образ добавил ffmpeg - теперь можно обрабатывать аудио и видео прямо из workflows, без танцев с бубном.

Автоматический HTTPS с wildcard сертификатами

Все сервисы автоматически получают HTTPS через Caddy. Wildcard SSL сертификаты (для *.yourdomain.com) генерируются сами через Let's Encrypt. Вам вообще не нужно думать о сертификатах.

Опциональный Cloudflare Tunnel

Если не хотите светить IP сервера или у вас динамический IP, можно использовать Cloudflare Tunnel. Тогда вообще не нужно открывать порты 80 и 443, весь трафик идет через Cloudflare. Плюс DDoS защита и Zero Trust Access из коробки.

Реальный кейс использования

Расскажу про конкретный проект, который я делал на этом стеке. Задача - сделать Telegram-бота, который отвечает на вопросы пользователей на основе данных с определенных сайтов. Причем данные постоянно обновляются, и бот должен всегда знать актуальную информацию.

Архитектура:

  1. n8n - это оркестратор. В нем крутится Telegram bot workflow. Когда пользователь пишет сообщение, n8n его получает и понимает, что нужно сгенерировать ответ.

  2. Flowise - мозги системы. n8n делает HTTP запрос в Flowise, передает вопрос пользователя. Flowise через RAG ищет релевантные куски информации в Qdrant (векторная БД), формирует контекст.

  3. Ollama - отвечает сразу за два ключевых этапа:

    • Генерирует эмбеддинги для поиска по векторам (локально, бесплатно)

    • Запускает LLM для генерации ответа (можно использовать llama3, mistral, phi - что угодно)

  4. Flowise генерирует ответ, используя найденный контекст и локальную модель. Можно даже настроить ревью ответа перед отправкой (например, проверить на корректность через второй вызов LLM).

  5. Ответ возвращается в n8n, который отправляет его пользователю в Telegram.

Пополнение базы знаний:

  1. Crawl4AI - парсит указанные сайты в стелс-режиме (обходит анти-бот защиту). Можно запускать по расписанию из n8n.

  2. Спарсенные данные (текст, структура страниц) отправляются в Flowise.

  3. Flowise обрабатывает текст, генерирует эмбеддинги через Ollama, сохраняет в Qdrant.

  4. PostgreSQL используется для хранения истории диалогов, метаданных, логов.

Мониторинг и поддержка:

  • LangFuse - интегрирован с Flowise, показывает метрики AI-агентов (сколько токенов потратили, время генерации, успешность запросов)

  • Grafana - мониторит нагрузку на сервер (CPU, RAM, disk I/O)

  • Postgresus - автоматические бэкапы PostgreSQL с отправкой в S3/Google Drive

  • Portainer - для визуального управления всеми контейнерами

Раньше на развертывание такой системы на новом сервере уходило часов 5-6. Нужно было вручную настраивать каждый сервис, искать в логах внутренние адреса и порты, прописывать интеграции, настраивать сеть между контейнерами. Сейчас - 10-15 минут на установку (зависит от скорости интернета и выбранных сервисов) + около часа на интеграцию компонентов. Запустил инсталлер, выбрал нужные сервисы, получил отчет со всеми данными.

После установки скрипт генерирует подробный отчет со всеми внутренними адресами, логинами, паролями и API-ключами. Все компоненты видят друг друга внутри Docker network, и благодаря этому отчету интеграция становится тривиальной - просто копируешь нужные данные в UI каждого сервиса. Flowise подключаешь к Qdrant и Ollama, в LangFuse настраиваешь мониторинг Flowise, в Postgresus указываешь данные PostgreSQL для бэкапов.

Для кого это?

Если вы:

  • Разрабатываете AI-агентов, RAG-системы, чат-ботов

  • Используете n8n или хотите попробовать

  • Хотите свой приватный AI-стек без зависимости от OpenAI, Anthropic и других облаков

  • Не хотите тратить день на настройку Docker Compose, Caddy, SSL, и всего остального

  • Нужен быстрый способ развернуть dev или prod окружение

То это для вас.

Я сам использую это на продакшене для нескольких проектов. Все стабильно работает, обновления делаются одной командой (sudo bash ./scripts/update.sh), мониторинг через Grafana показывает что к чему.

Если у вас есть идеи или что-то не получается - велкам в issues на GitHub.


Надеюсь, кому-то это сэкономит время так же, как мне. Буду рад фидбеку!

GitHub

Комментарии (1)


  1. ZhenyaRUS39
    05.12.2025 19:27

    Спасибо за вашу работу. Очень классно. Пользуюсь. На vps шикарно работает. Действительно в несколько кликов и команд ставится. Рад что и lightrag добавили, а то вроде ещё пару месяцев назад не было.