Поспорил с коллегой, что соберу своего ИИ-агента за вечер. Он посмеялся, я завёл терминал.

За 19 лет в айти я участвовал в автоматизации процессов, писал ботов, даже обучал нейросети для поиска багов. Но вот чтобы сделать персонального ИИ-агента — такого, который реально помогает, а не просто болтает — руки не доходили. Пока не появился повод в виде лёгкой подколки в чате.

Пошёл по трём направлениям: кастом на LangChain, локальная сборка через Ollama и no-code-конструкторы. Где-то пришлось попотеть с кодом, где-то — удивиться, насколько просто всё работает.

В статье расскажу, что пробовал, какие подходы реально рабочие, что стоит времени, а что — лучше оставить гикам. Будет и гайд, и код, и пара фейлов. Но спойлер: кэш я всё-таки забрал.

Оглавление

  1. Как работают AI-агенты

  2. Три подхода к созданию AI-агентов

  3. Практическая часть: Создание ИИ-агента

  4. Можно ли использовать AI-агентов в вашей профессии

Как работают AI-агенты

Если упростить, AI-агент — это программа, которую можно встроить в свой стек и настроить под конкретные проекты: не просто «поиск в гугле», а полноценная работа с кодом, данными или проектными задачами.

Под капотом у большинства ИИ-агентов — большие языковые модели (LLM): Mistral, Llama, OpenAI GPT и др. Они обучены на больших датасетах и умеют обрабатывать текст, генерировать ответы и выполнять команды.

Структура работы агента выглядит примерно так:

  1. Запрос. Пользователь формулирует задачу: например, «напиши функцию на Python для сортировки списка» или «собери план проекта». Агент (через LLM) интерпретирует запрос, извлекает контекст и определяет цель.

  2. Интеграция с инструментами. Для выполнения более сложных задач агент подключается к внешним инструментам: API, поисковикам, базам данных, файловым системам или IDE. Например, может сделать поиск в интернете или взаимодействовать с API IDE для анализа кода.

  3. Планирование и выполнение действий. После интерпретации задачи агент решает, какие шаги предпринять: сгенерировать ответ, написать код, провести вычисления, собрать данные и т.п. Некоторые агенты реализуют паттерн react-description — динамически разбивают задачу на шаги и последовательно их отрабатывают.

  4. Адаптация под пользователя. Если есть механизм обратной связи, агент со временем подстраивается под стиль работы. Например, я обучал ИИ генерировать код в определённом стиле или учитывать корпоративные стандарты документации.

В плане реализации я чаще использую фреймворки вроде LangChain — он хорошо справляется с оркестрацией LLM и интеграцией со внешними источниками. Агент может работать локально (например, с Ollama), или через облачные платформы (типа Relevance AI).

Три подхода к созданию AI-агентов

Сначала расскажу про 3 подхода, которые сам пробовал: фреймворки для полной кастомизации, локальные инструменты — когда важна конфиденциальность, и no-code решения — если нужен быстрый результат без программирования. У каждого варианта есть свои плюсы, и выбор зависит от задач и уровня подготовки.

Фреймворки (LangChain, LlamaIndex): полный контроль и кастомизация

Уровень кастомизации: высокий

Что нужно уметь: программировать на Python

Инструменты: LangChain, LlamaIndex, crewAI

Когда применять: если нужен агент «под ключ» с полной кастомизацией — пишете логику сами, подключаете нужные API, управляете пайплайном. Подход для тех, кто хочет именно разработать агента под свои задачи, а не просто собрать из готовых блоков.

Фреймворки вроде LangChain, LlamaIndex и crewAI дают довольно гибкий инструмент для сборки кастомных AI-агентов. С их помощью можно собрать пайплайн, который будет выполнять нетривиальные задачи: от генерации кода и парсинга данных до автоматизации бизнес-процессов.

Например, LangChain позволяет легко интегрировать LLM с внешними API, базами данных, поисковыми системами. Плюс — даёт возможность управлять памятью ИИ-агента (чтобы он сохранял контекст диалога или цепочки задач).

В итоге на основе LangChain я собирал агента, который помогает писать и рефакторить код; вытаскивает релевантные куски из документации, автоматизирует первичный анализ логов. А коллеги использовали связку с CRM — чтобы агент автоматически готовил отчёты и подсвечивал аномальные значения в данных.

Минус у подхода ровно один — нужно уметь писать на Python и быть готовым повозиться с документацией фреймворка. Но если хотите полную кастомизацию под свои задачи — это один из лучших вариантов.

Локальные инструменты (Ollama, Continue): конфиденциальность и простота настройки

Уровень кастомизации: средний
Что нужно уметь: базовая настройка ПО
Инструменты: Ollama, Continue (плагин для VS Code)
Когда применять: если важно запускать агента локально и контролировать, куда уходят данные.

Локальные инструменты — хороший вариант, если вы работаете с конфиденциальной информацией или просто не хотите отправлять данные в облако.

Например, Ollama позволяет локально запускать LLM (например, Mistral или другие open-source модели) прямо на своём ПК. В связке с плагином Continue для VS Code получается довольно удобный рабочий агент прямо внутри IDE. 

Он может:
— подсказывать по коду,
— генерировать куски функций,
— помогать с отладкой,
— генерировать идеи по архитектуре решения.

Как я использовал: поднял Ollama + Continue для автодополнения и объяснения кода в VS Code. Заодно тестировал работу с локальными CSV — удобно для быстрой аналитики без выхода в сеть.

Из плюсов — настройка занимает буквально 15–20 минут: скачал Ollama, загрузил модель, поставил плагин — и можно работать. Из минусов — модели всё же легче, чем облачные GPT, так что сложные запросы требуют аккуратной промпт-инженерии.

No-code платформы (Relevance AI, CodeGPT): быстрое создание без программирования

Уровень кастомизации: низкий
Что нужно уметь: ничего, только тыкать мышкой
Инструменты: Relevance AI, CodeGPT
Когда применять: если нужно быстро собрать рабочего агента без написания кода.

Если нет времени разбираться с фреймворками или писать свой пайплайн, можно пойти по пути no-code. Платформы вроде Relevance AI и CodeGPT позволяют буквально за пару минут собрать простого ИИ-агента через визуальный интерфейс.

Варианты применения:

  • в Relevance AI можно быстро собрать агента, который, например, будет формировать сводки по задачам или вытаскивать ключевые метрики из корпоративных данных;

  • в CodeGPT удобно настроить агента для генерации небольших скриптов или вспомогательных функций.

Как я использовал: делал на Relevance AI прототип для автоматизации отчётов по проектам. Хорошо подходит для быстрых MVP или проверки гипотез: посмотреть, как будет работать связка «агент + конкретная задача» без необходимости писать backend-логику.

Минус очевиден — кастомизации практически нет: вы работаете в рамках того, что предлагает платформа. Но, если нужно быстрое решение «на попробовать» или для нетехнических пользователей — такой вариант вполне рабочий.


А если вы внедряете ИИ в компании — познакомьтесь ближе с продуктами Minervasoft. В системе управления знаниями Minerva Knowledge есть технология DataHub, которая позволяет легко создать корпоративный «мозг» для GenAI и объединить любые источники информации, в том числе внутренние системы, базы знаний и другие хранилища данных.

К платформе можно подключить помощника с генеративным AI. Minerva Copilot полностью защищён и работает без интернета на базе технологий различных провайдеров: Naumen, AutoFAQ и других партнёров. Он встраивается в любую рабочую систему и даёт точные ответы на вопросы сотрудника со ссылкой на материалы из Minerva Knowledge. Быстро, качественно и с учётом контекста.

Попробовать продукты Minervasoft

Переходим к практике: создаём своего ИИ-агента

Теперь перехожу к конкретным примерам трёх подходов, о которых говорил выше: через фреймворки (на базе LangChain), локальные инструменты (Ollama + Continue в VS Code) и no-code платформы (Relevance AI, CodeGPT). Подготовил шаблоны как для новичков, так и для профессионалов.

Фреймворки (LangChain): Шаблоны для новичков и профессионалов

Пошаговая инструкция: Базовый AI-агент для поиска информации с LangChain

Эти шаги помогут вам создать вашего AI-агента, который сможет искать информацию в интернете и формировать ответ, используя библиотеку LangChain.

Что понадобится:

  1. Python 3.8+: Убедитесь, что у вас установлена подходящая версия Python. Если нет, вы можете скачать ее с официального сайта Python.

  2. LangChain: Библиотека, которая упрощает создание приложений на основе больших языковых моделей.

  3. API-ключ для доступа к LLM (Large Language Model): Это может быть OpenAI (самый распространенный вариант для новичков) или Hugging Face. Этот ключ позволит вашему агенту взаимодействовать с мощными языковыми моделями.

  4. API-ключ для SerpAPI или аналогичного сервиса: Для инструмента поиска Google Search, который мы будем использовать, потребуется API-ключ от сервиса, который предоставляет доступ к поисковым результатам. SerpAPI — один из таких сервисов.


Шаг 1: Подготовка окружения и установка зависимостей

Установите Python (если еще не установлен):

  • Перейдите на официальный сайт Python.

  • Скачайте и установите последнюю версию Python 3.8 или выше, следуя инструкциям для вашей операционной системы. Обязательно поставьте галочку "Add Python to PATH" во время установки на Windows.

python -m venv ai_agent_env

4. Активируйте виртуальное окружение:
На Windows:

.\ai_agent_env\Scripts\activate

На macOS/Linux:

source ai_agent_env/bin/activate
  1. Вы увидите (ai_agent_env) перед вашей командной строкой. Это означает, что виртуальное окружение активно.

  2. Установите необходимые библиотеки:

pip install langchain openai google-search-results
  • langchain: Основная библиотека для создания агента.

  • openai: Клиентская библиотека для работы с API OpenAI.

  • google-search-results: Эта библиотека используется LangChain для работы с SerpAPI, который предоставляет доступ к результатам поиска Google.


Шаг 2: Получение API-ключей

Для работы агента вам понадобятся два API-ключа:

  1. API-ключ OpenAI:

    • Перейдите на сайт OpenAI.

    • Зарегистрируйтесь или войдите в свою учетную запись.

    • После входа в систему перейдите в раздел "API keys" (обычно в меню слева или в настройках профиля).

    • Нажмите "Create new secret key" и скопируйте сгенерированный ключ. Сохраните его в надежном месте, так как он будет показан только один раз.

  2. API-ключ SerpAPI:

    • Перейдите на сайт SerpAPI.

    • Зарегистрируйтесь или войдите в свою учетную запись.

    • После входа в систему, ваш API-ключ обычно отображается на панели управления ("Dashboard"). Скопируйте его.


Шаг 3: Написание кода вашего AI-агента

Создайте новый файл Python:

  • В вашей рабочей директории (например, в папке ai_agent_env) создайте новый файл, например, agent_app.py.

  • Откройте этот файл в любом текстовом редакторе или IDE (например, VS Code, PyCharm, Sublime Text).

Вставьте следующий код:

from langchain.agents import load_tools, initialize_agent, AgentType
from langchain_openai import OpenAI # Изменено для новой версии LangChain

# 1. Укажите ваши API-ключи
# Рекомендуется хранить ключи в переменных окружения для безопасности
# Например, установите их в вашей системе как OPENAI_API_KEY и SERPAPI_API_KEY
# Для этого примера мы пока вставим их напрямую, но имейте в виду лучшую практику.

# ЗАМЕНИТЕ 'ВАШ_API_КЛЮЧ_OPENAI' на ваш актуальный ключ OpenAI
# ЗАМЕНИТЕ 'ВАШ_API_КЛЮЧ_SERPAPI' на ваш актуальный ключ SerpAPI
openai_api_key = "ВАШ_API_КЛЮЧ_OPENAI"
serpapi_api_key = "ВАШ_API_КЛЮЧ_SERPAPI"

# 2. Инициализация LLM (Large Language Model)
# Мы используем OpenAI в качестве модели.
# temperature=0 делает ответы модели более детерминированными (менее случайными).
llm = OpenAI(openai_api_key=openai_api_key, temperature=0)

# 3. Загрузка инструмента для поиска
# "google-search" - это инструмент, который использует SerpAPI для выполнения поиска в Google.
# Для этого инструмента нужен API-ключ SerpAPI, который мы передаем через environment variable
# или, как в нашем случае, указываем явно при загрузке.
tools = load_tools(["serpapi"], llm=llm, serpapi_api_key=serpapi_api_key)

# 4. Инициализация агента
# tools: Список инструментов, которые агент может использовать.
# llm: Большая языковая модель, которую агент использует для рассуждений.
# agent="zero-shot-react-description": Это тип агента. Он использует модель ReAct
# (Reasoning and Acting) для принятия решений о том, какой инструмент использовать и как рассуждать.
# verbose=True: Включает подробный вывод, который показывает, как агент принимает решения
# и какие шаги выполняет. Это очень полезно для отладки и понимания работы агента.
# agent_type=AgentType.ZERO_SHOT_REACT_DESCRIPTION: Это более современный способ указания типа агента.
agent = initialize_agent(
    tools,
    llm,
    agent=AgentType.ZERO_SHOT_REACT_DESCRIPTION, # Изменено для новой версии LangChain
    verbose=True
)

# 5. Запрос к агенту
# Здесь вы формулируете свой вопрос, который агент будет пытаться решить.
print("Запрос к агенту: 'Как создать AI-агента с LangChain?'")
response = agent.run("Как создать AI-агента с LangChain?")

# 6. Вывод ответа агента
print("\n--- Ответ агента ---")
print(response)
  1. Замените заглушки API-ключей:

    • Найдите строку openai_api_key = "ВАШ_API_КЛЮЧ_OPENAI" и замените "ВАШ_API_КЛЮЧ_OPENAI" на ваш реальный API-ключ OpenAI.

    • Найдите строку serpapi_api_key = "ВАШ_API_КЛЮЧ_SERPAPI" и замените "ВАШ_API_КЛЮЧ_SERPAPI" на ваш реальный API-ключ SerpAPI.

  2. Важное примечание по безопасности: В реальных проектах никогда не храните API-ключи непосредственно в коде. Вместо этого используйте переменные окружения (например, os.environ.get("OPENAI_API_KEY")) или другие безопасные методы хранения секретов.


Шаг 4: Запуск вашего AI-агента

Убедитесь, что ваше виртуальное окружение активно. Если вы закрыли терминал, вам нужно снова активировать его (Шаг 1, пункт 4).

Запустите скрипт Python:
В том же терминале, где активно виртуальное окружение, перейдите в директорию, где вы сохранили agent_app.py (если вы там еще не находитесь), и выполните команду:

python agent_app.py

Шаг 5: Анализ вывода

Когда вы запустите скрипт, вы увидите подробный вывод (благодаря verbose=True):

  • Вы увидите, как агент "думает" (Thought).

  • Он будет решать, какой Action (действие) предпринять, например, использовать serpapi_Google Search.

  • Затем он покажет Action Input (входные данные для действия), т.е. поисковый запрос.

  • После выполнения поиска он покажет Observation (наблюдение) — результаты поиска, полученные от SerpAPI.

  • Агент может повторять эти шаги, если ему нужно уточнить информацию или провести дополнительные поиски.

  • В конце он сформирует Final Answer (конечный ответ) на ваш запрос.


Возможные проблемы и их решения:

  • "API-ключ недействителен" / "Недостаточно средств": Проверьте правильность ваших API-ключей и убедитесь, что на вашем аккаунте OpenAI достаточно кредитов.

  • "Could not load tool google-search..." / "No such tool found": Убедитесь, что вы правильно установили google-search-results (pip install google-search-results) и что ваш ключ SerpAPI действителен. В новых версиях LangChain инструмент google-search может быть заменен на serpapi, как я исправил в коде выше.

  • Ошибки, связанные с версиями LangChain: Библиотека LangChain активно развивается. Если вы видите ошибки, связанные с импортами или функциями, возможно, вы используете более новую или старую версию. Попробуйте обновить LangChain (pip install --upgrade langchain) или обратиться к официальной документации LangChain для вашей версии. Я обновил код, чтобы он соответствовал более актуальным импортам LangChain.

  • "Rate limit exceeded": Вы сделали слишком много запросов за короткий период времени. Подождите немного и попробуйте снова.


Пошаговая инструкция: ИИ-агент с интеграцией инструментов и памятью диалога

Этот гайд покажет вам, как создать более сложного AI-агента, который может не только выполнять вычисления, но и "помнить" предыдущие шаги диалога, что позволяет ему обрабатывать последовательные запросы с учетом контекста.

Что понадобится:

  1. Python 3.8+: Установленная версия Python.

  2. LangChain: Основная библиотека для создания агентов.

  3. API-ключ для доступа к LLM (например, OpenAI): Для взаимодействия с большой языковой моделью.


Шаг 1: Подготовка окружения и установка зависимостей

  1. Откройте терминал или командную строку.

  2. Активируйте ваше виртуальное окружение (если вы создавали его ранее, как рекомендовано в предыдущей инструкции). Если нет, можете создать новое:

    • Создать новое виртуальное окружение: python -m venv advanced_agent_env

    • Активировать на Windows: .\advanced_agent_env\Scripts\activate

    • Активировать на macOS/Linux: source advanced_agent_env/bin/activate

  3. Установите необходимые библиотеки:

pip install langchain openai
  • langchain: Основная библиотека.

  • openai: Клиентская библиотека для OpenAI.

  1. Обратите внимание: В данном примере не требуется SerpAPI, так как мы не используем инструмент поиска Google. Вместо этого мы будем использовать инструмент для математических вычислений (llm-math).


Шаг 2: Получение API-ключа OpenAI

  1. Если у вас еще нет API-ключа OpenAI, получите его, следуя инструкциям из предыдущего гайда:

    • Перейдите на сайт OpenAI.

    • Зарегистрируйтесь/войдите.

    • Перейдите в раздел "API keys" и создайте новый секретный ключ. Сохраните его!


Шаг 3: Написание кода вашего AI-агента с памятью

  1. Создайте новый файл Python:

    • В вашей рабочей директории (например, в папке advanced_agent_env) создайте новый файл, например, memory_agent_app.py.

    • Откройте этот файл в вашем текстовом редакторе или IDE.

  2. Вставьте следующий код:
    Python

from langchain.agents import load_tools, initialize_agent, AgentType
from langchain_openai import OpenAI # Импорт из langchain_openai для новых версий
from langchain.memory import ConversationBufferMemory # Класс для работы с памятью

# 1. Укажите ваш API-ключ OpenAI
# ЗАМЕНИТЕ 'ВАШ_API_КЛЮЧ_OPENAI' на ваш актуальный ключ OpenAI
openai_api_key = "ВАШ_API_КЛЮЧ_OPENAI"

# 2. Инициализация LLM (Large Language Model)
# temperature=0 делает ответы модели более детерминированными (менее творческими).
llm = OpenAI(openai_api_key=openai_api_key, temperature=0)

# 3. Загрузка инструментов
# "llm-math": Это инструмент, который позволяет агенту выполнять математические вычисления.
# LLM сама по себе не всегда идеально справляется с точными вычислениями,
# поэтому делегирование этой задачи специализированному инструменту повышает точность.
# Инструмент llm-math внутренне использует LLM для парсинга выражения,
# поэтому передача llm в load_tools является обязательной.
tools = load_tools(["llm-math"], llm=llm)

# 4. Инициализация памяти для агента
# ConversationBufferMemory: Простой тип памяти, который хранит всю историю диалога.
# memory_key="chat_history": Имя ключа, под которым история диалога будет доступна LLM.
# Это важно, так как модель будет использовать этот ключ для доступа к контексту.
memory = ConversationBufferMemory(memory_key="chat_history")

# 5. Инициализация агента с памятью
# tools: Список инструментов, которые агент может использовать.
# llm: Большая языковая модель для рассуждений и генерации ответов.
# agent="conversational-react-description": Этот тип агента разработан специально
# для поддержки диалогов с памятью. Он также использует парадигму ReAct.
# memory: Объект памяти, который будет передаваться агенту.
# verbose=True: Включает подробный вывод, который показывает внутренние шаги агента.
# Это особенно полезно для отладки и понимания, как агент использует память.
agent = initialize_agent(
    tools,
    llm,
    agent=AgentType.CONVERSATIONAL_REACT_DESCRIPTION, # Изменено для новой версии LangChain
    memory=memory,
    verbose=True
)

# 6. Примеры взаимодействия
print("--- Первый запрос ---")
response1 = agent.run("Сколько будет 15% от 200?")
print(f"Ответ агента 1: {response1}\n")

print("--- Второй запрос (с использованием контекста) ---")
response2 = agent.run("А если прибавить к этому 50?")
print(f"Ответ агента 2: {response2}\n")

print("--- Третий запрос (с использованием контекста) ---")
response3 = agent.run("Вычти из этого 25.")
print(f"Ответ агента 3: {response3}\n")
# Вы можете продолжить диалог, чтобы увидеть, как агент сохраняет контекст.
# print("--- Четвертый запрос ---")
# response4 = agent.run("Что такое LangChain?")
# print(f"Ответ агента 4: {response4}\n") # Этот запрос не связан с вычислениями, но агент все равно помнит предыдущий диалог.
  1. Замените заглушку API-ключа:

    • Найдите строку openai_api_key = "ВАШ_API_КЛЮЧ_OPENAI" и замените "ВАШ_API_КЛЮЧ_OPENAI" на ваш реальный API-ключ OpenAI.


Шаг 4: Запуск вашего AI-агента

  1. Убедитесь, что ваше виртуальное окружение активно.

  2. Запустите скрипт Python:
    В терминале, где активно виртуальное окружение, выполните команду:

python memory_agent_app.py

Шаг 5: Анализ вывода

Когда вы запустите скрипт, обратите внимание на подробный вывод (verbose=True).

  • Первый запрос (Сколько будет 15% от 200?):

    • Вы увидите, как агент "думает" и решает использовать инструмент Calculator (или llm-math в зависимости от внутренней реализации).

    • Он выполнит расчет и выдаст Final Answer.

  • Второй запрос (А если прибавить к этому 50?):

    • Здесь ключевое отличие: агент, благодаря ConversationBufferMemory, "помнит" предыдущий ответ (результат 15% от 200, который равен 30).

    • Вы увидите, что в Thought агента будет присутствовать история чата (chat_history), которая содержит предыдущие вопросы и ответы.

    • Агент поймет, что "к этому" относится к предыдущему результату, и прибавит 50 к 30.

  • Третий запрос (Вычти из этого 25.):

    • Аналогично, агент будет использовать текущий контекст диалога (предыдущий результат, 80) и вычтет из него 25.

Этот механизм памяти делает агента гораздо более полезным и интерактивным, позволяя ему вести связный диалог.


Возможные проблемы и их решения:

  • "API-ключ недействителен" / "Недостаточно средств": Проверьте правильность вашего API-ключа OpenAI и баланс на вашем аккаунте.

  • Ошибки импорта (from langchain.llms import OpenAI): В более новых версиях LangChain импорты для моделей перенесены в подпакеты, например, from langchain_openai import OpenAI. Я уже исправил это в коде выше. Убедитесь, что у вас установлена соответствующая версия LangChain или скорректируйте импорт.

  • Агент не "помнит": Убедитесь, что вы правильно инициализировали ConversationBufferMemory и передали ее в initialize_agent через параметр memory=memory. Также проверьте, что agent тип установлен на AgentType.CONVERSATIONAL_REACT_DESCRIPTION.

  • Неточности в вычислениях: Хотя llm-math повышает точность, сложные или неоднозначные формулировки могут иногда сбивать LLM при парсинге запроса для инструмента. Старайтесь формулировать запросы к вычислениям максимально четко.


Эта инструкция значительно расширяет возможности вашего агента, позволяя ему работать с контекстом и выполнять вычисления. Это важный шаг к созданию более сложных и интеллектуальных AI-приложений. 

Локальные инструменты (Ollama, Continue): настройка и использование

В этом примере — как настроить локального AI-агента на базе Ollama + Continue для VS Code. Такой агент работает полностью локально и интегрируется прямо в IDE — помогает с генерацией и рефакторингом кода, даёт подсказки по синтаксису и структуре.

Шаги настройки:

  1. Устанавливаем Ollama на локальную машину (дистрибутив — на официальном сайте). Проверяем установку: 

ollama --help


В терминале или powershell окне запустите:

   ollama serve
   ollama run qwen2.5-coder:7b

3. Установите расширение Continue в Visual Studio Code (доступно в marketplace).

  

4. Настройте Continue


Как описано в документации continue, нужно создать файл config.json:

{

  "models": [

    {

      "title": "Qwen2.5-Coder",

      "provider": "ollama",

      "model": "qwen2.5-coder:7b"

    }

  ]

}

Как использовать: после настройки — выделяем нужный фрагмент кода в VS Code, нажимаем Cmd + Shift + R (или соответствующую комбинацию на Windows). Вводим запрос — например:
«Объясни этот код» или «Исправь ошибку».

Агент обрабатывает запрос локально, без отправки данных в облако — что важно при работе с закрытым кодом или корпоративными проектами.

No-code платформы (Relevance AI, CodeGPT): Быстрая настройка

Relevance AI

Через Relevance AI можно собрать простого агента через визуальный интерфейс — без кода.

Шаги:

  • Заходим на Relevance AI, регистрируемся (достаточно бесплатного плана).

  • Выбираем шаблон, например, "Habr Digital Writer".  

  • Настраиваем агента: в визуальном интерфейсе задаём, какие задачи он должен выполнять. Пример — «Собирай заголовки с англоязычного Хабра и формируй отчёт, чтобы было удобно выбрать, что почитать».

  • Запускаем агента и тестируем на простом запросе, например: «Проверь сайт и скажи, что почитать сегодня».

CodeGPT

CodeGPT — инструмент с уклоном на задачи для разработчиков. Позволяет генерировать код, писать функции, помогать с отладкой.

Шаги:

  1. Регистрируемся на CodeGPT.

  • Выбираем шаблон "Coding Assistant"

  • Вводим запрос, например: "Напиши функцию на JavaScript для проверки палиндрома".

  • Агент сгенерирует код, который вы можете сразу использовать.

Пример кода от CodeGPT (гипотетический результат):

function isPalindrome(str) {

  const cleanStr = str.toLowerCase().replace(/[^a-z0-9]/g, '');

  return cleanStr === cleanStr.split('').reverse().join('');

}

console.log(isPalindrome("A man, a plan, a canal: Panama")); // true

console.log(isPalindrome("race a car")); // false

Как использовать: после генерации — копируем полученный код и вставляем в свою рабочую среду (IDE). Платформы вроде CodeGPT позволяют быстро получать такие сниппеты без необходимости писать их вручную — удобно для прототипирования и ускорения рутинных задач.

Можно ли использовать AI-агентов в вашей профессии?

AI-агенты отлично ложатся на задачи из самых разных профессий. Вот где их реально применяют (и где я сам или коллеги тестировали такие кейсы):

  • Разработчики.
    Агенты помогают с генерацией кода, автодополнением, написанием тестов, разбором багов. Например, на LangChain можно собрать агента, который парсит документацию и подсказывает решения по API. Локальный агент на Ollama + Continue у меня работает прямо в VS Code — подсказывает по коду и оптимизирует функции без отправки данных наружу.

  • Менеджеры проектов.
    Агенты автоматизируют отчётность, трекинг задач, напоминания по проектам. Например, через Relevance AI собирали агента, который по крону формировал сводки по задачам и отправлял их в рабочие чаты.

  • Аналитики данных.
    Используют агентов для первичной обработки больших датасетов: разбор CSV, поиск аномалий, построение графиков. Хорошо работает в связке LangChain + Pandas API или через отдельные BI-интеграции.

  • Маркетологи.
    Агенты помогают анализировать эффективность кампаний, собирать тренды и генерировать контент (посты, тексты). Сам делал тестовый агент на LangChain, который парсил новостные фиды + соцсети по тематике проекта и формировал идеи для контента.

  • Творческие профессии (дизайн, тексты).
    Для дизайнеров и копирайтеров агенты помогают с генерацией идей, описаний, концептов. Простой кейс — CodeGPT для быстрого наброска описаний продуктов или Relevance AI для генерации moodboard-концепций по трендам.

  • Преподаватели и тренеры.
    Агенты генерируют тестовые вопросы, объясняют сложные темы, готовят учебные материалы. Для задач, где важна приватность (например, внутренняя методичка), удобно использовать локального агента на Ollama.

Ограничения и этические вопросы

Несмотря на все плюсы, при работе с AI-агентами есть нюансы, которые стоит учитывать:

  • Точность и ошибки.
    LLM-модели не гарантируют 100% точности. Агент может вернуть устаревший или некорректный ответ, особенно если модель обучалась на неполных или предвзятых данных. Например, в коде — подсказать неоптимальное или небезопасное решение, в данных — некорректно интерпретировать числовые зависимости.

  • Конфиденциальность.
    При использовании облачных платформ часть данных уходит на внешние серверы. Для чувствительных задач (финансы, внутренние регламенты, корпоративный код) лучше использовать локальные решения — например, Ollama или корпоративные решения вроде Minerva Copilot, где модель работает внутри периметра компании.

  • Этические аспекты.
    Автоматическая генерация контента поднимает вопросы ответственности. Кто отвечает за ошибку или плагиат, сгенерированный агентом? Кроме того, стоит отслеживать, чтобы модель не усиливала встроенные предвзятости (например, в подборе рекомендаций или в маркетинговых анализах).

  • Зависимость от инструментов.
    Чрезмерная автоматизация рискует «размывать» навыки у новичков. Если на этапе обучения специалист сразу полагается на агента, есть риск, что он не разовьёт базовые компетенции в своей области. Тут важно держать баланс между автоматизацией и реальным пониманием процессов.

В итоге я выиграл спор и собрал ИИ-агента за вечер. Конечно, не без фейлов, но результат — рабочий инструмент для проектов, данных и кода. Это реально, и сам не ожидал, что всё так быстро получится. Так что, если решите повторить, вперед!


У Minervasoft есть свой блог в Telegram. Там выходят статьи про ИИ и управление знаниями, обсуждаются спорные вопросы в найме, менеджменте и планировании. Подпишитесь, чтобы не пропустить новые тексты.

Блог Minervasoft

Комментарии (5)


  1. Moog_Prodigy
    12.06.2025 02:40

    Агенты без проблем пишутся и на чистом питоне с requests, зачем тащить еще фреймворки, если даже код ну почти такой же будет?


  1. Kealon
    12.06.2025 02:40

    Написал, хорошо.

    Вопрос: а что этот агент уже сделал и за сколько денег?


  1. bot1no4ek
    12.06.2025 02:40

    Понятное дело, что статья для рекламы самих себя, но почему выбраны такие странные способы реализации, особенно в части no-code? Так есть лидеры в числе n8n и flowise и на ютубе уже полно роликов, где подобных агентов делали ща условные полчаса... Плюс меня смущает тот момент, что статья для ру комьюнити, а доступ к опен аи предлагают напрямую, что мне кажется больше похоже на то, что статья написана с помощью того же аи...


    1. vistar
      12.06.2025 02:40

      Конечно, ещё и ии-дубль: https://vc.ru/ai/2036365-sozdanie-ii-agenta-za-vecher.


  1. Ext_Art
    12.06.2025 02:40

    Мне вот непонятно - где результат этого титанического труда? Его нет, то есть показать то нечего?