Поспорил с коллегой, что соберу своего ИИ-агента за вечер. Он посмеялся, я завёл терминал.
За 19 лет в айти я участвовал в автоматизации процессов, писал ботов, даже обучал нейросети для поиска багов. Но вот чтобы сделать персонального ИИ-агента — такого, который реально помогает, а не просто болтает — руки не доходили. Пока не появился повод в виде лёгкой подколки в чате.
Пошёл по трём направлениям: кастом на LangChain, локальная сборка через Ollama и no-code-конструкторы. Где-то пришлось попотеть с кодом, где-то — удивиться, насколько просто всё работает.
В статье расскажу, что пробовал, какие подходы реально рабочие, что стоит времени, а что — лучше оставить гикам. Будет и гайд, и код, и пара фейлов. Но спойлер: кэш я всё-таки забрал.
Оглавление
Как работают AI-агенты
Если упростить, AI-агент — это программа, которую можно встроить в свой стек и настроить под конкретные проекты: не просто «поиск в гугле», а полноценная работа с кодом, данными или проектными задачами.
Под капотом у большинства ИИ-агентов — большие языковые модели (LLM): Mistral, Llama, OpenAI GPT и др. Они обучены на больших датасетах и умеют обрабатывать текст, генерировать ответы и выполнять команды.
Структура работы агента выглядит примерно так:
Запрос. Пользователь формулирует задачу: например, «напиши функцию на Python для сортировки списка» или «собери план проекта». Агент (через LLM) интерпретирует запрос, извлекает контекст и определяет цель.
Интеграция с инструментами. Для выполнения более сложных задач агент подключается к внешним инструментам: API, поисковикам, базам данных, файловым системам или IDE. Например, может сделать поиск в интернете или взаимодействовать с API IDE для анализа кода.
Планирование и выполнение действий. После интерпретации задачи агент решает, какие шаги предпринять: сгенерировать ответ, написать код, провести вычисления, собрать данные и т.п. Некоторые агенты реализуют паттерн react-description — динамически разбивают задачу на шаги и последовательно их отрабатывают.
Адаптация под пользователя. Если есть механизм обратной связи, агент со временем подстраивается под стиль работы. Например, я обучал ИИ генерировать код в определённом стиле или учитывать корпоративные стандарты документации.
В плане реализации я чаще использую фреймворки вроде LangChain — он хорошо справляется с оркестрацией LLM и интеграцией со внешними источниками. Агент может работать локально (например, с Ollama), или через облачные платформы (типа Relevance AI).
Три подхода к созданию AI-агентов
Сначала расскажу про 3 подхода, которые сам пробовал: фреймворки для полной кастомизации, локальные инструменты — когда важна конфиденциальность, и no-code решения — если нужен быстрый результат без программирования. У каждого варианта есть свои плюсы, и выбор зависит от задач и уровня подготовки.
Фреймворки (LangChain, LlamaIndex): полный контроль и кастомизация
Уровень кастомизации: высокий
Что нужно уметь: программировать на Python
Инструменты: LangChain, LlamaIndex, crewAI
Когда применять: если нужен агент «под ключ» с полной кастомизацией — пишете логику сами, подключаете нужные API, управляете пайплайном. Подход для тех, кто хочет именно разработать агента под свои задачи, а не просто собрать из готовых блоков.



Фреймворки вроде LangChain, LlamaIndex и crewAI дают довольно гибкий инструмент для сборки кастомных AI-агентов. С их помощью можно собрать пайплайн, который будет выполнять нетривиальные задачи: от генерации кода и парсинга данных до автоматизации бизнес-процессов.
Например, LangChain позволяет легко интегрировать LLM с внешними API, базами данных, поисковыми системами. Плюс — даёт возможность управлять памятью ИИ-агента (чтобы он сохранял контекст диалога или цепочки задач).
В итоге на основе LangChain я собирал агента, который помогает писать и рефакторить код; вытаскивает релевантные куски из документации, автоматизирует первичный анализ логов. А коллеги использовали связку с CRM — чтобы агент автоматически готовил отчёты и подсвечивал аномальные значения в данных.
Минус у подхода ровно один — нужно уметь писать на Python и быть готовым повозиться с документацией фреймворка. Но если хотите полную кастомизацию под свои задачи — это один из лучших вариантов.
Локальные инструменты (Ollama, Continue): конфиденциальность и простота настройки


Уровень кастомизации: средний
Что нужно уметь: базовая настройка ПО
Инструменты: Ollama, Continue (плагин для VS Code)
Когда применять: если важно запускать агента локально и контролировать, куда уходят данные.
Локальные инструменты — хороший вариант, если вы работаете с конфиденциальной информацией или просто не хотите отправлять данные в облако.
Например, Ollama позволяет локально запускать LLM (например, Mistral или другие open-source модели) прямо на своём ПК. В связке с плагином Continue для VS Code получается довольно удобный рабочий агент прямо внутри IDE.
Он может:
— подсказывать по коду,
— генерировать куски функций,
— помогать с отладкой,
— генерировать идеи по архитектуре решения.
Как я использовал: поднял Ollama + Continue для автодополнения и объяснения кода в VS Code. Заодно тестировал работу с локальными CSV — удобно для быстрой аналитики без выхода в сеть.
Из плюсов — настройка занимает буквально 15–20 минут: скачал Ollama, загрузил модель, поставил плагин — и можно работать. Из минусов — модели всё же легче, чем облачные GPT, так что сложные запросы требуют аккуратной промпт-инженерии.
No-code платформы (Relevance AI, CodeGPT): быстрое создание без программирования


Уровень кастомизации: низкий
Что нужно уметь: ничего, только тыкать мышкой
Инструменты: Relevance AI, CodeGPT
Когда применять: если нужно быстро собрать рабочего агента без написания кода.
Если нет времени разбираться с фреймворками или писать свой пайплайн, можно пойти по пути no-code. Платформы вроде Relevance AI и CodeGPT позволяют буквально за пару минут собрать простого ИИ-агента через визуальный интерфейс.
Варианты применения:
в Relevance AI можно быстро собрать агента, который, например, будет формировать сводки по задачам или вытаскивать ключевые метрики из корпоративных данных;
в CodeGPT удобно настроить агента для генерации небольших скриптов или вспомогательных функций.
Как я использовал: делал на Relevance AI прототип для автоматизации отчётов по проектам. Хорошо подходит для быстрых MVP или проверки гипотез: посмотреть, как будет работать связка «агент + конкретная задача» без необходимости писать backend-логику.
Минус очевиден — кастомизации практически нет: вы работаете в рамках того, что предлагает платформа. Но, если нужно быстрое решение «на попробовать» или для нетехнических пользователей — такой вариант вполне рабочий.
А если вы внедряете ИИ в компании — познакомьтесь ближе с продуктами Minervasoft. В системе управления знаниями Minerva Knowledge есть технология DataHub, которая позволяет легко создать корпоративный «мозг» для GenAI и объединить любые источники информации, в том числе внутренние системы, базы знаний и другие хранилища данных.
К платформе можно подключить помощника с генеративным AI. Minerva Copilot полностью защищён и работает без интернета на базе технологий различных провайдеров: Naumen, AutoFAQ и других партнёров. Он встраивается в любую рабочую систему и даёт точные ответы на вопросы сотрудника со ссылкой на материалы из Minerva Knowledge. Быстро, качественно и с учётом контекста.
Попробовать продукты Minervasoft
Переходим к практике: создаём своего ИИ-агента
Теперь перехожу к конкретным примерам трёх подходов, о которых говорил выше: через фреймворки (на базе LangChain), локальные инструменты (Ollama + Continue в VS Code) и no-code платформы (Relevance AI, CodeGPT). Подготовил шаблоны как для новичков, так и для профессионалов.
Фреймворки (LangChain): Шаблоны для новичков и профессионалов

Пошаговая инструкция: Базовый AI-агент для поиска информации с LangChain
Эти шаги помогут вам создать вашего AI-агента, который сможет искать информацию в интернете и формировать ответ, используя библиотеку LangChain.
Что понадобится:
Python 3.8+: Убедитесь, что у вас установлена подходящая версия Python. Если нет, вы можете скачать ее с официального сайта Python.
LangChain: Библиотека, которая упрощает создание приложений на основе больших языковых моделей.
API-ключ для доступа к LLM (Large Language Model): Это может быть OpenAI (самый распространенный вариант для новичков) или Hugging Face. Этот ключ позволит вашему агенту взаимодействовать с мощными языковыми моделями.
API-ключ для SerpAPI или аналогичного сервиса: Для инструмента поиска Google Search, который мы будем использовать, потребуется API-ключ от сервиса, который предоставляет доступ к поисковым результатам. SerpAPI — один из таких сервисов.
Шаг 1: Подготовка окружения и установка зависимостей
Установите Python (если еще не установлен):
Перейдите на официальный сайт Python.
Скачайте и установите последнюю версию Python 3.8 или выше, следуя инструкциям для вашей операционной системы. Обязательно поставьте галочку "Add Python to PATH" во время установки на Windows.
python -m venv ai_agent_env
4. Активируйте виртуальное окружение:
На Windows:
.\ai_agent_env\Scripts\activate
На macOS/Linux:
source ai_agent_env/bin/activate
Вы увидите (ai_agent_env) перед вашей командной строкой. Это означает, что виртуальное окружение активно.
Установите необходимые библиотеки:
pip install langchain openai google-search-results
langchain: Основная библиотека для создания агента.
openai: Клиентская библиотека для работы с API OpenAI.
google-search-results: Эта библиотека используется LangChain для работы с SerpAPI, который предоставляет доступ к результатам поиска Google.
Шаг 2: Получение API-ключей
Для работы агента вам понадобятся два API-ключа:
-
API-ключ OpenAI:
Перейдите на сайт OpenAI.
Зарегистрируйтесь или войдите в свою учетную запись.
После входа в систему перейдите в раздел "API keys" (обычно в меню слева или в настройках профиля).
Нажмите "Create new secret key" и скопируйте сгенерированный ключ. Сохраните его в надежном месте, так как он будет показан только один раз.
-
API-ключ SerpAPI:
Перейдите на сайт SerpAPI.
Зарегистрируйтесь или войдите в свою учетную запись.
После входа в систему, ваш API-ключ обычно отображается на панели управления ("Dashboard"). Скопируйте его.
Шаг 3: Написание кода вашего AI-агента
Создайте новый файл Python:
В вашей рабочей директории (например, в папке ai_agent_env) создайте новый файл, например, agent_app.py.
Откройте этот файл в любом текстовом редакторе или IDE (например, VS Code, PyCharm, Sublime Text).
Вставьте следующий код:
from langchain.agents import load_tools, initialize_agent, AgentType
from langchain_openai import OpenAI # Изменено для новой версии LangChain
# 1. Укажите ваши API-ключи
# Рекомендуется хранить ключи в переменных окружения для безопасности
# Например, установите их в вашей системе как OPENAI_API_KEY и SERPAPI_API_KEY
# Для этого примера мы пока вставим их напрямую, но имейте в виду лучшую практику.
# ЗАМЕНИТЕ 'ВАШ_API_КЛЮЧ_OPENAI' на ваш актуальный ключ OpenAI
# ЗАМЕНИТЕ 'ВАШ_API_КЛЮЧ_SERPAPI' на ваш актуальный ключ SerpAPI
openai_api_key = "ВАШ_API_КЛЮЧ_OPENAI"
serpapi_api_key = "ВАШ_API_КЛЮЧ_SERPAPI"
# 2. Инициализация LLM (Large Language Model)
# Мы используем OpenAI в качестве модели.
# temperature=0 делает ответы модели более детерминированными (менее случайными).
llm = OpenAI(openai_api_key=openai_api_key, temperature=0)
# 3. Загрузка инструмента для поиска
# "google-search" - это инструмент, который использует SerpAPI для выполнения поиска в Google.
# Для этого инструмента нужен API-ключ SerpAPI, который мы передаем через environment variable
# или, как в нашем случае, указываем явно при загрузке.
tools = load_tools(["serpapi"], llm=llm, serpapi_api_key=serpapi_api_key)
# 4. Инициализация агента
# tools: Список инструментов, которые агент может использовать.
# llm: Большая языковая модель, которую агент использует для рассуждений.
# agent="zero-shot-react-description": Это тип агента. Он использует модель ReAct
# (Reasoning and Acting) для принятия решений о том, какой инструмент использовать и как рассуждать.
# verbose=True: Включает подробный вывод, который показывает, как агент принимает решения
# и какие шаги выполняет. Это очень полезно для отладки и понимания работы агента.
# agent_type=AgentType.ZERO_SHOT_REACT_DESCRIPTION: Это более современный способ указания типа агента.
agent = initialize_agent(
tools,
llm,
agent=AgentType.ZERO_SHOT_REACT_DESCRIPTION, # Изменено для новой версии LangChain
verbose=True
)
# 5. Запрос к агенту
# Здесь вы формулируете свой вопрос, который агент будет пытаться решить.
print("Запрос к агенту: 'Как создать AI-агента с LangChain?'")
response = agent.run("Как создать AI-агента с LangChain?")
# 6. Вывод ответа агента
print("\n--- Ответ агента ---")
print(response)
-
Замените заглушки API-ключей:
Найдите строку openai_api_key = "ВАШ_API_КЛЮЧ_OPENAI" и замените "ВАШ_API_КЛЮЧ_OPENAI" на ваш реальный API-ключ OpenAI.
Найдите строку serpapi_api_key = "ВАШ_API_КЛЮЧ_SERPAPI" и замените "ВАШ_API_КЛЮЧ_SERPAPI" на ваш реальный API-ключ SerpAPI.
Важное примечание по безопасности: В реальных проектах никогда не храните API-ключи непосредственно в коде. Вместо этого используйте переменные окружения (например, os.environ.get("OPENAI_API_KEY")) или другие безопасные методы хранения секретов.
Шаг 4: Запуск вашего AI-агента
Убедитесь, что ваше виртуальное окружение активно. Если вы закрыли терминал, вам нужно снова активировать его (Шаг 1, пункт 4).
Запустите скрипт Python:
В том же терминале, где активно виртуальное окружение, перейдите в директорию, где вы сохранили agent_app.py (если вы там еще не находитесь), и выполните команду:
python agent_app.py
Шаг 5: Анализ вывода
Когда вы запустите скрипт, вы увидите подробный вывод (благодаря verbose=True):
Вы увидите, как агент "думает" (Thought).
Он будет решать, какой Action (действие) предпринять, например, использовать serpapi_Google Search.
Затем он покажет Action Input (входные данные для действия), т.е. поисковый запрос.
После выполнения поиска он покажет Observation (наблюдение) — результаты поиска, полученные от SerpAPI.
Агент может повторять эти шаги, если ему нужно уточнить информацию или провести дополнительные поиски.
В конце он сформирует Final Answer (конечный ответ) на ваш запрос.
Возможные проблемы и их решения:
"API-ключ недействителен" / "Недостаточно средств": Проверьте правильность ваших API-ключей и убедитесь, что на вашем аккаунте OpenAI достаточно кредитов.
"Could not load tool google-search..." / "No such tool found": Убедитесь, что вы правильно установили google-search-results (pip install google-search-results) и что ваш ключ SerpAPI действителен. В новых версиях LangChain инструмент google-search может быть заменен на serpapi, как я исправил в коде выше.
Ошибки, связанные с версиями LangChain: Библиотека LangChain активно развивается. Если вы видите ошибки, связанные с импортами или функциями, возможно, вы используете более новую или старую версию. Попробуйте обновить LangChain (pip install --upgrade langchain) или обратиться к официальной документации LangChain для вашей версии. Я обновил код, чтобы он соответствовал более актуальным импортам LangChain.
"Rate limit exceeded": Вы сделали слишком много запросов за короткий период времени. Подождите немного и попробуйте снова.
Пошаговая инструкция: ИИ-агент с интеграцией инструментов и памятью диалога
Этот гайд покажет вам, как создать более сложного AI-агента, который может не только выполнять вычисления, но и "помнить" предыдущие шаги диалога, что позволяет ему обрабатывать последовательные запросы с учетом контекста.
Что понадобится:
Python 3.8+: Установленная версия Python.
LangChain: Основная библиотека для создания агентов.
API-ключ для доступа к LLM (например, OpenAI): Для взаимодействия с большой языковой моделью.
Шаг 1: Подготовка окружения и установка зависимостей
Откройте терминал или командную строку.
-
Активируйте ваше виртуальное окружение (если вы создавали его ранее, как рекомендовано в предыдущей инструкции). Если нет, можете создать новое:
Создать новое виртуальное окружение: python -m venv advanced_agent_env
Активировать на Windows: .\advanced_agent_env\Scripts\activate
Активировать на macOS/Linux: source advanced_agent_env/bin/activate
Установите необходимые библиотеки:
pip install langchain openai
langchain: Основная библиотека.
openai: Клиентская библиотека для OpenAI.
Обратите внимание: В данном примере не требуется SerpAPI, так как мы не используем инструмент поиска Google. Вместо этого мы будем использовать инструмент для математических вычислений (llm-math).
Шаг 2: Получение API-ключа OpenAI
-
Если у вас еще нет API-ключа OpenAI, получите его, следуя инструкциям из предыдущего гайда:
Перейдите на сайт OpenAI.
Зарегистрируйтесь/войдите.
Перейдите в раздел "API keys" и создайте новый секретный ключ. Сохраните его!
Шаг 3: Написание кода вашего AI-агента с памятью
-
Создайте новый файл Python:
В вашей рабочей директории (например, в папке advanced_agent_env) создайте новый файл, например, memory_agent_app.py.
Откройте этот файл в вашем текстовом редакторе или IDE.
Вставьте следующий код:
Python
from langchain.agents import load_tools, initialize_agent, AgentType
from langchain_openai import OpenAI # Импорт из langchain_openai для новых версий
from langchain.memory import ConversationBufferMemory # Класс для работы с памятью
# 1. Укажите ваш API-ключ OpenAI
# ЗАМЕНИТЕ 'ВАШ_API_КЛЮЧ_OPENAI' на ваш актуальный ключ OpenAI
openai_api_key = "ВАШ_API_КЛЮЧ_OPENAI"
# 2. Инициализация LLM (Large Language Model)
# temperature=0 делает ответы модели более детерминированными (менее творческими).
llm = OpenAI(openai_api_key=openai_api_key, temperature=0)
# 3. Загрузка инструментов
# "llm-math": Это инструмент, который позволяет агенту выполнять математические вычисления.
# LLM сама по себе не всегда идеально справляется с точными вычислениями,
# поэтому делегирование этой задачи специализированному инструменту повышает точность.
# Инструмент llm-math внутренне использует LLM для парсинга выражения,
# поэтому передача llm в load_tools является обязательной.
tools = load_tools(["llm-math"], llm=llm)
# 4. Инициализация памяти для агента
# ConversationBufferMemory: Простой тип памяти, который хранит всю историю диалога.
# memory_key="chat_history": Имя ключа, под которым история диалога будет доступна LLM.
# Это важно, так как модель будет использовать этот ключ для доступа к контексту.
memory = ConversationBufferMemory(memory_key="chat_history")
# 5. Инициализация агента с памятью
# tools: Список инструментов, которые агент может использовать.
# llm: Большая языковая модель для рассуждений и генерации ответов.
# agent="conversational-react-description": Этот тип агента разработан специально
# для поддержки диалогов с памятью. Он также использует парадигму ReAct.
# memory: Объект памяти, который будет передаваться агенту.
# verbose=True: Включает подробный вывод, который показывает внутренние шаги агента.
# Это особенно полезно для отладки и понимания, как агент использует память.
agent = initialize_agent(
tools,
llm,
agent=AgentType.CONVERSATIONAL_REACT_DESCRIPTION, # Изменено для новой версии LangChain
memory=memory,
verbose=True
)
# 6. Примеры взаимодействия
print("--- Первый запрос ---")
response1 = agent.run("Сколько будет 15% от 200?")
print(f"Ответ агента 1: {response1}\n")
print("--- Второй запрос (с использованием контекста) ---")
response2 = agent.run("А если прибавить к этому 50?")
print(f"Ответ агента 2: {response2}\n")
print("--- Третий запрос (с использованием контекста) ---")
response3 = agent.run("Вычти из этого 25.")
print(f"Ответ агента 3: {response3}\n")
# Вы можете продолжить диалог, чтобы увидеть, как агент сохраняет контекст.
# print("--- Четвертый запрос ---")
# response4 = agent.run("Что такое LangChain?")
# print(f"Ответ агента 4: {response4}\n") # Этот запрос не связан с вычислениями, но агент все равно помнит предыдущий диалог.
-
Замените заглушку API-ключа:
Найдите строку openai_api_key = "ВАШ_API_КЛЮЧ_OPENAI" и замените "ВАШ_API_КЛЮЧ_OPENAI" на ваш реальный API-ключ OpenAI.
Шаг 4: Запуск вашего AI-агента
Убедитесь, что ваше виртуальное окружение активно.
Запустите скрипт Python:
В терминале, где активно виртуальное окружение, выполните команду:
python memory_agent_app.py
Шаг 5: Анализ вывода
Когда вы запустите скрипт, обратите внимание на подробный вывод (verbose=True).
-
Первый запрос (Сколько будет 15% от 200?):
Вы увидите, как агент "думает" и решает использовать инструмент Calculator (или llm-math в зависимости от внутренней реализации).
Он выполнит расчет и выдаст Final Answer.
-
Второй запрос (А если прибавить к этому 50?):
Здесь ключевое отличие: агент, благодаря ConversationBufferMemory, "помнит" предыдущий ответ (результат 15% от 200, который равен 30).
Вы увидите, что в Thought агента будет присутствовать история чата (chat_history), которая содержит предыдущие вопросы и ответы.
Агент поймет, что "к этому" относится к предыдущему результату, и прибавит 50 к 30.
-
Третий запрос (Вычти из этого 25.):
Аналогично, агент будет использовать текущий контекст диалога (предыдущий результат, 80) и вычтет из него 25.
Этот механизм памяти делает агента гораздо более полезным и интерактивным, позволяя ему вести связный диалог.
Возможные проблемы и их решения:
"API-ключ недействителен" / "Недостаточно средств": Проверьте правильность вашего API-ключа OpenAI и баланс на вашем аккаунте.
Ошибки импорта (from langchain.llms import OpenAI): В более новых версиях LangChain импорты для моделей перенесены в подпакеты, например, from langchain_openai import OpenAI. Я уже исправил это в коде выше. Убедитесь, что у вас установлена соответствующая версия LangChain или скорректируйте импорт.
Агент не "помнит": Убедитесь, что вы правильно инициализировали ConversationBufferMemory и передали ее в initialize_agent через параметр memory=memory. Также проверьте, что agent тип установлен на AgentType.CONVERSATIONAL_REACT_DESCRIPTION.
Неточности в вычислениях: Хотя llm-math повышает точность, сложные или неоднозначные формулировки могут иногда сбивать LLM при парсинге запроса для инструмента. Старайтесь формулировать запросы к вычислениям максимально четко.
Эта инструкция значительно расширяет возможности вашего агента, позволяя ему работать с контекстом и выполнять вычисления. Это важный шаг к созданию более сложных и интеллектуальных AI-приложений.
Локальные инструменты (Ollama, Continue): настройка и использование
В этом примере — как настроить локального AI-агента на базе Ollama + Continue для VS Code. Такой агент работает полностью локально и интегрируется прямо в IDE — помогает с генерацией и рефакторингом кода, даёт подсказки по синтаксису и структуре.
Шаги настройки:
Устанавливаем Ollama на локальную машину (дистрибутив — на официальном сайте). Проверяем установку:
ollama --help

В терминале или powershell окне запустите:
ollama serve

ollama run qwen2.5-coder:7b

3. Установите расширение Continue в Visual Studio Code (доступно в marketplace).
4. Настройте Continue

Как описано в документации continue, нужно создать файл config.json:
{
"models": [
{
"title": "Qwen2.5-Coder",
"provider": "ollama",
"model": "qwen2.5-coder:7b"
}
]
}
Как использовать: после настройки — выделяем нужный фрагмент кода в VS Code, нажимаем Cmd + Shift + R (или соответствующую комбинацию на Windows). Вводим запрос — например:
«Объясни этот код» или «Исправь ошибку».
Агент обрабатывает запрос локально, без отправки данных в облако — что важно при работе с закрытым кодом или корпоративными проектами.
No-code платформы (Relevance AI, CodeGPT): Быстрая настройка
Relevance AI
Через Relevance AI можно собрать простого агента через визуальный интерфейс — без кода.
Шаги:
Заходим на Relevance AI, регистрируемся (достаточно бесплатного плана).

Выбираем шаблон, например, "Habr Digital Writer".

Настраиваем агента: в визуальном интерфейсе задаём, какие задачи он должен выполнять. Пример — «Собирай заголовки с англоязычного Хабра и формируй отчёт, чтобы было удобно выбрать, что почитать».
Запускаем агента и тестируем на простом запросе, например: «Проверь сайт и скажи, что почитать сегодня».


CodeGPT
CodeGPT — инструмент с уклоном на задачи для разработчиков. Позволяет генерировать код, писать функции, помогать с отладкой.
Шаги:
Регистрируемся на CodeGPT.

Выбираем шаблон "Coding Assistant"
Вводим запрос, например: "Напиши функцию на JavaScript для проверки палиндрома".
Агент сгенерирует код, который вы можете сразу использовать.
Пример кода от CodeGPT (гипотетический результат):
function isPalindrome(str) {
const cleanStr = str.toLowerCase().replace(/[^a-z0-9]/g, '');
return cleanStr === cleanStr.split('').reverse().join('');
}
console.log(isPalindrome("A man, a plan, a canal: Panama")); // true
console.log(isPalindrome("race a car")); // false
Как использовать: после генерации — копируем полученный код и вставляем в свою рабочую среду (IDE). Платформы вроде CodeGPT позволяют быстро получать такие сниппеты без необходимости писать их вручную — удобно для прототипирования и ускорения рутинных задач.
Можно ли использовать AI-агентов в вашей профессии?

AI-агенты отлично ложатся на задачи из самых разных профессий. Вот где их реально применяют (и где я сам или коллеги тестировали такие кейсы):
Разработчики.
Агенты помогают с генерацией кода, автодополнением, написанием тестов, разбором багов. Например, на LangChain можно собрать агента, который парсит документацию и подсказывает решения по API. Локальный агент на Ollama + Continue у меня работает прямо в VS Code — подсказывает по коду и оптимизирует функции без отправки данных наружу.Менеджеры проектов.
Агенты автоматизируют отчётность, трекинг задач, напоминания по проектам. Например, через Relevance AI собирали агента, который по крону формировал сводки по задачам и отправлял их в рабочие чаты.Аналитики данных.
Используют агентов для первичной обработки больших датасетов: разбор CSV, поиск аномалий, построение графиков. Хорошо работает в связке LangChain + Pandas API или через отдельные BI-интеграции.Маркетологи.
Агенты помогают анализировать эффективность кампаний, собирать тренды и генерировать контент (посты, тексты). Сам делал тестовый агент на LangChain, который парсил новостные фиды + соцсети по тематике проекта и формировал идеи для контента.Творческие профессии (дизайн, тексты).
Для дизайнеров и копирайтеров агенты помогают с генерацией идей, описаний, концептов. Простой кейс — CodeGPT для быстрого наброска описаний продуктов или Relevance AI для генерации moodboard-концепций по трендам.Преподаватели и тренеры.
Агенты генерируют тестовые вопросы, объясняют сложные темы, готовят учебные материалы. Для задач, где важна приватность (например, внутренняя методичка), удобно использовать локального агента на Ollama.
Ограничения и этические вопросы
Несмотря на все плюсы, при работе с AI-агентами есть нюансы, которые стоит учитывать:
Точность и ошибки.
LLM-модели не гарантируют 100% точности. Агент может вернуть устаревший или некорректный ответ, особенно если модель обучалась на неполных или предвзятых данных. Например, в коде — подсказать неоптимальное или небезопасное решение, в данных — некорректно интерпретировать числовые зависимости.Конфиденциальность.
При использовании облачных платформ часть данных уходит на внешние серверы. Для чувствительных задач (финансы, внутренние регламенты, корпоративный код) лучше использовать локальные решения — например, Ollama или корпоративные решения вроде Minerva Copilot, где модель работает внутри периметра компании.Этические аспекты.
Автоматическая генерация контента поднимает вопросы ответственности. Кто отвечает за ошибку или плагиат, сгенерированный агентом? Кроме того, стоит отслеживать, чтобы модель не усиливала встроенные предвзятости (например, в подборе рекомендаций или в маркетинговых анализах).Зависимость от инструментов.
Чрезмерная автоматизация рискует «размывать» навыки у новичков. Если на этапе обучения специалист сразу полагается на агента, есть риск, что он не разовьёт базовые компетенции в своей области. Тут важно держать баланс между автоматизацией и реальным пониманием процессов.
В итоге я выиграл спор и собрал ИИ-агента за вечер. Конечно, не без фейлов, но результат — рабочий инструмент для проектов, данных и кода. Это реально, и сам не ожидал, что всё так быстро получится. Так что, если решите повторить, вперед!
У Minervasoft есть свой блог в Telegram. Там выходят статьи про ИИ и управление знаниями, обсуждаются спорные вопросы в найме, менеджменте и планировании. Подпишитесь, чтобы не пропустить новые тексты.
Комментарии (5)
bot1no4ek
12.06.2025 02:40Понятное дело, что статья для рекламы самих себя, но почему выбраны такие странные способы реализации, особенно в части no-code? Так есть лидеры в числе n8n и flowise и на ютубе уже полно роликов, где подобных агентов делали ща условные полчаса... Плюс меня смущает тот момент, что статья для ру комьюнити, а доступ к опен аи предлагают напрямую, что мне кажется больше похоже на то, что статья написана с помощью того же аи...
vistar
12.06.2025 02:40Конечно, ещё и ии-дубль: https://vc.ru/ai/2036365-sozdanie-ii-agenta-za-vecher.
Ext_Art
12.06.2025 02:40Мне вот непонятно - где результат этого титанического труда? Его нет, то есть показать то нечего?
Moog_Prodigy
Агенты без проблем пишутся и на чистом питоне с requests, зачем тащить еще фреймворки, если даже код ну почти такой же будет?