Дебаг, запуск проекта и рефакторинг. Все мы хорошо знакомы с этими фичами IDE и пользуемся ими практически каждый день. Но передовые ИИ-агенты для кодинга почему-то абсолютно ничего не знали про эту “базу” до релиза Veai 5.8 (ИИ-агент к JetBrains IDEs для написания кода, тестирования и отладки с доступом к топовым LLM и всем внутренним инструментам IDE) :)

Помимо глубокой интеграции агента с вашей любимой IDE, мы завезли ещё парочку улучшений и изменили подход к тарификации. Но обо всём по порядку.

Debug Mode: агент теперь умеет работать с дебаггером IDE

Когда баг не ловится по логам и не объясняется простым чтением кода, приходится открывать дебаггер и разбираться шаг за шагом самому. Многие из нас постоянно сталкивались с ситуацией, когда агент, не обладая таким необходимым навыком как “дебаггинг”, бесконечно пытался пофиксить ошибку, запуская компиляцию и пытаясь угадать причину по логам. 

Мы находимся в точке, когда с одной стороны команды агентов собирают компилятор с нуля и в то же время не умеют делать то, чему учат в онлайн школах стажеров буквально на первом-втором занятии. 

Теперь ваш агент умеет дебажить, как вы. Он может ставить брейкпоинты, запускать код под отладкой, анализировать состояние переменных и пошагово проверять гипотезы о причинах проблемы. В общем, делать всё то, что мы с вами делаем каждый день.

Запуск конфигураций IDE

У каждого из нас есть примерно с десяток различных run-конфигураций в IDE под каждый из проектов, над которым мы работаем. В одной есть секреты, другая запускается с ключиками для профилирования, третья указывает конкретный профиль и так далее.

Агент теперь может находить и запускать все ваши конфигурации ровно также, как это делаете вы. Это касается тестов, сборок, приложений, Gradle- и Maven-задач, а также пользовательских конфигураций. 

Для этого появились инструменты Get Configuration и Run Configuration. Один помогает получить список доступных сценариев запуска, другой запускает выбранную конфигурацию и возвращает результат, включая вывод консоли, результаты тестов и ошибки компиляции.

Новая функциональность сейчас работает только в IntelliJ IDEA, OpenIDE, GigaIDE и PyCharm. В остальные IDE добавим несколько позже.

Рефакторинг через действия IDE, а не через grep

Завершает интеграцию с IDE ещё одна новая фича — рефакторинг через возможности самой IDE. Для тех, кому это может показаться тривиальным, небольшой пример. 

Допустим, вы хотите переименовать класс в проекте. Все знают, что для этого есть действие Rename (⇧F6 на macOS / Shift+F6 на Windows/Linux) — оно переименует класс и все места, где он используется: прямые вхождения, импорты, тесты, в десятках связанных файлов.

Для решения такой простой задачи большинство агентов грепают проект: загружают каждый подходящий файл в контекст, читают его и только затем правят. 

Это:

1. Дорого

2. Медленно

3. И риск ошибки не исключен — например, агент может не догадаться переименовать геттер и сеттер, если речь идёт о поле.

Да и вообще, странно заниматься всем этим, когда в IDE есть специальное действие именно для такого случая!

Теперь агент может просто вызвать Rename — как это сделал бы каждый из нас.

Тарификация только за реальную работу модели

Мы меняем модель тарификации для персональных пользователей: вместо кредитов теперь используем поминутную оплату по времени работы модели над запросом. Речь идёт именно о compute-time — времени, которое модель тратит на обработку запроса и возврат ответа, а не о времени вашей сессии или работы в IDE. Это не время вашей работы в плагине, не длительность сессии и не время, пока IDE просто открыта. Купленные ранее кредиты будут автоматически пересчитаны в минуты.

Такой формат проще воспринимать и проще соотносить с реальной пользой. По нашей оценке, для персонального использования он получается примерно в два раза дешевле, чем отдельная подписка у любого из провайдеров, модели которых мы предоставляем, и в разы дешевле работы через API. 

При этом в подписке по-прежнему доступны все топовые модели: Opus, Sonnet, GPT, Haiku, Gemini, а также open source модели вроде GLM, MiniMax, Qwen и Kimi.

Улучшения чата и совместимость с последними версиями IDE

Сообщения в чате теперь можно отправлять в очередь, не дожидаясь завершения предыдущего ответа. Порядок сообщений в очереди можно менять, ненужное — удалять, при необходимости — отправить сообщение сразу, минуя очередь.

Для моделей в OpenAI-совместимом режиме добавили ручную настройку размера контекста — раньше плагин не всегда корректно определял этот лимит. Актуально для Qwen, DeepSeek и других моделей с нестандартным контекстным окном.

Поддержали все новые версии JetBrains IDE 2026.1 (IntelliJ IDEA, PyCharm, GoLand, WebStorm, Rider и PhpStorm)

Поиск и декомпиляция .NET-классов в Rider

Агент в Rider получил два новых инструмента для работы с .NET-кодом.

Поиск классов - агент может искать .NET-типы по имени в проекте, библиотеках и NuGet-пакетах. Поиск поддерживает фильтрацию по скоупу (только проект, только библиотеки, всё вместе) и префиксу пространства имён.

Декомпиляция - если исходный код класса недоступен (например, тип из NuGet-пакета или системной сборки), агент может декомпилировать его и прочитать содержимое прямо из IDE, без необходимости искать исходники в репозитории или скачивать пакет отдельно.

Полезно, когда вы просите агента разобраться в сторонней библиотеке, понять, как работает тип из NuGet-пакета, или найти нужный класс в большом решении с множеством зависимостей.

Устанавливайте Veai 5.8 бесплатно в JetBrains IDE. А если в работе вам не хватает каких-то возможностей или сценариев, смело пишите нам в чат или на support@veai.ru. Такие сообщения напрямую влияют на план следующих обновлений.

И подписывайтесь на наш Telegram-канал: там публикуем посты о релизах, грядущие изменения в продукте, новости из мира AI и свои мысли про использование AI в разработке.

Veai — команда профессиональных исследователей и разработчиков с практическим опытом в анализе кода, генерации тестов и поиске уязвимостей.

Комментарии (14)


  1. Wesha
    08.04.2026 15:12

    Как мы научили AI-агента пользоваться IDE: дебаг, рефакторинг и run-конфигурации.

    jegornet:
    Нейросеть за час справляется с тем, на что у команды синьоров уходят годы – превратить новый проект в неподдерживаемое легаси-говно.


    1. Dron007
      08.04.2026 15:12

      Пока что-то вот наоборот - в проектах, поддерживаемых самыми топовыми профессионалами, ИИ обнаруживает огромные дыры. Но люди ещё веруют в свои сверхспособности, как Каспаров верил, что шахматы машинам недоступны.


      1. Wesha
        08.04.2026 15:12

        Ну и как, доступны?

        «Если игральные кубики подбросить 100500 раз, то один раз таки выпадет шесть шестёрок» ©


        1. Sinclear
          08.04.2026 15:12

          Ага, вот тебе 5 кубиков)


          1. dibu28
            08.04.2026 15:12

            Шестой сделай сам)


      1. DamirMur
        08.04.2026 15:12

        Ну как находят. Знают что такая-то библиотека однозначно дырявая, вот и ищут её вхождение во все проекты. Отсюда гигантские цифры.


        1. Dron007
          08.04.2026 15:12

          Вы бы вот это почитали, а то совсем не в тему:
          https://habr.com/ru/news/1020854/
          https://habr.com/ru/companies/kodik/articles/1020826/


    1. Columpio
      08.04.2026 15:12

      Вот именно поэтому тут и добавили рефакторинг и дебаг инструменты: ИИ всё равно будет трогать ваш код, а так сломает меньше, чем могла бы


  1. MountainGoat
    08.04.2026 15:12

    Все мои попытки заставить ИИ найти и решить проблему в один запрос приводят к эффекту обезъяньей лапки. То есть решает, но таким способом, что нахрен такое счастье. Например, если какой-то кусок кода не работает, ИИ может просто написать новый, чтобы не чинить. А старый обычно оставит.

    Как всегда, в несколько шагов, с подтверждением от пользователя, всё работает отлично.


    1. amazingname
      08.04.2026 15:12

      Это модели сонет и опус 4.6? Как раз пишу довольно сложную логику но такого давно не видел.


  1. DamirMur
    08.04.2026 15:12

    Делюсь лайфхаком. Если кодовую базу проекта запихать в векторную базу, а потом использовать как mcp - сервер то 88% токенов сэкономите.


    1. Columpio
      08.04.2026 15:12

      Получал только полностью противоположные результаты с таким подходом: даже умные агенты превращались в генераторы мусора =)
      Ждём от вас статью с объяснением, как это сделать, чтобы оно гарантировано работало!


      1. DamirMur
        08.04.2026 15:12

        Мне ИИ сделал такой проект, и написал статью, но habr.ru, статьи написанные ИИ не готов публиковать - их ответ.

        Идея в том, чтобы отправлять платной модели не весь код, а подходящие небольшие куски кода и описания, на этом собственно и экономия.

        1. Актуальность

        1.1. Векторная база проекта создается, пересоздается и/или обновляется локально - экономия на эммбеддинге.
        1.2.При обновлении модуля проекта переписываются/дополняются, необходимые описания архитектура проекта или описания только модуля проекта.

        2. MCP-сервер должен выдавать актуальные куски кода (в количестве 5-10 штук), а не всю кодовую базу, с предыдущими нерабочими версиями.

        3. Всякие рутинные операции, типа поиска и замены вхождений, отправки в репозиторий, создания каталогов и шаблонов файлов, запуска, актуализация RAG проекта для mcp-сервера - должна уметь выполнять локальная модель (самообучающаяся) - у неё своя база инструкций, в том числе, как пользоваться инструментами IDE.


        1. headliner1985
          08.04.2026 15:12

          таких проектов уже миллион, весь реддит ими забит, раз в неделю появляется кто-то с кодовой раг системой которая ну вот точно решит все проблемы) только толку от таких проектов пока что немного, проще перед задачей сказать LLM изучи как работает вот эта фича, запиши все в md файл, а в новом чате уже задавать задачу и подсунуть сгенеренный md файл с описанием фичи.