Индустрия ИИ переживает рекордный бум: каждую неделю появляются новые модели, а заголовки пестрят новостями о многомиллионных контрактах и громких переходах звёздных исследователей. Прорывы происходят на всех уровнях: от чипов и инфраструктуры (NVIDIA и др.) до моделей и инструментов вроде Cursor или Windsurf.

Но у российских разработчиков выбор заметно ýже: ограничения, VPN, трудности с оплатой. Мы решили это изменить и создали Koda — AI-помощника, который доступен бесплатно и без VPN, работает с современными моделями и привычными функциями: автодополнение кода, чат, поиск по документации и коду проекта, а также агентный режим!

Что такое Koda?

Koda — AI-помощник для разработчика, который работает без VPN, отлично понимает русский язык и предоставляет доступ к современным моделям прямо из вашей IDE. Подойдёт и новичкам, и опытным разработчикам: от генерации простых сниппетов до сложных агентных сценариев с многими шагами.

Основные режимы работы

В Koda есть все ключевые форматы взаимодействия, знакомые по западным AI-ассистентам — но редко встречающиеся в российских аналогах:

  • Completion — автодополнение кода в реальном времени, прямо во время набора.

  • Chat — полноценный чат с моделью, который понимает и русский, и английский, и контекст вашего проекта.

  • Retrieval — поиск по документации, включая RAG-режим с подгрузкой данных из ваших источников.

  • Agent — пошаговое выполнение сложных задач с разбиением на подзадачи и автоматизацией рутины.

Важная работа, которую не видно с первого взгляда

Команда Koda начала изучать кодогенерацию на базе LLM ещё в 2021 году — задолго до появления культового Copilot. Именно наша команда стояла у истоков GigaCode, который стал популярным не только в экосистеме Сбера, но и за её пределами.

Покинув крупные корпорации, мы объединились как независимая команда, чтобы сделать продукт, который решает реальные задачи разработчиков.

Если говорить про технические детали, то под капотом у Koda ни одна, ни две, а целых 5 моделей взаимодействующих друг с другом для достижения лучшего результата. Подробнее про нюансы внутреннего устройства Koda мы расскажем в следующих статьях.

Мы продолжим развивать Koda, расширяя функциональность на основе нашего видения идеального инструмента и вашего фидбека. В ближайших планах — плагин для JetBrains IDE, консольная утилита, а также улучшение понимания конкретных технологий, языков, фреймворков и библиотек.

А это бесплатно?

Для индивидуальных разработчиков Koda сейчас полностью бесплатен — достаточно авторизоваться через GitHub. Мы хотим, чтобы так было всегда, но многое зависит от внешних факторов. Если когда-нибудь появится подписка, мы предупредим заранее, а часть моделей точно останется бесплатной.

Сейчас, в режиме preview, доступно 1 000 бесплатных запросов к внешним моделям, включая топовые. Когда лимит закончится, можно подключить свои токены или продолжить работать с бесплатными моделями от Koda — они тоже показывают отличные результаты.

А как попробовать?

  • Установите плагин Koda для VS Code.

  • Авторизуйтесь через GitHub.

  • Выберите нужный режим — и работайте так, как привыкли.

Никаких VPN, прокси и танцев с IP. Установили — и готово. Если появятся вопросы — пишите в наш Telegram-чат и присоединяйтесь к нашему Telegram-каналу.

FAQ
  1. Что делать, если 1 000 бесплатных запросов закончатся?

    Вы можете подключить свои оплаченные модели, указав токен доступа к стороннему провайдеру. Часть моделей с префиксом Koda остаётся доступной бесплатно. В будущем мы планируем реализовать подписочную модель для упрощения доступа к мощным моделям.

  2. Планируется ли внедрение подписок на модели?

    Да. После завершения периода бета-тестирования (preview) мы предложим платные подписки. При этом некоторые модели останутся бесплатными.

  3. У меня есть доступ к зарубежным AI-провайдерам, могу ли я ими воспользоваться?

    Да. Добавьте модель через интерфейс Add Chat Model, выберите нужного провайдера и введите свой токен доступа.

  4. Когда ждать поддержку JetBrains IDE?

    Мы уже работаем над версией для JetBrains IDE и рассчитываем выпустить её в течение ближайшего месяца.

  5. Как использовать Koda в CLI?

    Пока такая возможность отсутствует, но мы рассматриваем её добавление в будущем.

  6. Отправляет ли Koda мой код на свои серверы?

    Да. Код отправляется на серверы с GPU, где его обрабатывают модели. Если вы хотите избежать передачи кода на наши серверы, мы предлагаем корпоративные решения с развертыванием on-premise или on-cloud. Свяжитесь с нами, чтобы узнать детали.

  7. Какие языки программирования и фреймворки поддерживает Koda?

    Более 35 популярных языков и фреймворков, включая те, что занимают лидирующие позиции на GitHub.

  8. Можно ли получить API зарубежных моделей для использования в стороннем сервисе через Koda?

    Нет, мы не предоставляем такой возможности.

  9. Не нашел нужного вопроса

    Свяжитесь с нами — мы поможем вам получить нужную информацию.

Комментарии (18)


  1. PML
    14.08.2025 09:41

    Спасибо за материал! Подскажите "Авторизуйтесь через GitHub" - это обязательный пункт?


    1. Dmitry_zm Автор
      14.08.2025 09:41

      Нет, не обязательно. Только если вы хоти использовать trial модели не наши.


      1. VitaminND
        14.08.2025 09:41

        "If you prefer not to sign in, you can use Koda with your own API keys or local model."

        Т.е. если использовать ваши модели, то нужно авторизоваться через GitHub.


        А можно ему скормить папку проекта и задавать вопросы, чтобы он сам менял файлы по согласованию с разработчиком? Вот как, например, в Warp


        1. Dmitry_zm Автор
          14.08.2025 09:41

          Да, модели с названием KodaChat и КоdaAgent будут работать без аутентификации.

          Да, можно так и написать возьми такуюто папку пойми что там и перепиши код


  1. danilovmy
    14.08.2025 09:41

    Больше Code-wisperers хороших и разных.

    Оставлю тут: Zencoder-AI, от русских разработчиков появился точно на 2 года раньше Koda-AI и понимает русский.

    Такой же плагин, те же функции. А вы точно не списывали, или это ребрендинг Zencoder под русскую аудиторию?


    1. Dmitry_zm Автор
      14.08.2025 09:41

      К ZenCoder не имеем отношения никакого.)) И он же забугорный. Вряд ли они под русский затачивали модели.


  1. functyon
    14.08.2025 09:41

    попробую, когда выйдет под jetbrains


    1. Dmitry_zm Автор
      14.08.2025 09:41

      JetBrains версию пилим


      1. sl4mmer
        14.08.2025 09:41

        когда ждать?)


        1. Dmitry_zm Автор
          14.08.2025 09:41

          Надеюсь через месяц будет готова.


          1. Dmitry_zm Автор
            14.08.2025 09:41

            Еще будет CLI клиент. Тоже пилим.


  1. Biga
    14.08.2025 09:41

    Если компания будет использовать Koda, coda.io и так далее, то предложение "посмотри в коде" будет особенно эпичным.


    1. Dmitry_zm Автор
      14.08.2025 09:41

      Не понял о чем это вы)

      А, перечитал и понял))


  1. MonkeyWatchingYou
    14.08.2025 09:41

    Добрый день. Где именно можно узнать оставшееся кол-во запросов?


    1. Dmitry_zm Автор
      14.08.2025 09:41

      Когда выбираете модель с подписью trial то внизу чата появляется индикатор оставшихся запросов


  1. Dharmendra
    14.08.2025 09:41

    Что-то мне до боли напоминает эта неоновая илюминация-подсветка окошка при ожидании ответа на запрос юзера.. и модельки в олламе как-то странновато запускаются, где-то я именно эту тупую проблему с олламой ("num_gpu": 0 в запросах к эндпоинту) и видел.. Вспомнить бы где.. Чтобы это могло быть?.. Roo? :)


    1. Dmitry_zm Автор
      14.08.2025 09:41

      Вот не понял вопроса или к чему это вы) Есть какая-то проблема?


  1. comerc
    14.08.2025 09:41

    опубликуйте на open-vsx.org - не только vscode же