Alibaba выпустила Qwen Code в 2025 году на базе исходников Google Gemini CLI. Собственно, форкнули, адаптировали под собственные модели Qwen-Coder и открыли под Apache-2.0. По умолчанию работает на Qwen3.6-Plus - самая свежая модель, т.к. вышла 2 апреля 2026. Актуальная версия агента на момент этого текста - 0.14.3.
Агент запускается в терминале. Умеет читать, создавать и изменять файлы, запускать команды в терминале и вести многошаговую работу над задачей. Сам все планирует и реализует.
Через MCP-протокол может подключать внешние инструменты.
Context7 - дает доступ к актуальной документации фреймворков и библиотек.
Playwright - доступно управление браузером из агента, можно проверять UI автоматически.
GitHub - читает репозитории напрямую.
Помимо Qwen-моделей агент подключается к OpenAI-совместимым API, Anthropic и Google Gemini - через ~/.qwen/settings.json. Есть интеграции для VS Code, JetBrains и Zed.
Skills - ещё одна полезная штука. Это текстовые файлы-инструкции, которые агент читает перед началом работы. Если вы хотите, чтобы агент всегда писал типизированный Python или не трогал определённые файлы - это туда.
Установка
Всё открыто. Репозиторий - github.com/QwenLM/qwen-code, там же исходники и список изменений. Официальная документация - qwenlm.github.io/qwen-code-docs/en/users/overview/. Аккаунт для OAuth-авторизации создаётся на qwen.ai - бесплатно, достаточно email или Google.
Требуется Node.js 20 или новее. Проверка версии:
node --version
Если ниже 20 - скачать LTS с nodejs.org. Затем:
npm install -g @qwen-code/qwen-code@latest
Проверить установку:
qwen --version
Должно вернуть 0.14.3 или новее. Пакет называется именно @qwen-code/qwen-code - есть неофициальные обёртки под похожими именами, они к этому инструменту отношения не имеют.
На Windows первую установку нужно делать из CMD, запущенного от администратора - иначе могут не прописаться переменные окружения PATH.
Авторизация

Запускаете агента:
qwen

Внутри сессии вводите:
/auth
Выбираете Qwen OAuth - открывается браузер, нажимаете Confirm на qwen.ai. Токен сохраняется локально, повторно авторизоваться не нужно.

В CI, SSH и headless-средах OAuth не работает - браузер там не откроется. В этих случаях нужен API-ключ от Alibaba Cloud ModelStudio, который прописывается в ~/.qwen/settings.json вручную в секции modelProviders.
Дальше - пишете задачу в терминале на русском или английском.
Давайте протестируем
Мы дали агенту задачу в рамках пустой папки, без заготовленных файлов. Задача: написать Telegram-бота на Python с библиотекой aiogram 3. При старте /start - бот присылает приветствие и кнопку "Покажи фото котика". При нажатии - запрашивает случайное фото через The Cat API и отправляет его. После фото кнопка появляется снова.

Агент последовательно приступил к выполнению задачи.

По итогу - мы получили три файла. Запускаем бота и..
Агент подставил в код не тот API-ключ - сгенерировал похожий по формату вместо указанного в промпте. Исправилось заменой одной строки. Но, к слову, и флагманские нейросети могут дурить с предоставленными реальными кредами, да и отдавать их агенту - не особо правильно, лучше вставлять потом самостоятельно.
Добавили токен и бот отработал корректно.

Время от промпта до рабочего кода - около 3 минут.
Что там по лимитам
Бесплатный тариф через Qwen OAuth: 1 000 запросов в день. Лимит обнуляется ежедневно. Для работы над мелким проектом в среднем уходит от 50 до 200 запросов в сутки.
Если лимит исчерпан или нужно больше - подключается собственный ключ любого совместимого провайдера через modelProviders в настройках. Платный Coding Plan от Alibaba - подписка с расширенной квотой, оформляется на Alibaba Cloud ModelStudio.
Насколько это рабочий инструмент
Честно - пока очень уступает флагманам. От Claude Code или Cursor.
Конечно, на простых задачах разница будет минимальна. Написать бота, сделать скрипт, отрефакторить функцию - справляется нормально. Но на сложной архитектуре, на больших кодовых базах, на задачах, где нужно удерживать много контекста сразу - качество, понятное дело, еще хромает. Qwen3.6-Plus хорошая модель, но Claude и Gemini в кодинге пока впереди.
Другой момент - экосистема. Cursor, например, за два года оброс кучей мелких удобств: интеграция с редактором, подсказки прямо в коде, история изменений, а с последним обновлением умеет параллельно запускать множество ИИ-агентов, работающих с локальными файлами, удаленными SSH-серверами и облачными средами, что делает разработку более мощной и автономной.
Однако при цене в $0 и 1 000 запросов в сутки требования к инструменту другие. Для учёбы, для экспериментов, для задач, которые не стоят $20 в месяц - вполне. На нашем тесте с ботом написал рабочий код за три минуты с минимальной правкой. Для большинства повседневных задач этого достаточно.
Инструмент молодой. Версия 0.14.3 - это ещё не зрелый продукт. Возможно, через полгода сравнение будет другим.
Комментарии (46)

AleGen
12.04.2026 07:43Вообще-то в прошлом году он вовсю уже был.
Ставил его летом, поюзал, но меня он не впечатлил. Да, 1.000 бесплатных запросов в день - это, конечно, приятно. Но качество действительно хромает.

SabMakc
12.04.2026 07:43Вот-вот. С середины прошлого года он развивается. Но да, на базе gemini-cli, если не ошибаюсь.
Alibaba выпустила Qwen Code в 2026 году на базе исходников Google Gemini CLI.

Neyroskuf Автор
12.04.2026 07:43Вы абсолютно правы, прошу прощения за эту опечатку) в августе 2025 года

Siddthartha
12.04.2026 07:43Конечно, на простых задачах разница будет минимальна. Написать бота, сделать скрипт, отрефакторить функцию - справляется нормально. Но на сложной архитектуре, на больших кодовых базах, на задачах, где нужно удерживать много контекста сразу - качество, понятное дело, еще хромает. Qwen3.6-Plus хорошая модель, но Claude и Gemini в кодинге пока впереди.
категорически не согласен)..
использую на постоянной основе, как рабочий инструмент для "AI assisted" бэкенд разработки.
1. прекрасно справляется как инструмент для генерации кода (а не для чистого вайбкодинга как "целиком проект по спеке" -- тут, похоже да, обвязка клода впереди. но это и не нужно в реальной коммерческой разработке)
2. если используешь клод для фуллтайм разработки -- тебе не хватит 20уе. это маркетинговый обман давно всем понятный.
3. сама модель (качество отдельного ответа) ничуть не хуже в кодинге, чем клод. проверял многократно.
4. 1000 запросов реально хватает -- т.е. инструмент действительно бесплатный, а не условно бесплатный. это очень важно, т.к. подходит как "первый выбор" при внедрениях в командах ибо не требует дополнительного финансирования на всю команду разработки.

devoln
12.04.2026 07:43А как модель по сравнению с Kimi k2.5? Про неё читал, что чуть ли не Sonnet 4.6. В Windsurf её дают бесплатно. Я её пробовал в Windsurf, тупит хуже, чем GPT 5.2 Low.
Вот думаю, стоит ли пробовать Qwen...

Triton5
12.04.2026 07:43Абсолютно уверенно заявляю, что под капотом Qwen Code coder-model это не Qwen3.6-Plus, а нечто гораздо более слабое. Можете сравнить с веб-версией или через платный API.
Как халява - ОК.
Для халявы можно ещё использовать бесплатные модели на openrouter (какие из реально работают, можно посмотреть на бесплатном free model router-е https://openrouter.ai/openrouter/free
Также есть бесплатные модели у OpenCodе (использую desktop версию, она удобнее терминала - во всех терминальных клиентах перенос строк при вводе по Ctrl+J, и нет выделения мышью, это же неудобно). Мне наиболее адекватной показалась MiniMax2.5 Free, она кажется даже менее глючной чем Qwen Code coder-model.
Также у российской платформы BotHub есть бесплатные модели (в https://bothub.chat/models введите в поиск free), но там нужно ввести минимальный депозит эквивалент 3$ и у вас будет 100 бесплатных вызовов free моделей ежедневно, что конечно же маловато, но хоть такое есть, и то хорошо.
P.S. Прошу пост не считать рекламой, но упомянутые компании могут принести мне деньги в любое удобное для них время, в любой валюте :)
eps
12.04.2026 07:43OpenCodе (использую desktop версию, она удобнее терминала - во всех терминальных клиентах перенос строк при вводе по Ctrl+J, и нет выделения мышью, это же неудобно)
OpenCode TUI в iTerm2 прекрасен, выделение мышью работает хоть встроенное, хоть терминальное (с зажатым Option), перенос строк по Shift+Enter.

neodavinchi
12.04.2026 07:43...The Cat API
Это сделало мой день. ^_^
Любопытно, насколько qwen-cli хорош в системном администрировании VPS? Всё никак руки не дойдут проверить. Возможно вы пробовали?

eps
12.04.2026 07:43В CI, SSH и headless-средах OAuth не работает - браузер там не откроется. В этих случаях нужен API-ключ от Alibaba Cloud ModelStudio, который прописывается в ~/.qwen/settings.json вручную в секции modelProviders.
Наверное, можно авторизоваться дома, а потом закинуть конфиг с ключом oAuth на безголовый сервер.

SabMakc
12.04.2026 07:43Там достаточно вручную ссылку открыть в браузере и авторизоваться - и все заработает. Там именно что “браузер сам не отрывается”.

stranger777
12.04.2026 07:43Прямо сейчас делаю на нём инструмент. Иногда его нужно пинать братом: разжёвываниями от Qwen 3.6. Пример. Жаловался на ошибку БД, что это баг sqlx (мол, биндинг типов не работает). И что в новой версии не поправили (попросил насильно обновить зависимости). А тип строковый, база, я ему не поверил. Оказалось аффинность типов.
Теперь в QWEN.md стоит жёсткая напоминалка, что дока дороже форумов, спека дороже предположений и тому подобное. Настраивать надо, в общем, например, просить не идти на упрощения. Навыки пинать нужно, память. Субагенты работают не очень. Но в общем и целом очень даже инструмент.

SabMakc
12.04.2026 07:43В CI, SSH и headless-средах OAuth не работает - браузер там не откроется.
У вас даже на картинке “посетите по этой ссылке сайт”. Все прекрасно работает, надо только вручную открыть предложенную ссылку в браузере.

Diamon33
12.04.2026 07:43Честно - пока очень уступает флагманам. От Claude Code или Cursor.
У Cursor есть своя модель? Это которая токенайзер от Kimi использует? Понимаю.
Мб имелась ввиду совершенно никому не известная OpenAI с совершенно неизвестной GPT 5.4?
Тут еще маленькая инди-компания Google не так давно выпустила модель Gemini, но это совсем надо долго в интернете копаться.

marsden
12.04.2026 07:43Ну вообще-то qwen уже задумался о прикрытии халявы https://3dnews.ru/1139793/qwen-zakrivaetsya-alibaba-sosredotochitsya-na-perevode-ii-na-kommercheskie-relsi

HyperWin
12.04.2026 07:43По работе заставили подрубить. Я прям удивлен, работает неожиданно хорошо. Помогло несколько багов мерзких решить. Слава китайским нейронкам:D

Sasha_Misik
12.04.2026 07:43Эх, не хотел вайбкодингом занимать, но после статьи и коментов: желание попробовать, как минимум, появилось. Автор, даёшь туториал для начинающих )

Derevtso
12.04.2026 07:43Ах вот почему со вчерашнего дня Qwen чат такой отчаянно задумчивый. Хаброэффект!

ZhenyaRUS39
12.04.2026 07:43А нет ли возможности эту бесплатную qwen подключить к openclaw, как основную для использования tools и прочего?

AlexanderG
12.04.2026 07:432026-04-13: Qwen OAuth free tier policy update: daily quota adjusted to 100 requests/day (from 1,000). The free tier will be discontinued on 2026-04-15. Please upgrade to Alibaba Cloud Coding Plan for continued service with higher quotas and more models.
Похоже, халява кончилась?

Cogitatus
12.04.2026 07:43Могу ошибаться, но похоже что это OAuth ограничение, чтобы агентами на спамили.

Triton5
12.04.2026 07:43https://www.alibabacloud.com/help/en/model-studio/qwen-code
вот здесь написано что 1000 в день

Vladyslav_Ponpm
12.04.2026 07:43халявы больше не будет. С 15 числа теперь ток платно

ElmirShagiev
12.04.2026 07:43Не пугайте людей. В комментарии выше написали же, что урезается количество запросов с тысячи до ста.

AR1ES
12.04.2026 07:43В анонсе написано 2 вещи. Уменьшили с 1000 до 100. И то что с 15 числа будет отключено полностью. Только начал пользоваться. 1 день прошел и такие новости. Я расстроен...

AR1ES
12.04.2026 07:43Спасибо за статью. Уже ни раз думал попробовать, а тут такой шанс, да ещё и бесплатно. Все просто в пару команд буквально. Для больших проектов пока не уверен, а вот для вспомогательных утилит - очень даже не плохо.
Но есть пару вопросов - а есть ли реальная информация: где-то хранит он контекст между сессиями? Ну т.е. есть ли реально где-то история, как в обычном чате от qwen (ну т.е. буквально - можно где-то посмотреть историю работ/диалогов или нет). И ещё не увидел, где посмотреть и оценить, сколько из лимита "выбрано", а сколько осталось, это где-то доступно?
lavandil_by
12.04.2026 07:43Он хранит истории чатов и к ним можно подключиться. По-моему лимиты в free версии нельзя чекнуть, после сессии только глянуть статистику запросов/токенов.

AR1ES
12.04.2026 07:43Может есть ещё хорошие альтернативы, которые все же бесплатно? Как я понимаю, с 16 числа можно будет только оплачивать подписку за 50 долларов.

ElmirShagiev
12.04.2026 07:43Есть. Сегодня поставил себе OpenCode и он предоставляет несколько бесплатных моделей на выбор. Что удивительно, даже регистрация не требуется.

radislaw
12.04.2026 07:43Очень крутой агент. Я использую уже месяц и кайфую. Разницы с Gemini или codex не заметил. Задачи делаю как пирожки горячие. Но сегодня написали, что халява закончится через 2 дня
jarkevithwlad
пользуюсь постоянно, пока ценник 0, это отличный инструмент, ну и лично у меня он лучше всего работает с локальными моделями, как минимум значительно быстрее всех, все остальные то ли не пользуются кэшем, толи ещё что, например в claude code чем больше контекста тем больше он его обрабатывает и замедляется
p.s. не понял насчёт oauth он же без проблем работает в консоли, вроде как даёт qr код + ссылку для авторизации через браузер
Rezzet
Попробуйте OpenCode проект очень активно развивается, по два релиза в день. Пользуюсь им для локальных моделей. Не для локальных то же, с ним можно почти ко всем поставщикам API напрямую подключаться по ключу. Для Qwen не имеет смысла, т.к. есть свой агент, а вот для GLM и MiniMax имеет, модели то же очень хорошие, вообще все китайские модели за последние пару месяцев сильно подтянулись, я бы сказал что это уже почти уровень последних версий GPT и Gemmini, а до Opus 4.6 всем далеко включая тех двух. Как минимум так была на пару недель назад, сейчас Opus почему-то сильно тупеет, начинает полный бред выдавать и какой-то ерундой страдать. Плюс сильно замедлился. Такое чувство что в пиковые часы его или на более простую модель подменяют, или крутят ему уровень "умности". Но работать стал плохо.
JeanPool
Новость была, что claude урезала на 2/3 количество циклов размышлений (никому не сказав) , поэтому и стал глупым. Шринкфляция по ии'шевски
Sidrez
А какие локальные модели используете и какие задачи решаете?
Rezzet
Какие задачи можно решать с помощью кодинг агента? Программировать. Работаю с большим игровым проектом. Локальными моделями с рабочим. Облачными с домашними хомяками.
Если вы не олигарх, то выбор локальных моделей у вас сильно ограничен размером вашей видеопамяти. Как правило это будет 16-32Гб, еще неделю назад лидер там был один Qwen 3.5, потом вышла Gemma 4. Последняя вроде чуть лучше, но пока у нее проблемы с вызовом тулов, надо немного подождать пока ее подфиксят. На самом деле у обоих моделей два варианта, чисто текстовая "сплошная" модель и мультимодальные MoE варианты. Программируют лучше "сплошные" текстовые версии. Но тут засада, "сплошные" версии сильно падают в скорости, если вы ее распиливаете между GPU и CPU, а на 16Гб видеопамяти вы будете ее распиливать. На 24Гб уже можно запустить UD вариант Qwen3.5 27B чисто на видеокарте. А если еще взять чистый llama.cpp и экспериментальный бранч с TurboQuant то и контекста больше 100к токенов получится сделать.
Если коротко возиться с локальными моделями имеет смысл, если есть очень строгое ограничение на использование облачных моделей. Во всех остальных случаях заплатите 20-60 баксов за Cursor, GLM, Kimi, Minimax, Qwen(можно не платить) и получите на порядки лучше результат. Разница между локальными и облачными просто огромная, катастрофическая. Любая(из популярных) облачная модель будет на порядки(именно порядки!) умнее и лучше локальной в пределах 80B(а для запуска такого вам надо будет иметь железа на $3500-10000). Собственно за эти деньги вы можете пару лет оплачивать самые дорогие тарифы любого облака.