31 марта 2026 года из npm source maps утёк исходный код Claude Code — CLI-агента от Anthropic. Буквально через часы на GitHub появился OpenClaude — форк, в который добавили OpenAI-совместимый провайдер. Суть: берёте весь инструментарий Claude Code (bash, чтение/запись файлов, grep, glob, MCP, агенты, задачи) и подключаете вместо Claude любую модель — GPT-4o, DeepSeek, Gemini, Llama через Ollama, или что угодно с OpenAI-совместимым API.
Давайте разберёмся, что это на самом деле, как работает технически и стоит ли связываться.
Что именно утекло и что с этим сделали
Сначала факты. Claude Code — это Node.js/TypeScript приложение, которое Anthropic распространяет как npm-пакет. Код обфусцирован, но source maps (файлы, которые связывают обфусцированный код с исходным) оказались доступны. Из них восстановили читаемый исходник.
OpenClaude — это этот восстановленный исходник плюс OpenAI-совместимый провайдер-шим. Шим перехватывает обращения к Anthropic API и транслирует их в формат OpenAI Chat Completions API. За счёт этого вместо Claude можно подключить любую модель.
Важно: это не «слив модели Claude». Модель Claude — это веса нейросети, которые живут на серверах Anthropic. Утёк код клиентского приложения — по сути, интерфейс, инструменты и логика агента. Модель вы используете свою.
Как это работает
Архитектура Claude Code (и, соответственно, OpenClaude) состоит из нескольких слоёв:
Агентный цикл. Пользователь пишет задачу → агент решает, какой инструмент использовать → вызывает инструмент → получает результат → решает, что делать дальше. Это стандартный ReAct-паттерн, но реализованный очень качественно.
Инструменты (tools). Полный набор для работы с кодом: Bash (выполнение команд), FileRead/FileWrite/FileEdit (работа с файлами), Grep/Glob (поиск), WebFetch/WebSearch (интернет), Agent (подагенты), MCP (Model Context Protocol — подключение внешних серверов), Tasks (планирование задач), LSP (Language Server Protocol — навигация по коду).
Провайдер модели. В оригинале — Anthropic API. В OpenClaude добавлен шим, который транслирует вызовы в OpenAI-формат:
# OpenAI export CLAUDE_CODE_USE_OPENAI=1 export OPENAI_API_KEY=sk-your-key export OPENAI_MODEL=gpt-4o # DeepSeek export CLAUDE_CODE_USE_OPENAI=1 export OPENAI_API_KEY=sk-your-key export OPENAI_BASE_URL=https://api.deepseek.com/v1 export OPENAI_MODEL=deepseek-chat # Ollama (локально, бесплатно) export CLAUDE_CODE_USE_OPENAI=1 export OPENAI_BASE_URL=http://localhost:11434/v1 export OPENAI_MODEL=llama3.3:70b # OpenRouter (200+ моделей) export CLAUDE_CODE_USE_OPENAI=1 export OPENAI_API_KEY=sk-or-your-key export OPENAI_BASE_URL=https://openrouter.ai/api/v1 export OPENAI_MODEL=google/gemini-2.5-pro
Память. Сессии сохраняются между запусками. Агент помнит контекст проекта, ваши предпочтения и предыдущие действия. Работает через markdown-файлы — тот же подход, что и в оригинальном Claude Code.
Установка
Нужен Bun (можно Node.js, но Bun быстрее):
git clone https://github.com/Gitlawb/openclaude.git cd openclaude bun install bun run build
Для быстрого старта есть профили:
# автоопределение: если есть Ollama — используем, иначе OpenAI bun run profile:init # явно указать провайдера bun run profile:init -- --provider ollama --model llama3.1:8b bun run profile:init -- --provider openai --api-key sk-... # запуск bun run dev:profile
При использовании Ollama убедитесь, что модель скачана (ollama pull llama3.3:70b) и сервер запущен.
Что реально работает
Протестировал с несколькими моделями. Результаты сильно зависят от модели:
GPT-4o / GPT-4.1 — работает хорошо. Tool calling реализован нативно, агент корректно вызывает инструменты, пишет и редактирует файлы, выполняет bash-команды. Близко к оригинальному Claude Code по качеству.
DeepSeek Chat — работает, но tool calling менее стабильный. Иногда модель пытается «описать» вызов инструмента текстом вместо того, чтобы использовать function calling. На простых задачах — нормально, на сложных цепочках — ломается.
Llama 3.3 70B через Ollama — самый интересный вариант, потому что полностью бесплатный и локальный. Работает, но медленно на обычном железе. Tool calling поддерживается, но качество ниже, чем у закрытых моделей. Для простых задач (найти файл, сделать grep, отредактировать строку) — вполне. Для сложного рефакторинга — не хватает.
Мелкие модели (7-8B) — почти бесполезны для агентного использования. Модель не понимает, когда нужно вызвать инструмент, путается в аргументах, зацикливается. Claude Code рассчитан на модели уровня Claude Sonnet и выше, и мелкие модели просто не тянут эту логику.
Слэш-команды и фичи
Все команды оригинального Claude Code на месте:
/commit— генерирует коммит с описанием/review— ревьюит код/compact— сжимает контекст/diff— показывает изменения/doctor— диагностика
MCP-серверы тоже подключаются — можно добавить доступ к базам данных, API, файловым системам. Работает компьютерное зрение (если модель поддерживает vision).
Слон в комнате: легальность
Это надо проговорить. Исходный код Claude Code — собственность Anthropic. В README проекта прямо написано: «The original source code is subject to Anthropic’s terms. This repository is provided for educational and research purposes.»
Утечка через source maps — не взлом и не кража, но использование этого кода может нарушать условия использования Anthropic. Каждый решает сам, но знать об этом стоит.
OpenAI-шим (то, что добавили авторы форка) — public domain.
Альтернативы без юридических рисков
Если вас интересует идея «Claude Code, но с другими моделями», есть легальные альтернативы:
claude-code-proxy — прокси, который конвертирует Anthropic API в OpenAI формат. Не использует утёкший код, просто транслирует запросы. Работает с официальным Claude Code CLI.
Aider — open source AI-агент для кодинга, работает с любыми моделями из коробки. Другой интерфейс, но схожая функциональность.
Continue.dev — IDE-расширение с поддержкой любых моделей, включая локальные.
OpenClaw — автономный AI-агент (не IDE), работает через мессенджеры.
Выводы
OpenClaude — технически интересный проект, который показывает, как устроен Claude Code изнутри. Агентная логика, система инструментов, управление контекстом — всё это поучительно. Но использовать его в продакшене или для серьёзной работы я бы не стал: юридические риски, нестабильность с некоторыми моделями и отсутствие поддержки.
Если вам нужен «Claude Code, но дешевле» — проще взять claude-code-proxy и подключить GPT-4o или DeepSeek к официальному CLI. Если нужно полностью локальное решение — посмотрите на Aider с Ollama.
А если просто интересно, как Anthropic строит агентов — OpenClaude стоит почитать как учебный материал. Архитектура там действительно хорошая.
Пробовали запускать Claude Code с альтернативными моделями? Какой подход используете — прокси, форк или что-то своё?
Комментарии (20)

irsick
01.04.2026 22:45Anthropic сами пострадали от возможностей технологий: форки Claude Code, портировaнные на другие языки с помощью того же GenAI, могут перестать быть объектами авторского права. Компания лишается серьезного конкурентного преимущества, так как разработчики других моделей быстро адаптируют их ноу-хау для своих инструментов.
Интересен тот факт, что, согласно самим Anthropic, Claude Code был в значительной степени написан самой моделью Claude. В США авторское право же защищает произведения, созданные человеком.

Barnaby
01.04.2026 22:45Их конкурентное преимущество это модели, а не CC у которой так-то вагон аналогов и не только консольных, да и устареет оно быстро. Почти все провайдеры поддерживают апи антропика и позволяют юзать любые модели, у z.ai на этом вся бизнес-модель построена.

yokotoka
01.04.2026 22:45О каком преимуществе речь? Claude Code хорош, спору нет, но OpenCode не хуже. А GSD 2, например, лучше их всех -- Spec-based разработка из коробки, без бесконечного ввода слэш-комманд и ручной чистки контекста. Странно что до сих пор ничего подобного нативно в CC не завезли и, похоже, не особо собираются

Hubbitus
01.04.2026 22:45Так и оригинальный можно использовать с любой моделью скажем с claude code router.

vikarti
01.04.2026 22:45Да много способов. У меня например с LiteLLM работает. У OpenRouter и Z.AI Coding Plan вообще совместимость заявлена. Была идея написать статью (там есть один неочевидный нюанс - похоже баг LiteLLM который проявляется если надо привязать к другим моделям) но показалось что ну очевидно же (и куча статей есть).
Если интересно...
сокращенная версия: в LiteLLM создаем Virtual Key и настраиваем хотя бы формальный fallback для моделей нужных.
затем создаем батник (ну или аналогично для Linux)
@echo off set ANTHROPIC_BASE_URL=https://litellm.yourdomain.com set ANTHROPIC_AUTH_TOKEN=$YOUR_API_KEY set ANTHROPIC_API_KEY= REM Отключаем эксперименты и телеметрию set CLAUDE_CODE_DISABLE_EXPERIMENTAL_BETAS=1 set CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1 set ANTHROPIC_DEFAULT_OPUS_MODEL=GLM-5-Turbo set ANTHROPIC_DEFAULT_SONNET_MODEL=GLM-5 set ANTHROPIC_DEFAULT_HAIKU_MODEL=GLM-4.5-Air rem %USERPROFILE%\.local\bin\claude %* claude %*

Dhwtj
01.04.2026 22:45Занятно, что ни один агентский LLM не умеет подключаться к отладчику и смотреть переменные в точке останова. Ну и смысл? Теряется очень много того что делает человек.

amazingname
01.04.2026 22:45При необходимости может добавить лог и посмотреть вывод. Только что воспроизводить проблему для моделей пока тяжкая задача.

Robastik
01.04.2026 22:45В чем тяжкая? Логи смотрит, код правит и перезапускает.

amazingname
01.04.2026 22:45часто для воспроизведения надо много чего накликать в интерфейсе, запустить локально кучу сырых сервисов и так далее.
Если получается выкрутиться через интеграционные тесты, тогда да, только сиди, пей чай и поглядывай.

Robastik
01.04.2026 22:45надо много чего накликать в интерфейсе
Попробуйте инструмент без таких проблем

amazingname
01.04.2026 22:45Если нужен дебаг, то значит агент решает задачу такой сложности, что не сдюжил написать код. А для такой задачи нужен весь контекст. Если заставить его изучать UI в том же контексте и с нуля, это будет долго и загадит себе всю основную тему. Можно ли это сделать субагентами и наработкой скиллов для использования UI заранее, х.з. не пробовал.

okhsunrog
01.04.2026 22:45Неправда. Всё можно сделать, вопрос только в том, какие инструменты дать нейронке. Если очевидно, что не хватает инструментов - либо искать MCP под нужную задачу, либо написать самому. Вот, например, нашёл MCP для GBD:
https://github.com/Ipiano/gdb-mcp
https://github.com/signal-slot/mcp-gdb

0xInnominatus
01.04.2026 22:45В VisualStudio 2026 есть такая возможность при включенном GitHub Copilot в режиме агента (функция называет Debug with Copilot). Но на практике пока человек дебажит лучше, хоть и медленнее.

DarkGenius
01.04.2026 22:45Харнесс Claude Code заточен под модели Anthropic. Нет особого смысла использовать его с другими моделями, когда есть generic harnesses типа OpenCode.
markoni
Я запускаю оригинальный ClaudeCode с Deepseek моделями, или с Ollama, с помощью настроек переменных окружения. Что я делаю не так? И в чем смысл тогда OpenClaude?
Politura
Вы кому именно вопрос задаете? Глядя на список моделей понятно что нейронка статью писала, а человек даже не читал: GPT-4o/4.1, Llama-3.3, Дипсик чат какой-то.
Dhwtj
Такое что-то?
ANTHROPIC_BASE_URL=https://openrouter.ai/api/v1
Но там же апи может быть не совместим
Barnaby
https://openrouter.ai/docs/guides/coding-agents/claude-code-integration
vmkazakoff
Все (ну почти, но вы вряд-ли попадете на такое) модели сейчас openai совместимые. То есть у них единый формат передачи и получения информации. Димсик меняется на квен, а тот на яндексгпт или клода, которые заменяться на оламу локальную - буквально двумя строчками - адрес и токен доступа. Все остальное - не требует изменений.