Предыстория
Удивительно, что про Telegram Cocoon почти нет практической информации, кроме той, что есть на GitHub и на официальном сайте. В разных СМИ много общей информации о запуске сети, но почти ничего о реальном пользовательском опыте.
Я решил потратить немного времени и разобраться, что на самом деле происходит в сети, как она работает и, самое главное, могу ли я как разработчик использовать её уже сегодня. Поэтому в этой статье я рассматриваю Cocoon с точки зрения разработчика: как установить и как пользоваться.
Сервис Telegram Cocoon - это децентрализованный инференс ИИ: инфраструктура Cocoon используется для запуска готовых open-source моделей. Владельцы GPU предоставляют вычислительные мощности через Cocoon Worker, а разработчики, которые хотят интегрировать ИИ в свои приложения, подключаются через Cocoon Client. И клиент, и воркеры подключаются к Cocoon Proxy, который распределяет нагрузку — то есть маршрутизирует запросы от клиента между воркерами. Клиент оплачивает запросы в Toncoin, а воркеры получают вознаграждение за вычетом комиссии прокси, которая сейчас составляет около 5%.
В теории все счастливы. Но, как мы дальше увидим, в сети Cocoon сейчас фактически работают всего две модели: Qwen3-32B и Seed-X-PPO-7B и около четырех воркеров. Судя по назначению, Seed-X-PPO-7B используется в основном для переводов, а Qwen3-32B, как более универсальная модель - для выжимки из текста. Этого недостаточно, чтобы рассматривать Cocoon как полноценную замену моделям OpenAI в сценариях вроде Cline и WebUI: да, всё запускается и им можно пользоваться, но на практике продуктивнее будут даже бесплатные версии ChatGPT, Gemini и т. п.
При этом, если в Cocoon начнут быстро добавлять сильные open-source модели по низкой цене, то благодаря открытости платформы он вполне сможет конкурировать с проприетарными решениями. Но на текущий момент складывается ощущение, что система в первую очередь используется самим Telegram, чтобы закрывать свои внутренние задачи.
В чём плюс Cocoon? Во-первых, заявляется, что никто не сможет подсмотреть, о чём пользователь общается с моделью, кроме владельца клиента. Во-вторых, отдельного пользователя сложно заблокировать. В-третьих, это децентрализованная платформа, которая в теории должна дать доступ к любым open-source моделям по низкой цене. В-четвёртых, для разработчика важно, что у клиента есть OpenAI-похожий API: можно подключать его к привычным инструментам почти без переделок, просто поменяв base URL. И, в-пятых, без подписок - оплата за TON только за реальные запросы.
Практическая часть
То, что мы хотим получить, выглядит так:
WebUI/Cline -> Cocoon Client (OpenAI API) -> Proxy -> Workers (GPU) -> Model
Мы установим Cocoon Client и подключим к нему open-source чат-окно Open WebUI, чтобы “болтать” с моделью, а на бэкграунде Cocoon будет отвечать напрямую. Потом подключим Cocoon к агенту Cline в Visual Studio Code и попробуем написать работающюю программу.
Запуск Cocoon Client
Начнём с установки Cocoon Client. Проект Cocoon использует Intel TDX (Confidential Computing), и на Ubuntu 25.10 это поддерживается из коробки, поэтому для простоты я буду использовать именно её. При этом нам не принципиально, поддерживает процессор TDX или нет, в нашем сценарии это не критично. Кому интересно, вот репозиторий от Canonical про TDX: https://github.com/canonical/tdx
Сразу скажу, из коробки клиент у меня не запускался и падал с ошибками, связанными с TEE/TDX. Большинство VPS-провайдеров не поддерживают полноценную проверку TEE, поэтому я запускаю клиент с отключёнными проверками. Open WebUI тоже сначала не работал, пока я не добавил заголовки application/json в ответе.
Сначала установим все зависимости, тут не только для Cocoon, но и для Open WebUI/Cline
sudo apt-get update && sudo apt-get install -y \ zlib1g-dev \ libjemalloc-dev \ libssl-dev \ liblz4-dev \ libsodium-dev \ libreadline-dev \ apache2-utils \ autoconf \ automake \ libtool \ pkg-config
Дальше скачиваем проект:
git clone --recursive https://github.com/TelegramMessenger/cocoon.git
Как я упоминал выше, я написал небольшой патч, чтобы Cocoon Client нормально работал с WebUI/Cline и запускался в случае, если Confidential Computing (TDX/TEE) не поддерживается:
https://gist.github.com/raiym/d5e916e915cb3e146d3b46d4a50344f8
Применяем патч.
git apply cocoon.patch
Качаем конфиг сети с официального сайта проекта:
curl -o spec/mainnet-full-ton-config.json https://cocoon.org/resources/mainnet.cocoon.global.config.json
Дальше создаем конфиг уникальный для клиента снова в рут папке проекта client.conf:
[node] type = client owner_address = UQAKPq2DV...HX4YpjBd node_wallet_key = N4Y/5.../2ryRygu/6c= root_contract_address = EQCns7bYSp0igFvS1wpb5wsZjCKCV19MD5AVzI4EyxsnU73k ton_config = spec/mainnet-full-ton-config.json instance = 0
Заметьте, что owner_address у вас должен быть свой, этот TON кошелек контроллирует клиент (но я как создал его больше не использовал).
Дальше node_wallet_key это просто набор случайных 32 байт конвертированных в base64 формат, может быть любой, на основе этого случайного числа генерируется адрес кошелька клиента в TON.
head -c 32 /dev/urandom | base64 N4Y/5.../2ryRygu/6c=
Далее, root_contract_address - это адрес root-контракта Cocoon в сети TON. В нём хранится конфигурация сети: например, список Proxy и параметры экономики (цены/мультипликаторы токенов и т. п.). На момент написания в сети фактически один Proxy по IP 91.108.4.11 с двумя портами (хотя может это Anycast IP): :5222 и :8888 — к одному подключаются воркеры, к другому клиенты.
Дальше запускаем, скрипт скомпилирует за нас:
COCOON_ROUTER_POLICY=any COCOON_SKIP_TDX_USERCLAIMS=1 COCOON_SKIP_PROXY_HASH=1 COCOON_CLIENT_VERBOSITY=3 ./scripts/cocoon-launch client.con
В следующий раз можно пропустить компиляцию:
COCOON_ROUTER_POLICY=any COCOON_SKIP_TDX_USERCLAIMS=1 COCOON_SKIP_PROXY_HASH=1 COCOON_CLIENT_VERBOSITY=3 ./scripts/cocoon-launch client.conf --skip-build
После запуска в логах появится адрес кошелька в TON, который нужно пополнить, чтобы получить доступ к моделям. Я пополнил его на 30 TON. Из них 15 TON уходит в депозит — насколько я понял, его можно вернуть, если не использовать полностью (я это не проверял).
[CLIENT] **[ 1][t 2][2026-01-06 12:11:40.671298504][BaseRunner.cpp:1048][!client] ACTION REQUIRED: BALANCE ON CONTRACT UQAf6e2X3wxaKEQveaEwialWcab6cPnIXWW4N7rHHBzKMEfs IS TOO LOW: MINIMUM 2100000000 CURRENT -1
После пополнения в логах должно появиться что-то похожее на это:
[CLIENT] [ 3][t 6][2026-02-01 09:49:00.527275537][TonlibWrapper.cpp:64][!TonlibClientWrapper] TonLib is synced [CLIENT] [ 2][t 6][2026-02-01 09:49:00.679363092][TonlibClient.cpp:846][!GetAccountState] Unknown code hash: WwfGvQw0c1h036NUjNmgHHi+Hg/fINDF6+N3djlsVAA= [CLIENT] [ 3][t 6][2026-02-01 09:49:00.679504904][BaseRunner.cpp:663][!client] got root contract state with ts=1769939333 [CLIENT] [ 3][t 6][2026-02-01 09:49:00.679579734][RootContractConfig.cpp:316][!client] parse root contract state: owner=UQDnlslXI2RtI1WhLmtelkb4CVQGxr8E_xSIjl0Hg79jNk6V unique_id=239 is_test=NO proxy_hashes_size=1 registered_proxies_count=1 last_proxy_seqno=3 workers_hashes_count=3 price_per_token=20 worker_fee_per_token=19 version=76 16 min_proxy_stake=15000000000 min_client_stake=15000000000 prompt_tokens_price_multiplier=10000 cached_tokens_price_multiplier=1000 completion_tokens_price_multiplier=80000 reasoning_tokens_price_multiplier=80000 [CLIENT] [ 3][t 2][2026-02-01 09:49:01.660136137][TonlibWrapper.cpp:66][!TonlibClientWrapper] TonLib is syncing: 56789955/56789955 [CLIENT] [ 3][t 2][2026-02-01 09:49:02.140429635][TonlibWrapper.cpp:64][!TonlibClientWrapper] TonLib is synced
После запуска клиент начинает слушать порт 10000 и поднимает набор API. Например:
127.0.0.1:10000/v1/models — возвращает список доступных моделей, количество воркеров для каждой модели и текущую нагрузку (сколько запросов сейчас выполняется на каждом воркере). Именно тут видно, что в сети доступны всего две модели:
{ "object": "list", "data": [ { "id": "ByteDance-Seed/Seed-X-PPO-7B", "object": "model", "created": 0, "owned_by": "?", "workers": [ { "coefficient": 1000, "running_requests": 4, "max_running_requests": 60 }, ... { "id": "Qwen/Qwen3-32B", "object": "model", "created": 0, "owned_by": "?", "workers": [ { "coefficient": 1000, "running_requests": 7, "max_running_requests": 60 },
Кроме этого, доступны такие эндпоинты (есть больше):
- /v1/models - /v1/chat/completions - /v1/completions - /stats - /jsonstats
Дальше, для удобства, я запустил Cocoon Client через systemd, чтобы он постоянно работал в фоне:
# sudo systemctl cat cocoon-client # /etc/systemd/system/cocoon-client.service [Unit] Description=Cocoon Client After=network-online.target Wants=network-online.target [Service] Type=simple WorkingDirectory=/root/cocoon Environment=COCOON_ROUTER_POLICY=any Environment=COCOON_SKIP_TDX_USERCLAIMS=1 Environment=COCOON_SKIP_PROXY_HASH=1 Environment=COCOON_CLIENT_VERBOSITY=3 ExecStartPre=/usr/bin/install -d -m 0755 /var/log/cocoon ExecStart=/root/cocoon/scripts/cocoon-launch /root/cocoon/client.conf --skip-build Restart=always RestartSec=5 StandardOutput=append:/var/log/cocoon/client.log StandardError=append:/var/log/cocoon/client.log [Install] WantedBy=multi-user.target
Подключаем Cocoon Client к OpenWebUI
Теперь установим и запустим Open WebUI. Его подключаем к клиенту Cocoon на порту 10000, а сам WebUI, например, поднимаем на порту 8282:
sudo docker run -d --name openwebui --restart unless-stopped \ --add-host=host.docker.internal:host-gateway \ -p 8282:8080 \ -e OPENAI_API_BASE_URL="http://host.docker.internal:10000/v1" \ -e OPENAI_API_BASE="http://host.docker.internal:10000/v1" \ -e OPENAI_API_KEY="none" \ ghcr.io/open-webui/open-webui:main
Он подключится напрямую к Cocoon Client. Заходим по IP и порту, настраиваем вход для админа — и, например, давайте спросим у модели про Хабр.


Технически WebUI действительно работает c Cocoon, это мы подтвердили. Но по сути, где ты @deniskin?
Подключаем Cocoon Client к плагину Cline
Так как порт 10000 не должен быть публичным, сделаем прокси на другом порту и добавим простую защиту через Bearer-токен, чтобы API могли использовать только те, кто знает секрет. Это понадобится нам, чтобы подключить Cline.
# /etc/nginx/conf.d/cocoon-cline.conf server { listen 8181; location / { if ($http_authorization != "Bearer XXXXXXXXX") { return 401; } proxy_pass http://127.0.0.1:10000; proxy_http_version 1.1; proxy_buffering off; proxy_set_header Host $host; proxy_set_header X-Forwarded-For $remote_addr; proxy_set_header X-Forwarded-Proto $scheme; proxy_set_header Connection ""; } }
Теперь API Cocoon доступен на порте 8181 и защищён токеном. Дальше в настройках Cline в VS Code указываем IP вашего сервера и название модели из ответа /v1/models, например Qwen/Qwen3-32B:

Дальше просим Cline написать простенькую программу на Rust, которая получает цену TON с биржи Bitfinex, — по аналогии с TypeScript-примером из официальной документации. После нескольких попыток Cline вместе с Qwen всё-таки выдали рабочий код. Но для повседневной работы этой модели, на мой взгляд, всё же недостаточно.

Результаты
Удалось запустить Cocoon в chat-mode через Open WebUI и подключить его к Cline. При этом доступны всего две модели: Qwen3-32B и Seed-X-PPO-7B. Seed, судя по всему, используется Telegram в основном для переводов, а Qwen - для выжимки текстов. Других моделей в сети сейчас нет.
С точки зрения обычного пользователя и разработчика имеет смысл смотреть только на Qwen, но итогом остался не очень доволен: для повседневной работы Qwen3-32B не подходит ни как “чат”, ни как модель для кодинга. Текущий статус Cocoon скорее похож на рабочий прототип, чем на зрелую платформу. Плюс на данный момент Cocoon поддерживает только текст.
Выводы
Возможно в коконе будет все больше и больше крутых моделей и все больше воркеров и будет дешевле чем у всей индустрии, то мы как пользователи очень выигрываем, достаточно купить несколько десятков тон и использовать кокон сколько влезет с большим количеством моделей, с невозможностью цензурирования, без лимитов (только ваш кошелек), без блокировок. Использовать как в чат моде, так и в программирование. Еще бы хотелось генерацию видео и картинок.
Возможно дальше, с развитием можно будет привлечь по настоящему крупные компании, которым нужен дешевый инференс (например, считаю, что использовать Cocoon для генерации видео с интеграцией в Comfy AI - переспективным).
Но хочу вставить кучу оговорок. Платформа запустилась 1 декабря 2025 года, но в сети количество GPU можно пересчитать по пальцам. Сеть генерирует всего 250 Toncoin дохода в день, а прошло уже два месяца с момента запуска. Поэтому ощущение складывается, что у Telegram просто не хватает ресурсов развивать Кокон, хотя на самом деле можно было уже столько всего сделать. Поэтому есть риск, что Telegram просто будет использовать и развивать платформу только для себя из-за нехватки ресурсов.
Но для развития нужна отдельная команда, которая будет искать самые популярные юзкейсы и быстро интегрировать их и рассказывать как ими позльзоваться. Я вижу тут нишу, Open WebUI + Code Agent + Comfy AI, то Кокон может составить неплохую конкуренцию, главное чтобы удобно и дешевле. В таком случае платформа получит постоянный трафик, но с условием, что платформа будет постоянно обновляться.
Плюс нужно потратить деньги на маркетинг создать комьюнити на реддит, дискорд чтобы собралось ядро энтузиастов.
В данный момент поддерживаются только серверный модели GPU типа H200, а стоит такой сервер от $35000, так как только серверное железо поддерживает Confidential Compute. Но хотелось бы, чтобы Кокон запускался не только на Intel, но и AMD и Qualcomm и Apple, а еще чтобы работал не только с NVIDIA GPU, но и AMD, а может и Huawei и так далее, в общем, чтобы Cocoon стал Android в мире AI.
Cocoon уже можно использовать, но пока это больше инфраструктурный прототип Telegram, чем платформа для разработчиков.
Если у вас есть опыт работы с Cocoon, пожалуйста поделитесь в комментариях.
Мы думали |
В реальности сейчас |
|---|---|
Самые современные модели |
2 старые модели |
Масштаб (1000+ воркеров) |
примерно 16 воркеров |
Замена OpenAI |
нет |
Приватность |
заявлено, но зависит от железа |
Доходность покроет GPU |
в данный вся сеть Cocoon генерирует 250 TON в день |
Поддержка генерации видео |
нет |
Поддержка голоса и фото |
нет |
Ссылки
Официальный сайт Telegram Cocoon - https://cocoon.org
Официальный Github - https://github.com/TelegramMessenger/cocoon
Open WebUI - https://github.com/open-webui/open-webui
Cline - https://github.com/cline/cline
Видео - https://github.com/Comfy-Org/ComfyUI
Комментарии (18)

SabMakc
02.02.2026 05:45Нет самого главного - сколько стоит инференс в Telegram Cocoon? По сравнению с OpenRouter? На сайте cocoon тоже не раскрыт вопрос.
P.S. так и не понял, а зачем Confidential Computing на клиенте-то? Тем более что модифицированный код без проблем запустился.
P.P.S. если и воркер можно запустить без Confidential Computing - то это какое-то фиаско прям.
SabMakc
02.02.2026 05:45Нашел калькулятор - выходит около 0.03/M USD (по текущему курсу) за входящие/исходящие токены, что прилично дешевле openrouter. Правда нет выбора LLM - сомневаюсь, что Qwen3-32B и Seed-X-PPO-7B стоят одинаково.

raiym Автор
02.02.2026 05:45Согласен с вопросом про цену. Я не стал углубляться, там Прокси и Клиент постоянно расплачиваются друг с другом, но как это работает и сколько реально стоит не понял.
Другое дело, что цены хранятся в рут смарт контракте и их можно доставать, например, текущие цены такие, плюс multiplier надо разделить на 10000 чтобы получить коэффициент. Например, cached token 0.1x, reasoning 8x от обычной цены.


SabMakc
02.02.2026 05:45Т.е. у них калькулятор еще и врет - исходящие токены в 8 раз дороже.
Qwen3-32B получается просто чуть дешевле относительно OpenRouter, а 7b даже дороже выходит (не нашел Seed-X-PPO-7B, сужу по Qwen2.5 7B).
raiym Автор
02.02.2026 05:45А где вы смотрите?

SabMakc
02.02.2026 05:45https://cocoon.doge.tg/tools/pricing (указал по 1кк для промта и ответа) - но надо конвертировать TON в USD (ИИ в поисковике без проблем делает) и https://openrouter.ai/qwen/qwen3-32b

raiym Автор
02.02.2026 05:45Понял, спасибо.
По поводу этой панели, я, кстати, не понял как она работает, так как пересечений нет.


raiym Автор
02.02.2026 05:45А можете про OpenRouter комментарий дать? В чем суть работы и насколько успешен проект?

SabMakc
02.02.2026 05:45OpenRouter - прокси к различным LLM-провайдерам, с минимальной наценкой (заявляют 5%).
Много провайдеров для открытых моделей (а для закрытых - подключение к "родному" провайдеру). Дополнительно - унификация API.Думаю, как проект, вполне успешен - альтернатив не встречал (не считая перепродажи доступа к OpenRouter с оплатой из РФ).
Доступ из РФ не блокируют, но оплату картой напрямую не принимают. Надо или через крипту платить, или через посредников.

Amareis
02.02.2026 05:45Кстати, а насчет gonka.ai - их протокол в основе кокона лежит - не смотрели? Там гораздо больше карт и моделей вроде должно быть? @raiym

ALxMrk
02.02.2026 05:45Нет, это распространённое заблуждение. Gonka.ai и Telegram Cocoon — два полностью независимых проекта, никакой «протокол Gonka» не лежит в основе Cocoon.
Разница в архитектуре:
Cocoon построен на блокчейне TON, использует Intel TDX для конфиденциальных вычислений и платит в токенах TON
-
Gonka — это отдельный Layer 1 блокчейн с собственным токеном GNK и механизмом «Proof of Work 2.0», где почти 100% ресурсов идёт на ИИ-задачи, а не на майнинг
GitHub
По моделям и мощностям:
У Gonka сейчас доступно около 5–7 основных моделей: DeepSeek-R1, DeepSeek-V3, Gemma-3-27B, Llama-3.1-70B/405B, Qwen3-32B и другие
В сети Gonka работает порядка 12 000 GPU-эквивалентов (в основном H100/H200) и около 600 активных нод из 30+ стран
Cocoon действительно пока скромнее — 2–3 модели и десятки воркеров
Важно: оба проекта решают похожую задачу (децентрализованный инференс), но идут разными путями. Gonka делает ставку на масштаб и открытость (как «децентрализованный AWS для GPU»), Cocoon — на приватность через TDX и интеграцию с экосистемой Telegram/TON.

ALxMrk
02.02.2026 05:45Cocoon запустили не 1 декабря 2025, а в ноябре 2024 (тестнет), мейннет пошёл в начале 2025. Возможно, ты имеешь в виду дату полного публичного релиза но официально сеть работает уже больше года.
Про «четыре воркера» цифра сильно занижена. На момент февраля 2026 в сети около 50–70 активных воркеров по данным блокчейн-эксплореров TON. Моделей действительно мало в основном Qwen3-32B и пара специализированных (включая ту же Seed-X), но появляются новые.
H200 не обязателен. Cocoon работает и на обычных A100/H100 без TDX, просто без режима конфиденциальных вычислений. TDX нужен только для сценариев, где критична приватность запроса на уровне железа.
По коду и командам:
git clone --recursivehttps://github.com/TelegramMessenger/cocoon.gitфлаг--recursiveподтягивает все субмодули проекта (например, TDLib), без него сборка сломается.head -c 32 /dev/urandom | base64генерит 32 случайных байта и кодирует в base64. Это становится приватным ключом кошелька клиента в сети. Безопасно, так как не привязан к внешним сервисам.COCOON_SKIP_TDX_USERCLAIMS=1отключает проверку TDX-аттестации. На обычных VPS (Hetzner, DigitalOcean) TDX нет, поэтому без этого флага клиент не запустится. Это не уязвимость, просто отключение опционального слоя приватности./v1/modelsэндпоинт действительно показывает доступные модели и нагрузку на воркеры. Если видишь 2–3 воркера на модель это нормально для текущей фазы, но не «всего четыре в сети».--add-host=host.docker.internal:host-gatewayпозволяет контейнеру Docker обращаться к localhost хоста (где крутится Cocoon Client на порту 10000). Без этого флага WebUI не найдёт бэкенд.Ты прав, сейчас Cocoon больше инфраструктурный прототип, чем готовая замена OpenAI. Но направление рабочее: платишь за токены в реальном времени, нет подписок, есть совместимость с OpenAI API. Если Telegram или сообщество начнут активно добавлять модели и упрощать подключение воркеров, то потенциал есть. Пока же это ниша для тех, кто готов костылить и терпеть ограниченный выбор моделей.

raiym Автор
02.02.2026 05:45Флаг о котором вы говорите в официальном репозитория просто не существует, `COCOON_SKIP_TDX_USERCLAIMS` это я его добавил в код сам.
Про количество воркеров даже не знаю, что сказать. Вот сейчас прям проверил.
curl localhost:10000/v1/models3 штуки Qwen и 13 штук Seed.
Вот полный вывод: https://gist.github.com/raiym/7effda6ac01c3005cca60e0db174a230
А если опираться на данные TON, то работающих воркеров, которые получают вознаграждения в TON сейчас всего 4 штуки:
EQCcVqO-Tmp5SpZB9ZBGs2Msl_Lp2NtxbN8Zb13SVEVLZ05C
EQDb3bfdbmrT8XnWkgNWFNNrCbndCg3Ku_aO3gxMDGtd8WnP
EQCA0N5q1xuVpgM_-6wNV0PaLi42OMFPcMu7FREfdctM1M5m
EQCsTTIilBq1jvjtksDnlkD2oClAoVW8ieeD8ATFdMm2GsDU
Остальное комментировать смысла не вижу.
Amareis
Мне вот прям интересно как там своего воркера развернуть и можно ли кастомные модели делать... Жаль что для этого надо найти впс где можно TDX включить и в целом должна быть возможность сбора машинки с нужным процем и GPU, что сейчас не слишком просто сделать.
raiym Автор
Насколько я понял систему, хеш модели сначала надо зарегистрировать в рут контракте. После этого воркер сможет их запускать. На данный момент там всего 4 хеша, а доступ к контракту имеет только команда Телеграм.
На vps получается слишком-слишком дорого. Например, есть confidential compute у GCP, но учитывая, что вся сеть генерит 250 тон в день, а сервер стоит не меньше, наверное, 8 долларов за час (точно не знаю), то получается не выгодно. Пока только компании у которых есть доступ к серверным гпу могут участвовать, но зачем им это делать пока не понятно.
Если бы телеграм на уровне компаний искал варианты, например с датацентрами и с другой стороны с крупными потребителями, которые сами арендуют в облаках, тогда бы дело, как будто, пошло бы. Но из того, что я вижу у них просто не хватает людей.
По поводу сборки своего сервера, по подсчетам примерно выйдет 40 тысяч долларов. Но проблема даже не в цене, а в том, кто продаст нам обычным людям, насколько я понял когда покупается гпу нужно объяснять как она будет использоваться. Да и 1-5 штук не знаю кто продаст.
Может, те кто глубже разбирается придут расскажут?
raiym Автор
Вот так выглядит список поддерживаемых моделей хешами в рут контракте. Его надо парсить отдельно, делая запросы к смарт контракту.
Выше просто пример, там чтобы хеши раскрасить посложнее.
А как хранятся данные можно посмотреть тут: https://github.com/TelegramMessenger/cocoon-contracts/blob/main/contracts/cocoon_root.fc