Hugging Face релизнули Skills — Agent Context Protocol (ACP), через который упаковываются определения разных задач для ИИ агентов. По сути — это папки, в которых собраны инструкции, скрипты и ресурсы для использования ИИ-агентом под конкретный кейс. В каждой такой папке есть файл  “SKILL.md” с YAML-фронтматтером (имя и описание) и далее текст с инструкциями, которым кодовый агент следует, пока этот скилл активен. Сама концепция повторяет Claude Skills (о чем Hugging Face открыто заявляет).

LLM обучает LLM

С помощью таких скиллов Hugging Face научили Claude обучению опенсорсных LLM моделей на опенсорсных датасетах.

Разберем, как это работает, на примере от Hugging Face:

  1. Вы даёте агенту задачу дообучить модель на датасете: можно указать свой датасет или позволить ему найти подходящий самому.​
    Например вот таким промптом дается задача агенту по файн-тюнингу малыша Qwen3 на 0.6B параметров:

    Fine-tune Qwen3-0.6B on the open-r1/codeforces-cots dataset for instruction following.
  2. Агент подбирает железо для обучения исходя из размера модели и проверяет датасет.​ В данном примере он подберет t4-small (наименьшая достаточная конфигурация, чтобы дообучить эту модель).

  3. Обучение запускается на облачных GPU от Hugging Face. Перед запуском агент покажет конфигурацию (GPU, ожидаемое время обучения, стоимость, репозиторий где будет сохранена обученная модель).

    I'll fine-tune Qwen/Qwen3-0.6B on open-r1/codeforces-cots using SFT.
    
    Configuration:
    - Hardware: t4-small (~$0.75/hour)
    - Estimated time: ~20 minutes
    - Estimated cost: ~$0.30
    - Output: username/qwen-codeforces-cots-sft
    
    The model will be pushed to Hub automatically. Should I submit?
  4. Агент стартует обучение и делится дашбордом с прогрессом в реальном времени через Trackio.

    Пример дашборда, который выдаст агент в Trackio
    Пример дашборда, который выдаст агент в Trackio
  5. Чекпоинты отправляются в Hub (репозиторий моделей). Когда модель обучилась, она доступна в хабе, как после обычного обучения:

    from transformers import AutoModelForCausalLM, AutoTokenizer
    
    model = AutoModelForCausalLM.from_pretrained("username/qwen-codeforces-cots-sft")
    tokenizer = AutoTokenizer.from_pretrained("username/qwen-codeforces-cots-sft")

Красиво организовали, но как?

Hugging Face на текущий момент, пожалуй, крупнейшая международная платформа, которая предоставляет все сразу в одном месте:

  • железо для обучение

  • managed ML платформу и необходимые библиотеки

  • самую большую библиотеку опенсорс моделей

  • самую большую библиотеку опенсорс датасетов.

Такой фундамент дает компании преимущество даже перед гигантами типа Гугла, который связан своими корпоративными интересами по продвижению собственных моделей.

HF же настроен на расширение совместимости этих "скиллов" с как можно большим количеством вендоров моделей, способных управлять такими сложными агентами. Сейчас скиллы уже работают с:

  • Claude Code (через SKILLS.md)

  • OpenAI Codex (через AGENTS.md)

  • Gemini CLI (через gemini-extension.json)

На подходе Cursor, Windsurf и Continue.

Что еще может HF Skills?

На данный момент доступно всего 4 скилла:

Скилл

Официальное описание

Ссылка на SKILL.md

hf_dataset_creator/

Промпты, фреймворки, скрипты для создания структурированных датасетов.

SKILL.md

hf_model_evaluation/

Инструкции и инструменты для оркестрации джобов по оценке моделей, генерированию отчетов, и маппинга метрик.

SKILL.md

hf-llm-trainer/

Скилл для оубчения моделей с гайдом в  SKILL.md и вспомогательными скриптами (например, train_sft_example.pyconvert_to_gguf.py, cost estimators)

SKILL.md

hf-paper-publisher/

Инструменты для публикации и управления исследовательскими статьями на Hugging Face Hub. Позволяет индексировать статьи из arXiv, линковать статьи с моделями и датасетами, генерировать сами статьи по шаблонам и управлять авторской принадлежность статей.

SKILL.md

Перечень скиллов очевидно будет расти сначала вокруг инфраструктуры самого Hugging Face.

Почему это важно?

Проблема LLM моделей в том, что они либо знают "всё", но при этом слишком жирные и дорогие для on-premise. Либо они маленькие и не всегда подходят для узко специфических задач. 

Решается эта проблема дообучением/файнтюнингом маленьких LLM-ок на конкретных датасетах под конкретные задачи.

И вот раньше делать это могли только спецы с глубоким пониманием матчасти и навыками в AI. Но теперь Hugging Face сильно ослабляет эти ограничения! 

Теперь хватит минимальных навыков, которые можно освоить за вечер! Единственный нюанс: конкретно этот агент работает только с платным аккаунтом HF (тк использует платный запуск джобов). Но это не важно, тк это все равно существенно дешевле человеко-часов любого AI разработчика!

No code будущее все ближе…


Еще больше интересного и полезного про AI агентов — в моем телеграм канале Заместители.

Комментарии (0)