Навыки Hugging Face: ИИ-агенты самостоятельно обучают языковые модели

Что такое Hugging Face Skills?

Hugging Face выпустила Skills — Протокол контекста агента (Agent Context Protocol, ACP), позволяющий централизованно хранить и структурировать инструкции для ИИ-агентов. По сути, это каталоги, включающие скрипты, руководства и вспомогательные материалы для конкретных сценариев. В каждой папке находится файл SKILL.md с YAML-фронтматтером (название и описание) и подробным текстом-инструкцией. Концепция созвучна Claude Skills, что Hugging Face открыто признаёт.

Как LLM обучает другую LLM

С помощью Skills команда Hugging Face настроила модель Claude на дообучение открытых LLM с использованием открытых датасетов. Рассмотрим процесс:

  1. Пользователь формулирует задачу дообучения модели на выбранном датасете — можно указать свой или разрешить агенту подобрать самостоятельно. Например:

    Fine-tune Qwen3-0.6B on the open-r1/codeforces-cots dataset for instruction following.
  2. Агент анализирует объём модели и оценивает датасет, после чего подбирает оптимальную конфигурацию GPU. В нашем случае выбор падает на t4-small — минимально необходимый ресурс.

  3. Запуск обучения происходит на облачных GPU Hugging Face. Перед стартом агент выводит параметры:

    I'll fine-tune Qwen/Qwen3-0.6B on open-r1/codeforces-cots using SFT.
    
    Configuration:
    - Hardware: t4-small (~$0.75/hour)
    - Estimated time: ~20 minutes
    - Estimated cost: ~$0.30
    - Output: username/qwen-codeforces-cots-sft
    
    The model will be pushed to Hub automatically. Should I submit?
  4. После подтверждения начинается обучение, и пользователь получает дашборд в реальном времени через Trackio:

    Навыки Hugging Face: ИИ-агенты самостоятельно обучают языковые модели
    Пример дашборда в Trackio с данными по прогрессу обучения
  5. Промежуточные чекпоинты автоматически сохраняются в Hub. По завершении дообученная модель доступна для загрузки привычными методами:

    from transformers import AutoModelForCausalLM, AutoTokenizer
    
    model = AutoModelForCausalLM.from_pretrained("username/qwen-codeforces-cots-sft")
    tokenizer = AutoTokenizer.from_pretrained("username/qwen-codeforces-cots-sft")

Преимущества единой платформы

Hugging Face — одна из крупнейших экосистем, предлагающая всё для работы с ИИ в одном месте:

  • облачные вычисления для обучения;
  • управляемая ML-платформа и ключевые библиотеки;
  • обширная коллекция открытых моделей;
  • мощная библиотека открытых датасетов.

Такой комплексный подход позволяет Hugging Face опережать крупные корпорации, вынужденные продвигать собственные решения. Платформа стремится обеспечить максимальную совместимость Skills с разнообразными вендорами:

  • Claude Code (через SKILLS.md);
  • OpenAI Codex (через AGENTS.md);
  • Gemini CLI (через gemini-extension.json).

В ближайшем будущем ожидаются интеграции с Cursor, Windsurf и Continue.

Доступные Skills

Skill Описание Ссылка
hf_dataset_creator/ Промпты, фреймворки и скрипты для создания структурированных датасетов. SKILL.md
hf_model_evaluation/ Инструкции и инструменты для оценки моделей, подготовки отчётов и анализа метрик. SKILL.md
hf-llm-trainer/ Skill для дообучения моделей: руководство в SKILL.md и вспомогательные скрипты (train_sft_example.py, convert_to_gguf.py, оценка стоимости). SKILL.md
hf-paper-publisher/ Инструменты для публикации и управления научными статьями на Hub: индексация arXiv, привязка к моделям и датасетам, генерация по шаблону и учёт авторства. SKILL.md

Портфель Skills будет расширяться, прежде всего вокруг инфраструктуры Hugging Face.

Больше обзоров об ИИ-агентах — в моём Telegram-канале «Заместители».

 

Источник

Читайте также