Déploiement avec Hugging Face Jobs

Utiliser Hugging Face Jobs pour affiner LFM avec Codex / Claude Code avec une SKILL.

Ce guide explique comment utiliser Unslotharrow-up-right et Liquid LFM2.5 pour un ajustement rapide de LLM via des agents de codage comme Claude Code & OpenAI Codex. Unsloth offre un entraînement ~2x plus rapide et ~60% de VRAM en moins par rapport aux méthodes standard.

Vous aurez besoin de

Installation de la Skill

Claude Code

Claude Code découvre les skills via son système de pluginsarrow-up-right.

  1. Ajoutez le marketplace :

/plugin marketplace add huggingface/skills
  1. Parcourez les skills disponibles dans l'onglet Découvrir :

/plugin
  1. Installez la skill de model trainer :

/plugin install hugging-face-model-trainer@huggingface-skills

Pour plus de détails, voyez les docs des plugins Claude Codearrow-up-right et les docs des Skillsarrow-up-right.

Codex

Codex découvre les skills via AGENTS.mdarrow-up-right fichiers et .agents/skills/arrow-up-right répertoires.

Installez les skills individuellement avec $skill-installer

Pour plus de détails, voyez les Docs des Codex Skillsarrow-up-right et les Guide AGENTS.mdarrow-up-right.

Démarrage rapide

Une fois la skill installée, demandez à votre agent de codage d'entraîner un modèle. Nous utilisons Liquid LFM2.5

L'agent générera un script d'entraînement basé sur un exemple dans la skillarrow-up-right, soumettra l'entraînement à HF Jobs et fournira un lien de surveillance via Trackio.

Utilisation de Hugging Face Jobs

Les jobs d'entraînement s'exécuteront sur Hugging Face Jobsarrow-up-right — GPU cloud entièrement gérés. Si vous connaissez les crédits Google Colab, Hugging Face Jobs propose également un système de crédits similaire. C'est une structure Pay As You Go, ou vous pouvez obtenir des crédits à l'avance. L'agent :

  1. Génère un script UV avec les dépendances en ligne

  2. Le soumet à HF Jobs via le hf CLI

  3. Signale l'ID du job et l'URL de surveillance

  4. Le modèle entraîné est poussé vers votre dépôt sur Hugging Face Hub

Exemple de script d'entraînement

La skill génère des scripts comme celui-ci :

Le coût de l'entraînement avec Hugging Face Jobs est ci-dessous :

Taille du modèle
GPU recommandé
Coût approx./heure

<1B paramètres

t4-small

~$0.40

1-3B paramètres

t4-medium

~$0.60

3-7B paramètres

a10g-small

~$1.00

7-13B paramètres

a10g-large

~$3.00

Pour un aperçu complet des tarifs des espaces Hugging Face, consultez le guide iciarrow-up-right.

Conseils pour travailler avec des agents de codage

  • Soyez précis sur le modèle et le jeu de données à utiliser et incluez les ID du Hub (par ex., Qwen/Qwen2.5-0.5B, trl-lib/Capybara). Les agents rechercheront et valideront ces combinaisons.

  • Mentionnez explicitement Unsloth si vous souhaitez qu'il soit utilisé. Sinon, l'agent choisira le framework en fonction du modèle et du budget.

  • Demandez des estimations de coûts avant de lancer de gros jobs

  • Demandez la surveillance Trackio pour des courbes de perte en temps réel

  • Vérifiez le statut du job en demandant à l'agent d'inspecter les logs après la soumission

Ressources

Mis à jour

Ce contenu vous a-t-il été utile ?