Bereitstellung mit Hugging Face Jobs

Verwendung von Hugging Face Jobs zum Feinabstimmen von LFM mit Codex / Claude Code mit einem SKILL.

Diese Anleitung behandelt, wie man Unslotharrow-up-right und Liquid LFM2.5 für schnelles Feintuning von LLMs über Coding-Agenten wie Claude Code & OpenAI Codex. Unsloth bietet etwa 2x schnellere Trainingszeiten und etwa 60 % weniger VRAM-Nutzung im Vergleich zu Standardmethoden.

Sie benötigen

Installation der Skill

Claude Code

Claude Code entdeckt Skills über sein Plugin-Systemarrow-up-right.

  1. Fügen Sie den Marktplatz hinzu:

/plugin marketplace add huggingface/skills
  1. Durchsuchen Sie verfügbare Skills im Entdecken Tab:

/plugin
  1. Installieren Sie die Model Trainer-Skill:

/plugin install hugging-face-model-trainer@huggingface-skills

Für weitere Details siehe das Claude Code Plugins-Dokumentationarrow-up-right und die Skills-Dokumentationarrow-up-right.

Codex

Codex entdeckt Skills durch AGENTS.mdarrow-up-right Dateien und .agents/skills/arrow-up-right Verzeichnisse.

Installieren Sie einzelne Skills mit $skill-installer

Für weitere Details siehe das Codex Skills-Dokumentationarrow-up-right und die AGENTS.md Anleitungarrow-up-right.

Schnellstart

Sobald die Skill installiert ist, bitten Sie Ihren Coding-Agenten, ein Modell zu trainieren. Wir verwenden Liquid LFM2.5

Der Agent wird ein Trainingsskript basierend auf einem Beispiel in der Skillarrow-up-rightgenerieren, das Training an HF Jobs übermitteln und einen Überwachungslink über Trackio bereitstellen.

Verwendung von Hugging Face Jobs

Trainings-Jobs laufen auf Hugging Face Jobsarrow-up-right — vollständig verwalteten Cloud-GPUs. Wenn Sie mit Google Colab-Guthaben vertraut sind, bietet Hugging Face Jobs ein ähnliches Guthabensystem. Es handelt sich um ein Pay-As-You-Go-Modell, oder Sie können Guthaben im Voraus erhalten. Der Agent:

  1. Erzeugt ein UV-Skript mit eingebetteten Abhängigkeiten

  2. Übermittelt es an HF Jobs über das hf CLI

  3. Meldet die Job-ID und die Überwachungs-URL

  4. Das trainierte Modell wird in Ihr Hugging Face Hub-Repository hochgeladen

Beispiel-Trainingsskript

Die Skill erzeugt Skripte wie dieses:

Die Kosten für das Training mit Hugging Face Jobs sind unten aufgeführt:

Modellgröße
Empfohlene GPU
Ungefähre Kosten/Stunde

<1B Parameter

t4-small

~$0.40

1-3B Parameter

t4-medium

~$0.60

3-7B Parameter

a10g-small

~$1.00

7-13B Parameter

a10g-large

~$3.00

Für einen vollständigen Überblick über die Preisgestaltung von Hugging Face Spaces siehe die Anleitung hierarrow-up-right.

Tipps für die Arbeit mit Coding-Agenten

  • Seien Sie spezifisch bezüglich des zu verwendenden Modells und Datensatzes und fügen Sie Hub-IDs hinzu (z. B. Qwen/Qwen2.5-0.5B, trl-lib/Capybara). Agenten werden diese Kombinationen suchen und validieren.

  • Nennen Sie Unsloth ausdrücklich, wenn Sie dessen Verwendung wünschen. Andernfalls entscheidet der Agent das Framework basierend auf Modell und Budget.

  • Bitten Sie um Kostenschätzungen, bevor Sie große Jobs starten

  • Fordern Sie Trackio-Überwachung für Echtzeit-Verlustkurven an

  • Prüfen Sie den Jobstatus, indem Sie den Agenten nach der Einreichung die Logs untersuchen lassen

Ressourcen

Zuletzt aktualisiert

War das hilfreich?