Mit Unsloth Studio loslegen
Ein Leitfaden zum Einstieg in das Fine-Tuning-Studio, Datenrezepte, Modellexport und Chat.
Unsloth Studio ist eine lokale, browserbasierte GUI zum Feinabstimmen von LLMs ohne Programmieraufwand. Es verpackt die Trainings-Pipeline in eine übersichtliche Oberfläche, die Modellladen, Dataset-Formatierung, Hyperparameter-Konfiguration und Live-Trainingsüberwachung übernimmt.
StudioDatenrezeptExportChatVideo
Unsloth Studio einrichten
Starten Sie zuerst Unsloth Studio entweder über eine lokale Installation oder eine Cloud-Option. Folgen Sie den Installationsanweisungen für Ihre Einrichtung oder verwenden Sie unser kostenloses Colab Notebook. Für eine lokale Einrichtung führen Sie aus:
uunsloth studio -H 0.0.0.0 -p 8888Öffnen Sie dann http://localhost:8888 in Ihrem Browser.
Beim ersten Start müssen Sie ein Passwort erstellen, um Ihr Konto zu sichern, und sich später wieder anmelden.
Anschließend sehen Sie einen kurzen Onboarding-Assistenten, um ein Modell, Dataset und grundlegende Einstellungen zu wählen. Sie können ihn jederzeit überspringen und alles manuell konfigurieren.

Studio - Schnellstart
Die Unsloth Studio Startseite hat 4 Hauptbereiche: Modell, Datensatz, Parameter, und Training/Konfiguration
Einfache Einrichtung für Modelle und Daten von Hugging Face oder lokalen Dateien
Flexible Trainingsoptionen wie QLoRA, LoRA oder vollständiges Fine-Tuning, mit vorausgefüllten Standardwerten
Hilfreiche Konfigurationswerkzeuge für Splits, Spaltenzuordnung, Hyperparameter und YAML-Konfigurationen
Gute Trainingssichtbarkeit mit Live-Fortschritt, GPU-Statistiken, Diagrammen, Startstatus

1. Modell und Methode wählen
Modelltyp
Wählen Sie die Modalität, die zu Ihrem Anwendungsfall passt:
Text
Chat, Anweisungsbefolgung, Vervollständigung
Vision
Bild + Text (VLMs)
Audio
Sprache / Audioverstehen
Embeddings
Satz-Embeddings, Retrieval
Trainingsmethode
Drei Methoden sind verfügbar und werden mit einem Pillenschalter umgeschaltet:
QLoRA
4-Bit quantisiertes Basismodell + LoRA-Adapter
Am niedrigsten
LoRA
Vollpräzises Basismodell + LoRA-Adapter
Mittel
Vollständiges Fine-Tuning
Alle Gewichte werden trainiert
Am höchsten
Geben Sie beliebigen Hugging Face Modellnamen ein oder durchsuchen Sie das Hub direkt aus dem Kombinationsfeld. Lokale Modelle, die in ~/.unsloth/studio/models gespeichert sind, sowie Ihr Hugging Face Cache erscheinen ebenfalls in der Liste.
GGUF-Format-Modelle sind vom Training ausgeschlossen – sie sind nur für Inferenz.
Wenn Sie ein Modell auswählen, holt das Studio automatisch dessen Konfiguration vom Backend und füllt sinnvolle Standardwerte für alle Hyperparameter voraus.
HuggingFace-Token
Fügen Sie hier Ihr Hugging Face Zugriffstoken ein, wenn das Modell eingeschränkt ist (z. B. Llama, Gemma). Das Token wird in Echtzeit validiert und bei Ungültigkeit inline ein Fehler angezeigt.
2. Datensatz
Quelle
Wechseln Sie zwischen zwei Tabs, um auszuwählen, woher Ihre Daten stammen:
HuggingFace Hub - Live-Suche im Hub. Das zuletzt aktualisierte Datum wird für jedes Ergebnis angezeigt.
Lokal - Drag-and-Drop oder Klick, um eine unstrukturierte oder strukturierte Datei hochzuladen wie:
PDF,DOCX,JSONL,JSON,CSV, oderParquetFormat. Zuvor hochgeladene Datensätze erscheinen in einer Liste, die sich automatisch aktualisiert.
Weisen Sie dem Studio an, wie Ihre Daten zu interpretieren und zu formatieren sind:
auto
Lassen Sie Unsloth das Format automatisch erkennen
alpaca
Anweisung / Eingabe / Ausgabe Spalten
chatml
OpenAI-Stil Nachrichten Array
sharegpt
ShareGPT-ähnliche Konversationen
Splits und Ausschnitt
Subset - wird automatisch aus der Dataset-Karte befüllt.
Train-Split / Eval-Split - wählen Sie, welche Splits verwendet werden. Das Setzen eines Eval-Splits aktiviert das Eval Loss Diagramm während des Trainings.
Dataset-Ausschnitt - optional das Training auf einen Zeilenbereich (Startindex / Endindex) beschränken für schnelle Experimente.
Spaltenzuordnung
Wenn das Studio Ihre Dataset-Spalten nicht automatisch den richtigen Rollen zuordnen kann, öffnet sich ein Dataset-Vorschau-Dialog Es zeigt Beispielzeilen und ermöglicht es Ihnen, jede Spalte zuzuweisen an Anweisung, Eingabe, Ausgabe, Bild, usw. Vorgeschlagene Zuordnungen werden wo möglich vorausgefüllt.
3. Hyperparameter
Parameter sind in zusammenklappbare Abschnitte gruppiert. Sie können hier unseren detaillierten LoRA-Hyperparameter-Leitfaden ansehen:
🧠Hyperparameters GuideMax Steps
0
0 bedeutet stattdessen Epochs verwenden
Kontextlänge
2048
Optionen: 512 → 32768
Lernrate
2e-4
LoRA-Einstellungen
(Ausgeblendet, wenn Vollständiges Fine-Tuning ausgewählt ist)
Rang
16
Schieberegler 4–128
Alpha
32
Schieberegler 4–256
Dropout
0.05
LoRA-Variante
LoRA
LoRA / RS-LoRA / LoftQ
Zielmodule
Alle an
q_proj, k_proj, v_proj, o_proj, gate_proj, up_proj, down_proj
Für Vision Modelle mit einem Bild-Datensatz erscheinen vier zusätzliche Kontrollkästchen:
Vision-Schichten feinabstimmen
Sprach-Schichten feinabstimmen
Aufmerksamkeits-Module feinabstimmen
MLP-Module feinabstimmen
Trainings-Hyperparameter
Organisiert in drei Tabs:
| Parameter | Standard | |---|---| | Epochen | 3 | | Batch-Größe | 4 | | Gradient Accumulation | 8 | | Gewichtungsabnahme | 0.01 | | Optimizer | AdamW 8-Bit |
| Parameter | Standard | |---|---| | LR-Scheduler | linear | | Warmup-Schritte | 5 | | Gradient Checkpointing | unsloth | | Zufalls-Seed | 3407 | | Save-Schritte | 0 | | Eval-Schritte | 0 | | Packing | false | | Auf Completions trainieren | false |
| Parameter | Standard | |---|---| | W&B aktivieren | false | | W&B Projekt | llm-finetuning | | TensorBoard aktivieren | false | | TensorBoard Verzeichnis | runs | | Protokollfrequenz | 10 |
Unsloth Gradient Checkpointing: unsloth verwendet Unsloths eigene speichereffiziente Implementierung, die den VRAM-Verbrauch im Vergleich zur Standard-PyTorch-Option deutlich reduzieren kann. Es ist die empfohlene Voreinstellung.
4. Training und Konfiguration
Die Karte unten rechts hat drei Konfigurationsverwaltungs-Schaltflächen und den Training starten Button.
Hochladen
Laden Sie eine zuvor gespeicherte .yaml Konfigurationsdatei
Speichern
Exportieren Sie die aktuelle Konfiguration als YAML
Zurücksetzen
Setzt alle Parameter auf die Standardeinstellungen des Modells zurück
Der Button 'Training starten' bleibt deaktiviert, bis sowohl ein Modell als auch ein Datensatz konfiguriert sind. Validierungsfehler erscheinen inline – zum Beispiel das Setzen von Eval-Schritten ohne Auswahl eines Eval-Splits oder das Kombinieren eines reinen Textmodells mit einem Vision-Datensatz.
Ladebildschirm
Nachdem Sie auf Training startengeklickt haben, erscheint eine vollbildige Überlagerung, während das Backend alles vorbereitet.

Die Überlagerung zeigt ein animiertes Terminal mit Live-Phasen-Updates:
Blau: Modell / Datensatz herunterladen
Bernstein: Modell / Datensatz laden
Blau: Konfigurieren
Grün: Training
Sie können jederzeit mit der × Schaltfläche in der Ecke abbrechen. Ein Bestätigungsdialog erscheint, bevor etwas gestoppt wird.
Trainingsfortschritt und Beobachtbarkeit
Sobald der erste Trainingsschritt eintrifft, verschwindet die Überlagerung und die Live-Trainingsansicht wird angezeigt. Der Feinabstimmungsprozess ist abgeschlossen, wenn die Schritte 100% in der Fortschrittsleiste erreichen. Sie können die verstrichene Zeit und die Token anzeigen.

Status-Panel
Die linke Spalte zeigt:
Epoche - aktuelle Bruch-Epoche (z. B.
Epoche 1.23)Fortschrittsbalken - schrittbasiert, mit Prozentsatz
Wichtige Metriken:
Loss - Trainingsverlust auf 4 Dezimalstellen
LR - aktuelle Lernrate in wissenschaftlicher Schreibweise
Grad Norm - Gradientennorm
Modell - das Modell, das trainiert wird
Methode -
QLoRA/LoRA/Vollständig
Timing-Zeile - verstrichene Zeit, ETA, Schritte pro Sekunde und insgesamt verarbeitete Token
GPU-Monitor
Die rechte Spalte zeigt Live-GPU-Statistiken, die alle paar Sekunden abgefragt werden:
Auslastung - Prozentbalken
Temperatur - °C-Balken
VRAM - verwendet / insgesamt GB
Leistung - Verbrauch / Limit in Watt
Training stoppen
Verwenden Sie die Training stoppen Schaltfläche oben rechts in der Fortschrittskarte. Ein Dialog gibt Ihnen zwei Optionen:
Stoppen & Speichern - speichert einen Checkpoint bevor gestoppt wird
Abbrechen - stoppt sofort ohne Checkpoint
Diagramme
Vier Live-Diagramme aktualisieren sich während des Trainings:
Trainingsverlust - Rohwerte plus eine EMA-gesmokte Linie und eine laufende Durchschnitts-Referenzlinie
Lernrate - die LR-Schedule-Kurve
Gradienten-Norm - Gradientennorm über die Schritte
Eval Loss - nur angezeigt, wenn Sie einen Eval-Split konfiguriert haben

Jedes Diagramm hat Einstellungen (Zahnrad-Symbol) mit:
Ansichtsfenster
Letzte N-Schritte Schieberegler
EMA-Glättung
0.6
Roh anzeigen
An
Geglättet anzeigen
An
Durchschnittslinie anzeigen
An
Skalierung (pro Serie)
Linear / Log
Ausreißer-Beschneidung
Kein Schnitt / p99 / p95

Konfigurationsdateien
Alle Trainingskonfigurationen können als YAML-Dateien gespeichert und wieder geladen werden. Dateien werden automatisch wie folgt benannt:

Das YAML ist in drei Abschnitte strukturiert:
So lassen sich Läufe leicht reproduzieren, Konfigurationen teilen oder Ihre Experimente versionieren.
Data Recipes - Schnellstart
Unsloth Data Recipes ermöglicht es Ihnen, Dokumente wie PDFs oder CSV-Dateien hochzuladen und in nutzbare Datensätze zu transformieren. Erstellen und bearbeiten Sie Datensätze visuell über einen Graph-Knoten-Workflow.
Die Recipes-Seite ist der Haupteinstiegspunkt. Rezepte werden lokal im Browser gespeichert, sodass Sie später zu gespeicherter Arbeit zurückkehren können. Von hier aus können Sie ein leeres Rezept erstellen oder ein geführtes Lernrezept öffnen.

Data Recipes folgt dem gleichen grundlegenden Ablauf. Sie öffnen die Recipes-Seite, erstellen oder wählen ein Rezept, bauen den Workflow im Editor auf, validieren ihn, führen eine Vorschau aus und starten dann den vollständigen Datensatz, sobald die Ausgabe richtig aussieht. Fügen Sie Seed-Daten und Generierungsblöcke hinzu, validieren Sie den Workflow, sehen Sie sich Beispielausgaben an und starten Sie dann einen vollständigen Datensatzaufbau. Unsloth Data Recipes wird von NVIDIA DataDesigner.
Auf einen Blick sollte ein üblicher Workflow so aussehen:
Öffnen Sie die Recipes-Seite.
Erstellen Sie ein neues Rezept oder öffnen Sie ein vorhandenes.
Fügen Sie Blöcke hinzu, um Ihren Dataset-Workflow zu definieren.
Klicken Sie auf Validieren um Konfigurationsprobleme frühzeitig zu erkennen.
Führen Sie eine Vorschau aus, um Stichprobenzeilen schnell zu prüfen.
Führen Sie einen vollständigen Datensatzaufbau durch, wenn das Rezept fertig ist.
Überprüfen Sie Fortschritt und Ausgabe live im Graph oder in Ausführungen Ansicht für Modus-Details.
Wählen Sie den resultierenden Datensatz in Studio aus und finetunen Sie ein Modell.
Export - Schnellstart
Verwenden Sie Unsloth Studio 'Export', um Modelle zu exportieren, zu speichern oder in GGUF, Safetensors oder LoRA zu konvertieren für den Einsatz, das Teilen oder lokale Inferenz in Unsloth, llama.cpp, Ollama, vLLM und mehr. Exportieren Sie einen trainierten Checkpoint oder konvertieren Sie ein beliebiges vorhandenes Modell.

Unser ausführliches Tutorial / Leitfaden zum Exportieren von Modellen mit Unsloth Studio finden Sie hier:
Model Export Chat - Schnellstart
Unsloth Studio ermöglicht es Ihnen, Modelle zu 100% offline auf Ihrem Computer auszuführen. Führen Sie Modellformate wie GGUF und safetensors von Hugging Face oder aus Ihren lokalen Dateien aus.
Herunterladen + Ausführen beliebige Modelle wie GGUFs, feinabgestimmte Adapter, safetensors usw.
Vergleichen verschiedene Modell- Ausgaben nebeneinander
Hochladen Dokumente, Bilder und Audio in Ihren Prompts
Anpassen Inferenz- Einstellungen wie: Temperatur, Top-p, Top-k und System-Prompt

Unser detailliertes Tutorial / Leitfaden zum Ausführen von Modellen mit Unsloth Studio finden Sie hier:
Studio Chat Video-Tutorial
Hier sind 2 Video-Tutorials, um Ihnen den Einstieg mit Unsloth Studio zu erleichtern!
Die in den Videos gezeigten Unsloth Studio-Versionen sind veraltet und spiegeln nicht die aktuelle Version wider.
Hier ist ein von NVIDIA erstelltes Video-Tutorial, um Ihnen den Einstieg in Studio zu erleichtern:
Hier ist unser vollständiges Schritt-für-Schritt-Video-Tutorial, von der Installation bis zur Nutzung des Studios:
Erweiterte Einstellungen
CLI-Befehle
Die Unsloth CLI (cli.py) bietet die folgenden Befehle:
Projektstruktur
API-Referenz
Alle Endpunkte benötigen einen gültigen JWT Authorization: Bearer <token> Header (außer /api/auth/* und /api/health).
GET
/api/health
Gesundheitsprüfung
GET
/api/system
Systeminformationen (GPU, CPU, Speicher)
POST
/api/auth/signup
Account erstellen (erfordert beim ersten Start ein Setup-Token)
POST
/api/auth/login
Anmelden und JWT-Tokens erhalten
POST
/api/auth/refresh
Ein abgelaufenes Zugriffstoken erneuern
GET
/api/auth/status
Prüfen, ob Auth initialisiert ist
POST
/api/train/start
Starte einen Trainingsjob
POST
/api/train/stop
Einen laufenden Trainingsauftrag stoppen
POST
/api/train/reset
Trainingszustand zurücksetzen
GET
/api/train/status
Aktuellen Trainingsstatus abrufen
GET
/api/train/metrics
Trainingsmetriken abrufen (Loss, Lernrate, Schritte)
GET
/api/train/stream
SSE-Stream des Echtzeit-Trainingsfortschritts
GET
/api/models/
Verfügbare Modelle auflisten
POST
/api/inference/chat
Eine Chat-Nachricht zur Inferenz senden
GET
/api/datasets/
Datensätze auflisten / verwalten
Zuletzt aktualisiert
War das hilfreich?

