boltMit Unsloth Studio loslegen

Ein Leitfaden zum Einstieg in das Fine-Tuning-Studio, Datenrezepte, Modellexport und Chat.

Unsloth Studio ist eine lokale, browserbasierte GUI zum Feinabstimmen von LLMs ohne Programmieraufwand. Es verpackt die Trainings-Pipeline in eine übersichtliche Oberfläche, die Modellladen, Dataset-Formatierung, Hyperparameter-Konfiguration und Live-Trainingsüberwachung übernimmt.

boltStudiohat-chefDatenrezeptbox-isometricExportcomment-dotsChatvideoVideo

Unsloth Studio einrichten

Starten Sie zuerst Unsloth Studio entweder über eine lokale Installation oder eine Cloud-Option. Folgen Sie den Installationsanweisungen für Ihre Einrichtung oder verwenden Sie unser kostenloses Colab Notebook. Für eine lokale Einrichtung führen Sie aus:

uunsloth studio -H 0.0.0.0 -p 8888

Öffnen Sie dann http://localhost:8888 in Ihrem Browser.

Beim ersten Start müssen Sie ein Passwort erstellen, um Ihr Konto zu sichern, und sich später wieder anmelden.

Anschließend sehen Sie einen kurzen Onboarding-Assistenten, um ein Modell, Dataset und grundlegende Einstellungen zu wählen. Sie können ihn jederzeit überspringen und alles manuell konfigurieren.

bolt Studio - Schnellstart

Die Unsloth Studio Startseite hat 4 Hauptbereiche: Modell, Datensatz, Parameter, und Training/Konfiguration

  • Einfache Einrichtung für Modelle und Daten von Hugging Face oder lokalen Dateien

  • Flexible Trainingsoptionen wie QLoRA, LoRA oder vollständiges Fine-Tuning, mit vorausgefüllten Standardwerten

  • Hilfreiche Konfigurationswerkzeuge für Splits, Spaltenzuordnung, Hyperparameter und YAML-Konfigurationen

  • Gute Trainingssichtbarkeit mit Live-Fortschritt, GPU-Statistiken, Diagrammen, Startstatus

1. Modell und Methode wählen

Modelltyp

Wählen Sie die Modalität, die zu Ihrem Anwendungsfall passt:

Typ
Anwendungsfall

Text

Chat, Anweisungsbefolgung, Vervollständigung

Vision

Bild + Text (VLMs)

Audio

Sprache / Audioverstehen

Embeddings

Satz-Embeddings, Retrieval

Trainingsmethode

Drei Methoden sind verfügbar und werden mit einem Pillenschalter umgeschaltet:

Methode
Beschreibung
VRAM

QLoRA

4-Bit quantisiertes Basismodell + LoRA-Adapter

Am niedrigsten

LoRA

Vollpräzises Basismodell + LoRA-Adapter

Mittel

Vollständiges Fine-Tuning

Alle Gewichte werden trainiert

Am höchsten

Geben Sie beliebigen Hugging Face Modellnamen ein oder durchsuchen Sie das Hub direkt aus dem Kombinationsfeld. Lokale Modelle, die in ~/.unsloth/studio/models gespeichert sind, sowie Ihr Hugging Face Cache erscheinen ebenfalls in der Liste.

circle-exclamation

Wenn Sie ein Modell auswählen, holt das Studio automatisch dessen Konfiguration vom Backend und füllt sinnvolle Standardwerte für alle Hyperparameter voraus.

HuggingFace-Token

Fügen Sie hier Ihr Hugging Face Zugriffstoken ein, wenn das Modell eingeschränkt ist (z. B. Llama, Gemma). Das Token wird in Echtzeit validiert und bei Ungültigkeit inline ein Fehler angezeigt.

2. Datensatz

Quelle

Wechseln Sie zwischen zwei Tabs, um auszuwählen, woher Ihre Daten stammen:

  • HuggingFace Hub - Live-Suche im Hub. Das zuletzt aktualisierte Datum wird für jedes Ergebnis angezeigt.

  • Lokal - Drag-and-Drop oder Klick, um eine unstrukturierte oder strukturierte Datei hochzuladen wie: PDF, DOCX, JSONL, JSON, CSV, oder Parquet Format. Zuvor hochgeladene Datensätze erscheinen in einer Liste, die sich automatisch aktualisiert.

Weisen Sie dem Studio an, wie Ihre Daten zu interpretieren und zu formatieren sind:

Format
Wann zu verwenden

auto

Lassen Sie Unsloth das Format automatisch erkennen

alpaca

Anweisung / Eingabe / Ausgabe Spalten

chatml

OpenAI-Stil Nachrichten Array

sharegpt

ShareGPT-ähnliche Konversationen

Splits und Ausschnitt

  • Subset - wird automatisch aus der Dataset-Karte befüllt.

  • Train-Split / Eval-Split - wählen Sie, welche Splits verwendet werden. Das Setzen eines Eval-Splits aktiviert das Eval Loss Diagramm während des Trainings.

  • Dataset-Ausschnitt - optional das Training auf einen Zeilenbereich (Startindex / Endindex) beschränken für schnelle Experimente.

Spaltenzuordnung

Wenn das Studio Ihre Dataset-Spalten nicht automatisch den richtigen Rollen zuordnen kann, öffnet sich ein Dataset-Vorschau-Dialog Es zeigt Beispielzeilen und ermöglicht es Ihnen, jede Spalte zuzuweisen an Anweisung, Eingabe, Ausgabe, Bild, usw. Vorgeschlagene Zuordnungen werden wo möglich vorausgefüllt.

3. Hyperparameter

Parameter sind in zusammenklappbare Abschnitte gruppiert. Sie können hier unseren detaillierten LoRA-Hyperparameter-Leitfaden ansehen:

🧠Hyperparameters Guidechevron-right
Parameter
Standard
Anmerkungen

Max Steps

0

0 bedeutet stattdessen Epochs verwenden

Kontextlänge

2048

Optionen: 512 → 32768

Lernrate

2e-4

LoRA-Einstellungen

(Ausgeblendet, wenn Vollständiges Fine-Tuning ausgewählt ist)

Parameter
Standard
Anmerkungen

Rang

16

Schieberegler 4–128

Alpha

32

Schieberegler 4–256

Dropout

0.05

LoRA-Variante

LoRA

LoRA / RS-LoRA / LoftQ

Zielmodule

Alle an

q_proj, k_proj, v_proj, o_proj, gate_proj, up_proj, down_proj

Für Vision Modelle mit einem Bild-Datensatz erscheinen vier zusätzliche Kontrollkästchen:

  • Vision-Schichten feinabstimmen

  • Sprach-Schichten feinabstimmen

  • Aufmerksamkeits-Module feinabstimmen

  • MLP-Module feinabstimmen

Trainings-Hyperparameter

Organisiert in drei Tabs:

| Parameter | Standard | |---|---| | Epochen | 3 | | Batch-Größe | 4 | | Gradient Accumulation | 8 | | Gewichtungsabnahme | 0.01 | | Optimizer | AdamW 8-Bit |

circle-info

Unsloth Gradient Checkpointing: unsloth verwendet Unsloths eigene speichereffiziente Implementierung, die den VRAM-Verbrauch im Vergleich zur Standard-PyTorch-Option deutlich reduzieren kann. Es ist die empfohlene Voreinstellung.

4. Training und Konfiguration

Die Karte unten rechts hat drei Konfigurationsverwaltungs-Schaltflächen und den Training starten Button.

Schaltfläche
Aktion

Hochladen

Laden Sie eine zuvor gespeicherte .yaml Konfigurationsdatei

Speichern

Exportieren Sie die aktuelle Konfiguration als YAML

Zurücksetzen

Setzt alle Parameter auf die Standardeinstellungen des Modells zurück

Der Button 'Training starten' bleibt deaktiviert, bis sowohl ein Modell als auch ein Datensatz konfiguriert sind. Validierungsfehler erscheinen inline – zum Beispiel das Setzen von Eval-Schritten ohne Auswahl eines Eval-Splits oder das Kombinieren eines reinen Textmodells mit einem Vision-Datensatz.

Ladebildschirm

Nachdem Sie auf Training startengeklickt haben, erscheint eine vollbildige Überlagerung, während das Backend alles vorbereitet.

Die Überlagerung zeigt ein animiertes Terminal mit Live-Phasen-Updates:

  • Blau: Modell / Datensatz herunterladen

  • Bernstein: Modell / Datensatz laden

  • Blau: Konfigurieren

  • Grün: Training

Sie können jederzeit mit der × Schaltfläche in der Ecke abbrechen. Ein Bestätigungsdialog erscheint, bevor etwas gestoppt wird.

Trainingsfortschritt und Beobachtbarkeit

Sobald der erste Trainingsschritt eintrifft, verschwindet die Überlagerung und die Live-Trainingsansicht wird angezeigt. Der Feinabstimmungsprozess ist abgeschlossen, wenn die Schritte 100% in der Fortschrittsleiste erreichen. Sie können die verstrichene Zeit und die Token anzeigen.

Status-Panel

Die linke Spalte zeigt:

  • Epoche - aktuelle Bruch-Epoche (z. B. Epoche 1.23)

  • Fortschrittsbalken - schrittbasiert, mit Prozentsatz

  • Wichtige Metriken:

    • Loss - Trainingsverlust auf 4 Dezimalstellen

    • LR - aktuelle Lernrate in wissenschaftlicher Schreibweise

    • Grad Norm - Gradientennorm

    • Modell - das Modell, das trainiert wird

    • Methode - QLoRA / LoRA / Vollständig

  • Timing-Zeile - verstrichene Zeit, ETA, Schritte pro Sekunde und insgesamt verarbeitete Token

GPU-Monitor

Die rechte Spalte zeigt Live-GPU-Statistiken, die alle paar Sekunden abgefragt werden:

  • Auslastung - Prozentbalken

  • Temperatur - °C-Balken

  • VRAM - verwendet / insgesamt GB

  • Leistung - Verbrauch / Limit in Watt

Training stoppen

Verwenden Sie die Training stoppen Schaltfläche oben rechts in der Fortschrittskarte. Ein Dialog gibt Ihnen zwei Optionen:

  • Stoppen & Speichern - speichert einen Checkpoint bevor gestoppt wird

  • Abbrechen - stoppt sofort ohne Checkpoint

Diagramme

Vier Live-Diagramme aktualisieren sich während des Trainings:

  1. Trainingsverlust - Rohwerte plus eine EMA-gesmokte Linie und eine laufende Durchschnitts-Referenzlinie

  2. Lernrate - die LR-Schedule-Kurve

  3. Gradienten-Norm - Gradientennorm über die Schritte

  4. Eval Loss - nur angezeigt, wenn Sie einen Eval-Split konfiguriert haben

Jedes Diagramm hat Einstellungen (Zahnrad-Symbol) mit:

Option
Standard

Ansichtsfenster

Letzte N-Schritte Schieberegler

EMA-Glättung

0.6

Roh anzeigen

An

Geglättet anzeigen

An

Durchschnittslinie anzeigen

An

Skalierung (pro Serie)

Linear / Log

Ausreißer-Beschneidung

Kein Schnitt / p99 / p95

Konfigurationsdateien

Alle Trainingskonfigurationen können als YAML-Dateien gespeichert und wieder geladen werden. Dateien werden automatisch wie folgt benannt:

Das YAML ist in drei Abschnitte strukturiert:

So lassen sich Läufe leicht reproduzieren, Konfigurationen teilen oder Ihre Experimente versionieren.

hat-chef Data Recipes - Schnellstart

Unsloth Data Recipes ermöglicht es Ihnen, Dokumente wie PDFs oder CSV-Dateien hochzuladen und in nutzbare Datensätze zu transformieren. Erstellen und bearbeiten Sie Datensätze visuell über einen Graph-Knoten-Workflow.

Die Recipes-Seite ist der Haupteinstiegspunkt. Rezepte werden lokal im Browser gespeichert, sodass Sie später zu gespeicherter Arbeit zurückkehren können. Von hier aus können Sie ein leeres Rezept erstellen oder ein geführtes Lernrezept öffnen.

Data Recipes folgt dem gleichen grundlegenden Ablauf. Sie öffnen die Recipes-Seite, erstellen oder wählen ein Rezept, bauen den Workflow im Editor auf, validieren ihn, führen eine Vorschau aus und starten dann den vollständigen Datensatz, sobald die Ausgabe richtig aussieht. Fügen Sie Seed-Daten und Generierungsblöcke hinzu, validieren Sie den Workflow, sehen Sie sich Beispielausgaben an und starten Sie dann einen vollständigen Datensatzaufbau. Unsloth Data Recipes wird von NVIDIA DataDesignerarrow-up-right.

Auf einen Blick sollte ein üblicher Workflow so aussehen:

  1. Öffnen Sie die Recipes-Seite.

  2. Erstellen Sie ein neues Rezept oder öffnen Sie ein vorhandenes.

  3. Fügen Sie Blöcke hinzu, um Ihren Dataset-Workflow zu definieren.

  4. Klicken Sie auf Validieren um Konfigurationsprobleme frühzeitig zu erkennen.

  5. Führen Sie eine Vorschau aus, um Stichprobenzeilen schnell zu prüfen.

  6. Führen Sie einen vollständigen Datensatzaufbau durch, wenn das Rezept fertig ist.

  7. Überprüfen Sie Fortschritt und Ausgabe live im Graph oder in Ausführungen Ansicht für Modus-Details.

  8. Wählen Sie den resultierenden Datensatz in Studio aus und finetunen Sie ein Modell.

box-isometric Export - Schnellstart

Verwenden Sie Unsloth Studio 'Export', um Modelle zu exportieren, zu speichern oder in GGUF, Safetensors oder LoRA zu konvertieren für den Einsatz, das Teilen oder lokale Inferenz in Unsloth, llama.cpp, Ollama, vLLM und mehr. Exportieren Sie einen trainierten Checkpoint oder konvertieren Sie ein beliebiges vorhandenes Modell.

Unser ausführliches Tutorial / Leitfaden zum Exportieren von Modellen mit Unsloth Studio finden Sie hier:

box-isometricModel Exportchevron-right

comment-dots Chat - Schnellstart

Unsloth Studio ermöglicht es Ihnen, Modelle zu 100% offline auf Ihrem Computer auszuführen. Führen Sie Modellformate wie GGUF und safetensors von Hugging Face oder aus Ihren lokalen Dateien aus.

  • Herunterladen + Ausführen beliebige Modelle wie GGUFs, feinabgestimmte Adapter, safetensors usw.

  • Vergleichen verschiedene Modell- Ausgaben nebeneinander

  • Hochladen Dokumente, Bilder und Audio in Ihren Prompts

  • Anpassen Inferenz- Einstellungen wie: Temperatur, Top-p, Top-k und System-Prompt

Unser detailliertes Tutorial / Leitfaden zum Ausführen von Modellen mit Unsloth Studio finden Sie hier:

comment-dotsStudio Chatchevron-right

video Video-Tutorial

Hier sind 2 Video-Tutorials, um Ihnen den Einstieg mit Unsloth Studio zu erleichtern!

circle-exclamation

Hier ist ein von NVIDIA erstelltes Video-Tutorial, um Ihnen den Einstieg in Studio zu erleichtern:

Hier ist unser vollständiges Schritt-für-Schritt-Video-Tutorial, von der Installation bis zur Nutzung des Studios:

Erweiterte Einstellungen

CLI-Befehle

Die Unsloth CLI (cli.py) bietet die folgenden Befehle:

Projektstruktur

API-Referenz

Alle Endpunkte benötigen einen gültigen JWT Authorization: Bearer <token> Header (außer /api/auth/* und /api/health).

Methode
Endpunkt
Beschreibung

GET

/api/health

Gesundheitsprüfung

GET

/api/system

Systeminformationen (GPU, CPU, Speicher)

POST

/api/auth/signup

Account erstellen (erfordert beim ersten Start ein Setup-Token)

POST

/api/auth/login

Anmelden und JWT-Tokens erhalten

POST

/api/auth/refresh

Ein abgelaufenes Zugriffstoken erneuern

GET

/api/auth/status

Prüfen, ob Auth initialisiert ist

POST

/api/train/start

Starte einen Trainingsjob

POST

/api/train/stop

Einen laufenden Trainingsauftrag stoppen

POST

/api/train/reset

Trainingszustand zurücksetzen

GET

/api/train/status

Aktuellen Trainingsstatus abrufen

GET

/api/train/metrics

Trainingsmetriken abrufen (Loss, Lernrate, Schritte)

GET

/api/train/stream

SSE-Stream des Echtzeit-Trainingsfortschritts

GET

/api/models/

Verfügbare Modelle auflisten

POST

/api/inference/chat

Eine Chat-Nachricht zur Inferenz senden

GET

/api/datasets/

Datensätze auflisten / verwalten

Zuletzt aktualisiert

War das hilfreich?