# Einführung in Unsloth Studio

Heute starten wir **Unsloth Studio** (Beta): eine Open-Source-Weboberfläche ohne Code zum Trainieren, Ausführen und Exportieren offener Modelle in einer einzigen einheitlichen **lokalen** Oberfläche.

<a href="#quickstart" class="button primary" data-icon="bolt">Schnellstart</a><a href="#features" class="button secondary" data-icon="star">Funktionen</a><a href="https://github.com/unslothai/unsloth" class="button secondary" data-icon="github">Github</a>

* **GGUF ausführen** und safetensor-Modelle lokal auf **Mac**, Windows, Linux.
* Trainiere über 500 Modelle 2x schneller mit 70 % weniger VRAM (ohne Genauigkeitsverlust)
* Text-, Vision-, TTS-Audio- und Embedding-Modelle ausführen und trainieren

{% hint style="success" %}
**Für alle neuesten Updates siehe unsere** [**neue Changelog-Seite hier**](https://unsloth.ai/docs/de/neu/changelog)**!** ✨
{% endhint %}

<div data-with-frame="true"><figure><img src="https://797013937-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FxV1PO5DbF3ksB51nE2Tw%2Fmore%20cropped%20ui%20for%20homepage.png?alt=media&#x26;token=f75942c9-3d8d-4b59-8ba2-1a4a38de1b86" alt=""><figcaption></figcaption></figure></div>

* **MacOS** und **CPU** funktionieren für [Chat](#run-models-locally) GGUF-Inferenz und [Data Recipes](https://unsloth.ai/docs/de/neu/studio/data-recipe). MLX-Training kommt bald.
* Kein Datensatz erforderlich. [**Datensätze automatisch erstellen**](https://unsloth.ai/docs/de/neu/studio/data-recipe) aus **PDF, CSV, JSON, DOCX, TXT** Dateien.
* [Exportieren oder speichern](https://unsloth.ai/docs/de/neu/studio/export) dein Modell als GGUF, 16-Bit-safetensor usw.
* [**Selbstheilende Tool-Aufrufe**](https://unsloth.ai/docs/de/neu/chat#auto-healing-tool-calling) / Websuche + [**Codeausführung**](https://unsloth.ai/docs/de/neu/chat#code-execution)
* [Automatisches Tuning der Inferenzparameter](https://unsloth.ai/docs/de/neu/chat#auto-parameter-tuning) und Chat-Vorlagen bearbeiten.

## ⭐ Funktionen

{% columns %}
{% column %}

### **Modelle lokal ausführen**

[GGUF suchen und ausführen](https://unsloth.ai/docs/de/neu/studio/chat) und safetensor-Modelle mit [selbstheilenden Tool-](https://unsloth.ai/docs/de/neu/chat#auto-healing-tool-calling) Aufrufen / Websuche, [automatischem Inferenz-](https://unsloth.ai/docs/de/neu/chat#auto-parameter-tuning) Parameter-Tuning, [**Codeausführung**](https://unsloth.ai/docs/de/neu/chat#code-execution) (Bash + Python), APIs (sehr bald). Bilder, Dokumente, Audio und Code hochladen.

[Modelle direkt miteinander vergleichen](#model-arena). Angetrieben von llama.cpp + Hugging Face unterstützen wir **Multi-GPU-Inferenz** und die meisten Modelle.
{% endcolumn %}

{% column %}

<div data-with-frame="true"><figure><img src="https://797013937-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FFeQ0UUlnjXkDdqhcWglh%2Fskinny%20studio%20chat.png?alt=media&#x26;token=c2ee045f-c243-4024-a8e4-bb4dbe7bae79" alt=""><figcaption></figcaption></figure></div>
{% endcolumn %}
{% endcolumns %}

{% columns %}
{% column %}

### Code ausführen + Tool-Aufrufe reparieren

Mit Unsloth Studio können LLMs Bash und Python ausführen, nicht nur JavaScript. Außerdem werden Programme wie Claude Artifacts in einer Sandbox ausgeführt, sodass Modelle Code testen, Dateien generieren und Antworten mit echter Berechnung verifizieren können.

z. B. suchte Qwen3.5-4B über 20 Websites und zitierte Quellen, wobei die Websuche innerhalb seines Denkprotokolls stattfand.
{% endcolumn %}

{% column %}

<div data-with-frame="true"><figure><img src="https://797013937-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FXPQGEEr1YoKofrTatAKK%2Ftoolcallingif.gif?alt=media&#x26;token=25d68698-fb13-4c46-99b2-d39fb025df08" alt=""><figcaption></figcaption></figure></div>
{% endcolumn %}
{% endcolumns %}

{% columns %}
{% column %}

### **Training ohne Code**

[PDF, CSV, JSON hochladen](#data-recipes) Doks oder YAML-Konfigurationen und sofort mit dem Training auf NVIDIA beginnen. Die Kernel von Unsloth optimieren LoRA, FP8, FFT, PT über mehr als 500 Text-, Vision-, TTS/Audio- und Embedding-Modelle hinweg.

Feintune die neuesten LLMs wie [Qwen3.5](https://unsloth.ai/docs/de/modelle/qwen3.5/fine-tune) und NVIDIA [Nemotron 3](https://unsloth.ai/docs/de/modelle/nemotron-3). [Multi-GPU](https://unsloth.ai/docs/de/grundlagen/multi-gpu-training-with-unsloth) funktioniert automatisch, eine neue Version kommt bald.
{% endcolumn %}

{% column %}

<div data-with-frame="true"><figure><img src="https://797013937-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FRjAfHShyL7MfHfq6BStl%2Fonboarding%20updated.png?alt=media&#x26;token=7cdde1a0-8f8c-4d25-9414-e28f35f211cd" alt=""><figcaption></figcaption></figure></div>
{% endcolumn %}
{% endcolumns %}

{% columns %}
{% column %}

### Data Recipes

[**Data Recipes**](https://unsloth.ai/docs/de/neu/studio/data-recipe) verwandelt deine Dokumente über einen Graph-Node-Workflow in nutzbare / synthetische Datensätze. Lade unstrukturierte oder strukturierte Dateien wie PDFs, CSVs und JSON hoch. Unsloth Data Recipes, unterstützt von NVIDIA Nemo [Data Designer](https://github.com/NVIDIA-NeMo/DataDesigner), wandelt Dokumente automatisch in deine gewünschten Formate um.
{% endcolumn %}

{% column %}

<div data-with-frame="true"><figure><img src="https://797013937-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2Fcc9T0V8WsyjcuOE2sIVV%2Fdata%20recipes%20longer.png?alt=media&#x26;token=5ae33e8d-09b1-45e0-8f5c-40dca8bbcf0c" alt=""><figcaption></figcaption></figure></div>
{% endcolumn %}
{% endcolumns %}

{% columns %}
{% column %}

### Beobachtbarkeit

Erhalte [vollständige Sichtbarkeit](https://unsloth.ai/docs/de/neu/start#training-progress) in und Kontrolle über deine Trainingsläufe. Verfolge Trainingsverlust, Gradienten-Normen und GPU-Auslastung in Echtzeit und passe alles nach deinen Wünschen an.

Du kannst den Trainingsfortschritt sogar auf anderen Geräten wie deinem Handy ansehen.
{% endcolumn %}

{% column %}

<div data-with-frame="true"><figure><img src="https://797013937-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FCIrWHN1JzfaFNOoavmZS%2Fobserve%20new.png?alt=media&#x26;token=21fdbc5b-a073-437a-b487-b5bdff4716f6" alt=""><figcaption></figcaption></figure></div>
{% endcolumn %}
{% endcolumns %}

{% columns %}
{% column %}

### Modelle exportieren / speichern

[**Exportiere jedes Modell**](https://unsloth.ai/docs/de/neu/studio/export), einschließlich deiner feinabgestimmten Modelle, als safetensors oder GGUF zur Verwendung mit llama.cpp, vLLM, Ollama, LM Studio und mehr.

Speichert deinen Trainingsverlauf, sodass du Läufe erneut aufrufen, erneut exportieren und experimentieren kannst.
{% endcolumn %}

{% column %}

<div data-with-frame="true"><figure><img src="https://797013937-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2F8UHzGTHF9q6LWrJy8Y4r%2FScreenshot%202026-03-15%20at%203.02.02%E2%80%AFAM.png?alt=media&#x26;token=cb5e78f8-481a-4c9f-9361-db53e6e0ec37" alt=""><figcaption></figcaption></figure></div>
{% endcolumn %}
{% endcolumns %}

{% columns %}
{% column %}

### Model Arena

Chatten mit und [vergleiche 2 verschiedene](https://unsloth.ai/docs/de/neu/chat#model-arena) Modelle, etwa ein Basismodell und ein feinabgestimmtes Modell, um zu sehen, wie sich ihre Ausgaben unterscheiden.

Lade einfach zuerst dein erstes GGUF/Modell und dann das zweite, und voilà! Die Inferenz lädt zunächst für ein Modell, dann für das zweite.
{% endcolumn %}

{% column %}

<div align="center" data-with-frame="true"><figure><img src="https://797013937-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FVgnE7eMPQk2vaFboJ4BU%2Fmodel%20arena%20closeup.png?alt=media&#x26;token=8b0a910b-440c-4859-a846-0060e61e157b" alt=""><figcaption></figcaption></figure></div>
{% endcolumn %}
{% endcolumns %}

{% columns %}
{% column %}

### Datenschutz zuerst + sicher

Unsloth Studio kann 100 % offline und lokal auf deinem Computer verwendet werden. Die tokenbasierte Authentifizierung, einschließlich verschlüsseltem Passwort sowie JWT-Access-/Refresh-Flows, hält deine Daten sicher.

Du kannst bereits vorhandene / ältere Modelle oder GGUFs verwenden, die zuvor von HF usw. heruntergeladen wurden. Lies [hier die Anweisungen](https://unsloth.ai/docs/de/neu/chat#using-old-existing-gguf-models).
{% endcolumn %}

{% column %}

<div data-with-frame="true"><figure><img src="https://797013937-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2F15gRLbMDX1ReKdHBBl1G%2FScreenshot%202026-03-15%20at%203.54.51%E2%80%AFAM.png?alt=media&#x26;token=ca096807-54c2-4d8c-bdc1-c1bb0055469b" alt=""><figcaption></figcaption></figure></div>
{% endcolumn %}
{% endcolumns %}

{% hint style="warning" %}
Bitte beachte, dass dies die **BETA** -Version von Unsloth Studio ist. Erwarte in den kommenden Tagen und Wochen viele Verbesserungen, Fehlerbehebungen und neue Funktionen.
{% endhint %}

## ⚡ Schnellstart

Unsloth Studio funktioniert unter Windows, Linux, WSL und MacOS (derzeit nur Chat).

* **CPU:** Unsloth funktioniert weiterhin auch ohne GPU, aber nur für [Chat](#run-models-locally) Inferenz und [Data Recipes](https://unsloth.ai/docs/de/neu/studio/data-recipe).
* **Training:** Funktioniert auf **NVIDIA**: RTX 30, 40, 50, Blackwell, DGX Spark/Station usw. + **Intel** GPUs
* **Mac:** Wie CPU - Chat und [Data Recipes](https://unsloth.ai/docs/de/neu/studio/data-recipe) funktioniert vorerst nur. **MLX** Training kommt sehr bald.
* **AMD:** Chat funktioniert. Trainiere mit [Unsloth Core](https://unsloth.ai/docs/de/loslegen/install/amd). Studio-Unterstützung kommt bald.
* **Demnächst:** Trainingsunterstützung für **Apple MLX** und **AMD.**
* **Multi-GPU:** Funktioniert bereits, mit einem großen Upgrade in Vorbereitung.

Verwende zum Aktualisieren dieselben Installationsbefehle unten:

### **MacOS, Linux, WSL:**

```bash
curl -fsSL https://unsloth.ai/install.sh | sh
```

### **Windows PowerShell:**

```bash
irm https://unsloth.ai/install.ps1 | iex
```

#### Unsloth starten

```bash
unsloth studio -H 0.0.0.0 -p 8888
```

### Docker:

Verwende unser offizielles **Docker-Image**: [`unsloth/unsloth`](https://hub.docker.com/r/unsloth/unsloth) das derzeit für Windows, WSL und Linux funktioniert. MacOS-Unterstützung kommt bald.

{% code overflow="wrap" expandable="true" %}

```bash
docker run -d -e JUPYTER_PASSWORD="mypassword" \
  -p 8888:8888 -p 8000:8000 -p 2222:22 \
  -v $(pwd)/work:/workspace/work \
  --gpus all \
  unsloth/unsloth
```

{% endcode %}

{% hint style="success" %}
**Die Erstinstallation sollte jetzt 6x schneller sein und dank vorkompilierter llama.cpp-Binaries 50 % kleiner ausfallen.**
{% endhint %}

**Weitere Informationen zu Installation und Deinstallation findest du im** [**Bereich Unsloth Studio-Installation**](https://unsloth.ai/docs/de/neu/studio/install) **.**

{% content-ref url="studio/install" %}
[install](https://unsloth.ai/docs/de/neu/studio/install)
{% endcontent-ref %}

### <i class="fa-google">:google:</i> Google Colab-Notebook

Wir haben ein [kostenloses Google Colab-Notebook](https://colab.research.google.com/github/unslothai/unsloth/blob/main/studio/Unsloth_Studio_Colab.ipynb) erstellt, damit du alle Funktionen von Unsloth auf Colabs T4-GPUs ausprobieren kannst. Du kannst die meisten Modelle bis zu 22B Parametern trainieren und ausführen und für größere Modelle auf eine größere GPU wechseln. Klicke einfach auf „Run all“ und die UI sollte nach der Installation erscheinen.

{% columns %}
{% column %}
{% embed url="<https://colab.research.google.com/github/unslothai/unsloth/blob/main/studio/Unsloth_Studio_Colab.ipynb>" %}

Sobald die Installation abgeschlossen ist, scrolle zu **Unsloth Studio starten** und klicke auf **Unsloth Studio öffnen** in der weißen Box links angezeigt wird:

**Scrolle weiter nach unten, um die eigentliche UI zu sehen.**
{% endcolumn %}

{% column %}

<div data-with-frame="true"><figure><img src="https://797013937-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FkYitMrK55Ic6eIGqiKEJ%2FScreenshot%202026-03-16%20at%2011.21.16%E2%80%AFPM.png?alt=media&#x26;token=4388c309-a598-41f3-9301-e434c334ac1c" alt=""><figcaption></figcaption></figure></div>
{% endcolumn %}
{% endcolumns %}

{% hint style="warning" %}
Wir kompilieren jetzt llama.cpp-Binaries vorab für deutlich schnellere Installationszeiten.

Manchmal kann der Studio-Link einen Fehler zurückgeben. Das passiert, weil du möglicherweise einen Adblocker verwendest oder Mozilla bzw. Google Colab erwartet, dass du auf der Colab-Seite bleibst; wenn Inaktivität erkannt wird, kann die GPU-Sitzung beendet werden. Du kannst dennoch ein Stück nach unten scrollen&#x20;
{% endhint %}

## <i class="fa-seedling">:seedling:</i> Workflow

Hier ist ein typischer Arbeitsablauf von Unsloth Studio, um dir den Einstieg zu erleichtern:

1. Studio starten über [Installationsanweisungen](https://unsloth.ai/docs/de/neu/studio/install).
2. Lade ein Modell aus lokalen Dateien oder einer unterstützten Integration.
3. Importiere Trainingsdaten aus PDFs, CSVs oder JSONL-Dateien oder erstelle einen Datensatz von Grund auf.
4. Bereinige, verfeinere und erweitere deinen Datensatz in [Data Recipes](https://unsloth.ai/docs/de/neu/studio/data-recipe).
5. Beginne das Training mit empfohlenen Presets oder passe die Konfiguration selbst an.
6. Chatte mit dem trainierten Modell und vergleiche seine Ausgaben mit dem Basismodell.
7. [Speichern oder exportieren](#export-save-models) lokal zu dem Stack, den du bereits verwendest.

Du kannst unsere einzelnen Deep Dives zu jedem Abschnitt von Unsloth Studio lesen:

{% columns %}
{% column width="50%" %}
{% content-ref url="studio/start" %}
[start](https://unsloth.ai/docs/de/neu/studio/start)
{% endcontent-ref %}

{% content-ref url="studio/export" %}
[export](https://unsloth.ai/docs/de/neu/studio/export)
{% endcontent-ref %}
{% endcolumn %}

{% column width="50%" %}
{% content-ref url="studio/data-recipe" %}
[data-recipe](https://unsloth.ai/docs/de/neu/studio/data-recipe)
{% endcontent-ref %}

{% content-ref url="studio/chat" %}
[chat](https://unsloth.ai/docs/de/neu/studio/chat)
{% endcontent-ref %}
{% endcolumn %}
{% endcolumns %}

## <i class="fa-video">:video:</i> Video-Tutorials

{% hint style="warning" %}
Die in den Videos gezeigten Unsloth Studio-Versionen sind alt und entsprechen nicht der aktuellen Version.
{% endhint %}

{% columns fullWidth="true" %}
{% column %}
{% embed url="<https://www.youtube.com/watch?v=mmbkP8NARH4>" %}

Hier ist ein Video-Tutorial von NVIDIA, um dir den Einstieg in Studio zu erleichtern:
{% endcolumn %}

{% column %}
{% embed url="<https://youtu.be/1lEDuRJWHh4?si=GHaS77ZZPOGjn3GJ>" %}

Video-Tutorial zur Installation von Unsloth Studio
{% endcolumn %}
{% endcolumns %}

## <i class="fa-comments-question">:comments-question:</i> FAQ

**Sammelt oder speichert Unsloth Daten?**\
Unsloth erfasst keine Nutzungs-Telemetrie. Unsloth sammelt nur die minimalen Hardwareinformationen, die für die Kompatibilität erforderlich sind, wie z. B. GPU-Typ und Gerät (z. B. Mac). Unsloth Studio läuft zu 100 % offline und lokal.

**Wie verwende ich ein altes / vorhandenes Modell, das ich zuvor von Hugging Face heruntergeladen habe?**\
Ja, du kannst bereits vorhandene/alte Modelle oder GGUFs verwenden, die du zuvor von Hugging Face usw. heruntergeladen hast. Sie sollten jetzt automatisch von Unsloth erkannt werden, andernfalls lies unsere [hier die Anweisungen](https://unsloth.ai/docs/de/neu/chat#using-old-existing-gguf-models).

**Warum ist die Inferenz in Unsloth manchmal langsamer?**\
Unsloth wird wie andere lokale Inferenz-Apps von llama.cpp angetrieben, daher sollten die Geschwindigkeiten größtenteils gleich sein. Manchmal kann Unsloth langsamer sein, weil du Websuche, Codeausführung oder selbstheilende Tool-Aufrufe aktiviert hast. All diese Funktionen können deine Inferenz verlangsamen. Wenn der Geschwindigkeitsunterschied auch bei deaktivierten Funktionen weiterhin besteht, erstelle bitte ein GitHub-Issue!

**Unterstützt Unsloth Studio OpenAI-kompatible APIs?**\
Ja, für unsere Data Recipes tut es das. Für die Inferenz arbeiten wir daran und hoffen, die Unterstützung dafür so bald wie diese Woche freizugeben, also bleib dran!

**Ist Unsloth jetzt unter AGPL-3.0 lizenziert?**\
Unsloth verwendet ein Dual-Lizenzmodell aus Apache 2.0 und AGPL-3.0. Das Kernpaket von Unsloth bleibt lizenziert unter [**Apache 2.0**](https://github.com/unslothai/unsloth?tab=Apache-2.0-1-ov-file), während bestimmte optionale Komponenten, wie die Unsloth Studio UI, lizenziert sind unter [**AGPL-3.0**](https://github.com/unslothai/unsloth?tab=AGPL-3.0-2-ov-file).

Diese Struktur hilft, die laufende Entwicklung von Unsloth zu unterstützen, während das Projekt Open Source bleibt und das breitere Ökosystem weiter wachsen kann.

**Unterstützt Studio nur LLMs?**\
Nein. Studio unterstützt eine Reihe unterstützter `transformer-` kompatibler Modellfamilien, darunter Text-, multimodale Modelle, [Text-to-Speech](https://unsloth.ai/docs/de/grundlagen/text-to-speech-tts-fine-tuning), Audio, [Embeddings](https://unsloth.ai/docs/de/grundlagen/embedding-finetuning)und Modelle im BERT-Stil.

**Kann ich meine eigene Trainingskonfiguration verwenden?**\
Ja. Importiere eine YAML-Konfiguration und Studio füllt die relevanten Einstellungen vorab aus.

**Wie kann ich meine Kontextlänge anpassen?**\
Die Anpassung der Kontextlänge ist mit dem intelligenten Auto-Context von llama.cpp nicht mehr notwendig, da nur der benötigte Kontext verwendet wird, ohne etwas Zusätzliches zu laden. Dennoch werden wir die Funktion bald hinzufügen, falls du sie verwenden möchtest.

**Müssen Modelle trainiert werden, um die UI zu nutzen?**\
Nein, du kannst einfach jedes GGUF oder Modell herunterladen, ohne irgendein Modell feinabzustimmen.

#### Zukunft von Unsloth

Wir arbeiten hart daran, Open-Source-KI so zugänglich wie möglich zu machen. Als Nächstes veröffentlichen wir für Unsloth und Unsloth Studio offizielle Unterstützung für: Multi-GPU, Apple Silicon/MLX und AMD. Zur Erinnerung: Dies ist die BETA-Version von Unsloth Studio, also erwarte in den kommenden Wochen viele Ankündigungen und Verbesserungen. Wir arbeiten außerdem eng mit NVIDIA an der Multi-GPU-Unterstützung zusammen, um das bestmögliche und einfachste Erlebnis zu liefern.

#### Danksagungen

Ein großes Dankeschön an NVIDIA und Hugging Face dafür, dass sie Teil unseres Launches sind. Außerdem danken wir all unseren frühen Beta-Testern von Unsloth Studio sehr für ihre Zeit und ihr Feedback. Wir möchten auch llama.cpp, PyTorch und open model labs dafür danken, dass sie die Infrastruktur bereitgestellt haben, die Unsloth Studio möglich gemacht hat.

<figure><img src="https://797013937-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FLsNFO8j8Sdovm8x2gY2n%2Fsloth%20painting.png?alt=media&#x26;token=650b3dc4-0bd4-4d30-9443-c23f67bfef7a" alt="" width="375"><figcaption></figcaption></figure>
