# Unsloth-Dokumentation

Unsloth ermöglicht es dir, KI-Modelle auf deiner eigenen lokalen Hardware auszuführen und zu trainieren.

Unsere Dokus führen dich durch das lokale Ausführen und Trainieren deines eigenen Modells.

<a href="/pages/2e5c28b5681fb8721dd9abf2ead7595b01aea335" class="button primary">Los geht’s</a> <a href="https://github.com/unslothai/unsloth" class="button secondary">Unser GitHub</a>

<table data-card-size="large" data-view="cards" data-full-width="false"><thead><tr><th></th><th></th><th data-hidden data-card-cover data-type="image">Titelbild</th><th data-hidden data-card-target data-type="content-ref"></th></tr></thead><tbody><tr><td><h4>Google Gemma 4</h4></td><td>Führe Googles neue Gemma-4-Modelle aus und trainiere sie!</td><td><a href="/files/2f875f196a54dad3331f08ac0392b28245c8612c">/files/2f875f196a54dad3331f08ac0392b28245c8612c</a></td><td><a href="/pages/774ab7ebd11d30a8067d492668e9dd61a8b209fb">/pages/774ab7ebd11d30a8067d492668e9dd61a8b209fb</a></td></tr><tr><td><h4><strong>Wir stellen Unsloth Studio vor</strong></h4></td><td>Eine neue offene No-Code-Weboberfläche zum Trainieren und Ausführen von LLMs.</td><td><a href="/files/d7c42ebe749f1a6355e750ad6d546c1c25be81de">/files/d7c42ebe749f1a6355e750ad6d546c1c25be81de</a></td><td><a href="/pages/0eb7cfce0eb5651e720ac0944c9e36f7124bc8de">/pages/0eb7cfce0eb5651e720ac0944c9e36f7124bc8de</a></td></tr></tbody></table>

<table data-view="cards" data-full-width="false"><thead><tr><th></th><th></th><th data-hidden data-card-cover data-type="image">Titelbild</th><th data-hidden data-card-target data-type="content-ref"></th></tr></thead><tbody><tr><td><strong>Qwen3.5</strong></td><td>Die neuen kleinen und mittleren Qwen3.5-LLMs sind da!</td><td><a href="/files/acba3510f6d83f8e85d6d0331788c3bddcd4d5ae">/files/acba3510f6d83f8e85d6d0331788c3bddcd4d5ae</a></td><td><a href="/pages/53f3f20fc7a21f1ca51eb7268267793cb5975b35">/pages/53f3f20fc7a21f1ca51eb7268267793cb5975b35</a></td></tr><tr><td><strong>GLM-5.1</strong></td><td>Führe das neue SOTA-Open-Model lokal aus.</td><td><a href="/files/8311ae55890c14db7f83f3e8859a7de8d5c32896">/files/8311ae55890c14db7f83f3e8859a7de8d5c32896</a></td><td><a href="/pages/3798c366d7b3cb260558eaaf89e704289df7e2fc">/pages/3798c366d7b3cb260558eaaf89e704289df7e2fc</a></td></tr><tr><td><strong>MiniMax-M2.7</strong></td><td>Führe das neue Modell mit 230B Größe aus.</td><td><a href="/files/c15092430825ce5047337ef79cbd579d169f30f7">/files/c15092430825ce5047337ef79cbd579d169f30f7</a></td><td><a href="/pages/e86ee4009a49d667ee108862ac81e2e550ce7ea1">/pages/e86ee4009a49d667ee108862ac81e2e550ce7ea1</a></td></tr><tr><td><strong>NVIDIA Nemotron 3</strong></td><td>Führe die neuen 4B- und 120B-Modelle von NVIDIA aus.</td><td><a href="/files/b7300ee98c85170b61a2ea01fbe347c32589989c">/files/b7300ee98c85170b61a2ea01fbe347c32589989c</a></td><td><a href="/pages/5b44e9e3a6e7afb8361cf47dd0a061fbfa0ed3ef">/pages/5b44e9e3a6e7afb8361cf47dd0a061fbfa0ed3ef</a></td></tr><tr><td><strong>Schnelleres MoE ist da!</strong></td><td>Trainiere MoE-LLMs 12-mal schneller mit weniger VRAM.</td><td><a href="/files/8744886d259556ddcc47ee93b4c7e14ff923aac3">/files/8744886d259556ddcc47ee93b4c7e14ff923aac3</a></td><td><a href="/pages/d2073bad97e9c04578abf5444104a5502ae38941">/pages/d2073bad97e9c04578abf5444104a5502ae38941</a></td></tr><tr><td><strong>Claude Code &#x26; Codex</strong></td><td>Lerne, lokale LLMs über Claude &#x26; OpenAI auszuführen.</td><td><a href="/files/9caa55224d94be3ce02a6899cc4c45ec17f0280c">/files/9caa55224d94be3ce02a6899cc4c45ec17f0280c</a></td><td><a href="/pages/d12c953ceacbd6c3e44f3aa911056928e0488f5b">/pages/d12c953ceacbd6c3e44f3aa911056928e0488f5b</a></td></tr></tbody></table>

{% columns %}
{% column width="50%" %}
{% content-ref url="/pages/44aed34263310d67280841ab6b72ea1e5648761f" %}
[Fine-tuning Guide](/docs/de/loslegen/fine-tuning-llms-guide.md)
{% endcontent-ref %}

{% content-ref url="/pages/c96e3433e67c1b26226b1118128145a6ff8a990a" %}
[Unsloth-Notebooks](/docs/de/loslegen/unsloth-notebooks.md)
{% endcontent-ref %}
{% endcolumn %}

{% column width="50%" %}
{% content-ref url="/pages/0d4e311c01cc0577c64d15b8a41f22ba29eab7fd" %}
[All Our Models](/docs/de/loslegen/unsloth-model-catalog.md)
{% endcontent-ref %}

{% content-ref url="/pages/9b29615ab338f1d1924174468718cfeab406f641" %}
[Complete LLM Directory](/docs/de/modelle/tutorials.md)
{% endcontent-ref %}
{% endcolumn %}
{% endcolumns %}

### 🦥 Warum Unsloth?

* Wir arbeiten direkt mit den Teams hinter [gpt-oss](https://docs.unsloth.ai/new/gpt-oss-how-to-run-and-fine-tune#unsloth-fixes-for-gpt-oss), [Qwen3](https://www.reddit.com/r/LocalLLaMA/comments/1kaodxu/qwen3_unsloth_dynamic_ggufs_128k_context_bug_fixes/), [Llama 4](https://github.com/ggml-org/llama.cpp/pull/12889), [Mistral](/docs/de/modelle/tutorials/devstral-how-to-run-and-fine-tune.md), [Gemma 1-3](https://news.ycombinator.com/item?id=39671146) und [Phi-4](https://unsloth.ai/blog/phi4), wobei wir **kritische Fehler behoben haben** die die Modellgenauigkeit erheblich verbessert haben. Andrej Karpathy hat zum Beispiel [unsere Arbeit gelobt](https://x.com/karpathy/status/1765473722985771335).
* Unsloth vereinfacht lokales Training, Inferenz, Daten und Bereitstellung
* Unsloth unterstützt Inferenz und Training für über 500 Modelle: [Vision](/docs/de/grundlagen/vision-fine-tuning.md), [TTS](/docs/de/grundlagen/text-to-speech-tts-fine-tuning.md), [Embedding](/docs/de/grundlagen/embedding-finetuning.md), [RL](/docs/de/loslegen/reinforcement-learning-rl-guide.md)

### ⭐ Funktionen

Unsloth ermöglicht es dir, Modelle für Text, [Audio](https://unsloth.ai/docs/basics/text-to-speech-tts-fine-tuning), [Embedding](https://unsloth.ai/docs/new/embedding-finetuning), [Vision](https://unsloth.ai/docs/basics/vision-fine-tuning) und mehr auszuführen und zu trainieren. Unsloth bietet viele wichtige Funktionen sowohl für Inferenz als auch für Training:

#### Inferenz

* Suche + herunterladen + führe jedes Modell aus, z. B. GGUFs, LoRA-Adapter, Safetensors.
* [Selbstheilende Tool-Calls](/docs/de/neu/studio/chat.md#auto-healing-tool-calling) / Websuche und Aufruf OpenAI-kompatibler APIs.
* [Automatische Inferenzparameter](/docs/de/neu/studio/chat.md#auto-parameter-tuning) anpassen und Chat-Templates bearbeiten.
* [Exportieren oder speichern](/docs/de/neu/studio/export.md) dein Modell als GGUF, 16-Bit-Safetensor usw.
* [Ausgaben vergleichen](/docs/de/neu/studio/chat.md#model-arena) mit zwei verschiedenen Modellen nebeneinander.

#### Training

* Trainiere und [RL](/docs/de/loslegen/reinforcement-learning-rl-guide.md) über 500 Modelle \~2x schneller mit \~70 % weniger VRAM (kein Genauigkeitsverlust)
* Unterstützt Full Fine-Tuning, Pre-Training sowie 4-Bit-, 16-Bit- und FP8-Training.
* [Datensätze automatisch erstellen](/docs/de/neu/studio/data-recipe.md) aus PDF-, CSV- und DOCX-Dateien. Bearbeite Daten in einem visuellen Knoten-Workflow.
* Beobachtbarkeit: Training live überwachen, Loss und GPU-Auslastung verfolgen, Diagramme anpassen
* Am effizientesten [**Reinforcement Learning**](/docs/de/loslegen/reinforcement-learning-rl-guide.md) Bibliothek, verwendet 80 % weniger VRAM für GRPO, [FP8](/docs/de/loslegen/reinforcement-learning-rl-guide/fp8-reinforcement-learning.md) usw.
* [Multi-GPU](/docs/de/grundlagen/multi-gpu-training-with-unsloth.md) funktioniert, aber eine deutlich bessere Version kommt noch!

### Schnellstart

Unsloth unterstützt MacOS, Linux, [Windows](/docs/de/loslegen/install/windows-installation.md), [NVIDIA](/docs/de/loslegen/install/pip-install.md), Intel und CPU-Setups. Siehe: [Unsloth-Anforderungen](/docs/de/loslegen/fine-tuning-for-beginners/unsloth-requirements.md). Verwende dieselben Befehle zum Aktualisieren:

#### **MacOS, Linux, WSL:**

```bash
curl -fsSL https://unsloth.ai/install.sh | sh
```

#### **Windows PowerShell:**

```bash
irm https://unsloth.ai/install.ps1 | iex
```

#### Docker

Nutze unser offizielles **Docker-Image**: [`unsloth/unsloth`](https://hub.docker.com/r/unsloth/unsloth) das derzeit für Windows, WSL und Linux funktioniert. MacOS-Unterstützung kommt bald.

#### Unsloth starten

```bash
unsloth studio -H 0.0.0.0 -p 8888
```

#### Neue Modelle

<table data-view="cards"><thead><tr><th></th><th data-hidden></th><th data-hidden data-card-cover data-type="image">Titelbild</th><th data-hidden data-card-target data-type="content-ref"></th></tr></thead><tbody><tr><td><strong>Kimi K2.5</strong></td><td></td><td><a href="/files/677f26c5fe53086c40a4f235fbaf29149e65e537">/files/677f26c5fe53086c40a4f235fbaf29149e65e537</a></td><td><a href="/pages/f26cd5b2ebe566940595d2276192dd0ced0b1b5e">/pages/f26cd5b2ebe566940595d2276192dd0ced0b1b5e</a></td></tr><tr><td><strong>MiniMax-M2.5</strong></td><td></td><td><a href="/files/4df1531b9c4be616371d1dd448c0856f45f89b02">/files/4df1531b9c4be616371d1dd448c0856f45f89b02</a></td><td><a href="/pages/db6f61dbf018d9aa3e178cc7e880c0130989bce0">/pages/db6f61dbf018d9aa3e178cc7e880c0130989bce0</a></td></tr><tr><td><strong>GLM-4.7-Flash</strong></td><td></td><td><a href="/files/0499389b1b455040568d4ac2013ecce407747805">/files/0499389b1b455040568d4ac2013ecce407747805</a></td><td><a href="/pages/1e435114456bba34bc232a642cd33933aee06bbc">/pages/1e435114456bba34bc232a642cd33933aee06bbc</a></td></tr></tbody></table>

### Was ist Fine-Tuning und RL? Warum?

[**Fine-Tuning** eines LLM](/docs/de/loslegen/fine-tuning-llms-guide.md) passt sein Verhalten an, erweitert das Fachwissen und optimiert die Leistung für bestimmte Aufgaben. Durch das Fine-Tuning eines vortrainierten Modells (z. B. Llama-3.1-8B) auf einem Datensatz kannst du:

* **Wissen aktualisieren**: Neue domänenspezifische Informationen einführen.
* **Verhalten anpassen**: Ton, Persönlichkeit oder Antwortstil des Modells anpassen.
* **Für Aufgaben optimieren**: Genauigkeit und Relevanz für bestimmte Anwendungsfälle verbessern.

[**Reinforcement Learning (RL)**](/docs/de/loslegen/reinforcement-learning-rl-guide.md) ist, wenn ein „Agent“ lernt, Entscheidungen zu treffen, indem er mit einer Umgebung interagiert und **Feedback** in Form von **Belohnungen** oder **Strafen**.

* **Aktion:** Was das Modell generiert (z. B. einen Satz).
* **Belohnung:** Ein Signal, das angibt, wie gut oder schlecht die Aktion des Modells war (z. B. ob die Antwort den Anweisungen folgte? War sie hilfreich?).
* **Umgebung:** Das Szenario oder die Aufgabe, an der das Modell arbeitet (z. B. die Frage eines Nutzers beantworten).

**Beispielhafte Anwendungsfälle für Fine-Tuning oder RL**:

* Ermöglicht LLMs vorherzusagen, ob eine Schlagzeile ein Unternehmen positiv oder negativ beeinflusst.
* Kann historische Kundeninteraktionen für genauere und individuellere Antworten nutzen.
* LLM auf juristischen Texten für Vertragsanalyse, Rechtsprechungsrecherche und Compliance feinabstimmen.

Du kannst dir ein feinabgestimmtes Modell als einen spezialisierten Agenten vorstellen, der dafür entwickelt wurde, bestimmte Aufgaben effektiver und effizienter zu erledigen. **Fine-Tuning kann alle Fähigkeiten von RAG nachbilden**, aber nicht umgekehrt.

{% columns %}
{% column width="50%" %}
{% content-ref url="/pages/247e762fc931f96d3998ecfa1a4402cf524e9e97" %}
[FAQ + Ist Feinabstimmung das Richtige für mich?](/docs/de/loslegen/fine-tuning-for-beginners/faq-+-is-fine-tuning-right-for-me.md)
{% endcontent-ref %}

{% content-ref url="/pages/03532de69dfe0230fe5114e809721d8b7dd74ca6" %}
[Inferenz & Bereitstellung](/docs/de/grundlagen/inference-and-deployment.md)
{% endcontent-ref %}
{% endcolumn %}

{% column width="50%" %}
{% content-ref url="/pages/5b0f8932321e8767d629a7ca0f24c3e9add748f5" %}
[Reinforcement Learning Guide](/docs/de/loslegen/reinforcement-learning-rl-guide.md)
{% endcontent-ref %}

{% content-ref url="/pages/abe22dcb3049581e00371a1b82b9e9cf6821a9b0" %}
[Dynamic 2.0 GGUFs](/docs/de/grundlagen/unsloth-dynamic-2.0-ggufs.md)
{% endcontent-ref %}
{% endcolumn %}
{% endcolumns %}

<figure><img src="/files/6e963f2c762508959a7664228a426c78a061e4df" alt="" width="188"><figcaption></figcaption></figure>


---

# Agent Instructions: Querying This Documentation

If you need additional information that is not directly available in this page, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on the current page URL with the `ask` query parameter:

```
GET https://unsloth.ai/docs/de/loslegen/readme.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
