# Modelle

- [Gemma 4 - Wie man lokal ausführt](https://unsloth.ai/docs/de/modelle/gemma-4.md): Führe Googles neue Gemma-4-Modelle lokal aus, einschließlich E2B, E4B, 26B A4B und 31B.
- [Gemma 4 Feintuning-Anleitung](https://unsloth.ai/docs/de/modelle/gemma-4/train.md): Trainiere Gemma 4 von Google mit Unsloth.
- [Qwen3.5 - Wie man lokal ausführt](https://unsloth.ai/docs/de/modelle/qwen3.5.md): Führe die neuen Qwen3.5-LLMs lokal auf deinem Gerät aus, einschließlich Medium: Qwen3.5-35B-A3B, 27B, 122B-A10B, Small: Qwen3.5-0.8B, 2B, 4B, 9B und 397B-A17B!
- [Qwen3.5 Feintuning-Anleitung](https://unsloth.ai/docs/de/modelle/qwen3.5/fine-tune.md): Lerne, wie man Qwen3.5-LLMs mit Unsloth feinabstimmt.
- [Qwen3.5 GGUF-Benchmarks](https://unsloth.ai/docs/de/modelle/qwen3.5/gguf-benchmarks.md): Sieh dir an, wie Unsloths Dynamic-GGUFs abschneiden + Analyse von Perplexität, KL-Divergenz & MXFP4.
- [GLM-5.1 - Wie man lokal ausführt](https://unsloth.ai/docs/de/modelle/glm-5.1.md): Führe das neue GLM-5.1-Modell von Z.ai auf deinem eigenen lokalen Gerät aus!
- [NVIDIA Nemotron 3 Nano - Anleitung zum Ausführen](https://unsloth.ai/docs/de/modelle/nemotron-3.md): Führe NVIDIA Nemotron 3 Nano lokal auf deinem Gerät aus und feinabstimme es!
- [NVIDIA Nemotron-3-Super: Anleitung zum Ausführen](https://unsloth.ai/docs/de/modelle/nemotron-3/nemotron-3-super.md): Führe NVIDIA Nemotron-3-Super-120B-A12B lokal auf deinem Gerät aus und feinabstimme es!
- [Qwen3-Coder-Next: Wie man lokal ausführt](https://unsloth.ai/docs/de/modelle/qwen3-coder-next.md): Anleitung zum lokalen Ausführen von Qwen3-Coder-Next auf deinem Gerät!
- [GLM-4.7-Flash: Wie man lokal ausführt](https://unsloth.ai/docs/de/modelle/glm-4.7-flash.md): Führe GLM-4.7-Flash lokal auf deinem Gerät aus und feinabstimme es!
- [MiniMax-M2.5: Anleitung zum Ausführen](https://unsloth.ai/docs/de/modelle/minimax-m25.md): Führe MiniMax-M2.5 lokal auf deinem eigenen Gerät aus!
- [Kimi K2.5: Anleitung zum lokalen Ausführen](https://unsloth.ai/docs/de/modelle/kimi-k2.5.md): Anleitung zum Ausführen von Kimi-K2.5 auf deinem eigenen lokalen Gerät!
- [gpt-oss: Anleitung zum Ausführen](https://unsloth.ai/docs/de/modelle/gpt-oss-how-to-run-and-fine-tune.md): Führe OpenAIs neue Open-Source-Modelle aus und feinabstimme sie!
- [gpt-oss Reinforcement Learning](https://unsloth.ai/docs/de/modelle/gpt-oss-how-to-run-and-fine-tune/gpt-oss-reinforcement-learning.md)
- [Tutorial: Wie man gpt-oss mit RL trainiert](https://unsloth.ai/docs/de/modelle/gpt-oss-how-to-run-and-fine-tune/gpt-oss-reinforcement-learning/tutorial-how-to-train-gpt-oss-with-rl.md): Lerne, OpenAI gpt-oss mit GRPO zu trainieren, um 2048 lokal oder auf Colab autonom zu schlagen.
- [Tutorial: Wie man gpt-oss feinabstimmt](https://unsloth.ai/docs/de/modelle/gpt-oss-how-to-run-and-fine-tune/tutorial-how-to-fine-tune-gpt-oss.md): Lerne Schritt für Schritt, wie man OpenAI gpt-oss lokal mit Unsloth trainiert.
- [Langkontext-gpt-oss-Training](https://unsloth.ai/docs/de/modelle/gpt-oss-how-to-run-and-fine-tune/long-context-gpt-oss-training.md)
- [Tutorials zu Large Language Models (LLMs)](https://unsloth.ai/docs/de/modelle/tutorials.md): Entdecke die neuesten LLMs und lerne, wie man Modelle lokal für optimale Leistung mit Unsloth ausführt und feinabstimmt.
- [GLM-5: Anleitung zum lokalen Ausführen](https://unsloth.ai/docs/de/modelle/tutorials/glm-5.md): Führe das neue GLM-5-Modell von Z.ai auf deinem eigenen lokalen Gerät aus!
- [Qwen3 - Wie man ausführt und feinabstimmt](https://unsloth.ai/docs/de/modelle/tutorials/qwen3-how-to-run-and-fine-tune.md): Lerne, Qwen3 lokal mit Unsloth + unseren Dynamic-2.0-Quantisierungen auszuführen und feinabzustimmen
- [Qwen3-VL: Anleitung zum Ausführen](https://unsloth.ai/docs/de/modelle/tutorials/qwen3-how-to-run-and-fine-tune/qwen3-vl-how-to-run-and-fine-tune.md): Lerne, Qwen3-VL lokal mit Unsloth auszuführen und feinabzustimmen.
- [Qwen3-2507: Anleitung zum lokalen Ausführen](https://unsloth.ai/docs/de/modelle/tutorials/qwen3-how-to-run-and-fine-tune/qwen3-2507.md): Führe Qwen3-30B-A3B-2507 sowie die Thinking- und Instruct-Versionen von 235B-A22B lokal auf deinem Gerät aus!
- [Qwen3-Coder: Wie man lokal ausführt](https://unsloth.ai/docs/de/modelle/tutorials/qwen3-coder-how-to-run-locally.md): Führe Qwen3-Coder-30B-A3B-Instruct und 480B-A35B lokal mit Unsloth Dynamic-Quantisierungen aus.
- [Gemma 3 - Anleitung zum Ausführen](https://unsloth.ai/docs/de/modelle/tutorials/gemma-3-how-to-run-and-fine-tune.md): Wie man Gemma 3 effektiv mit unseren GGUFs auf llama.cpp, Ollama, Open WebUI ausführt und wie man mit Unsloth feinabstimmt!
- [Gemma 3n: Wie man ausführt und feinabstimmt](https://unsloth.ai/docs/de/modelle/tutorials/gemma-3-how-to-run-and-fine-tune/gemma-3n-how-to-run-and-fine-tune.md): Führe Googles neues Gemma 3n lokal mit Dynamic GGUFs auf llama.cpp, Ollama, Open WebUI aus und feinabstimme es mit Unsloth!
- [DeepSeek-OCR 2: Anleitung zum Ausführen und Feinabstimmen](https://unsloth.ai/docs/de/modelle/tutorials/deepseek-ocr-2.md): Anleitung, wie man DeepSeek-OCR-2 lokal ausführt und feinabstimmt.
- [GLM-4.7: Anleitung zum lokalen Ausführen](https://unsloth.ai/docs/de/modelle/tutorials/glm-4.7.md): Eine Anleitung, wie man das Z.ai-GLM-4.7-Modell auf deinem eigenen lokalen Gerät ausführt!
- [Wie man Qwen-Image-2512 lokal in ComfyUI ausführt](https://unsloth.ai/docs/de/modelle/tutorials/qwen-image-2512.md): Schritt-für-Schritt-Tutorial zum Ausführen von Qwen-Image-2512 auf deinem lokalen Gerät mit ComfyUI.
- [Qwen-Image-2512 in stable-diffusion.cpp ausführen Tutorial](https://unsloth.ai/docs/de/modelle/tutorials/qwen-image-2512/stable-diffusion.cpp.md): Tutorial zur Verwendung von Qwen-Image-2512 in stable-diffusion.cpp.
- [Devstral 2 - Anleitung zum Ausführen](https://unsloth.ai/docs/de/modelle/tutorials/devstral-2.md): Anleitung zum lokalen Ausführen der Mistral-Devstral-2-Modelle: 123B-Instruct-2512 und Small-2-24B-Instruct-2512.
- [Ministral 3 - Anleitung zum Ausführen](https://unsloth.ai/docs/de/modelle/tutorials/ministral-3.md): Anleitung für Mistral-Ministral-3-Modelle, um sie lokal auf deinem Gerät auszuführen oder feinabzustimmen
- [DeepSeek-OCR: Wie man ausführt und feinabstimmt](https://unsloth.ai/docs/de/modelle/tutorials/deepseek-ocr-how-to-run-and-fine-tune.md): Anleitung, wie man DeepSeek-OCR lokal ausführt und feinabstimmt.
- [Kimi K2 Thinking: Anleitung zum lokalen Ausführen](https://unsloth.ai/docs/de/modelle/tutorials/kimi-k2-thinking-how-to-run-locally.md): Anleitung zum Ausführen von Kimi-K2-Thinking und Kimi-K2 auf deinem eigenen lokalen Gerät!
- [GLM-4.6: Anleitung zum lokalen Ausführen](https://unsloth.ai/docs/de/modelle/tutorials/glm-4.6-how-to-run-locally.md): Eine Anleitung, wie man das Z.ai-GLM-4.6- und GLM-4.6V-Flash-Modell auf deinem eigenen lokalen Gerät ausführt!
- [Qwen3-Next: Anleitung zum lokalen Ausführen](https://unsloth.ai/docs/de/modelle/tutorials/qwen3-next.md): Führe Qwen3-Next-80B-A3B-Instruct und die Thinking-Versionen lokal auf deinem Gerät aus!
- [FunctionGemma: Wie man ausführt und feinabstimmt](https://unsloth.ai/docs/de/modelle/tutorials/functiongemma.md): Lerne, wie man FunctionGemma lokal auf deinem Gerät und Telefon ausführt und feinabstimmt.
- [DeepSeek-V3.1: Wie man lokal ausführt](https://unsloth.ai/docs/de/modelle/tutorials/deepseek-v3.1-how-to-run-locally.md): Eine Anleitung, wie man DeepSeek-V3.1 und Terminus auf deinem eigenen lokalen Gerät ausführt!
- [DeepSeek-R1-0528: Wie man lokal ausführt](https://unsloth.ai/docs/de/modelle/tutorials/deepseek-r1-0528-how-to-run-locally.md): Eine Anleitung, wie man DeepSeek-R1-0528 einschließlich Qwen3 auf deinem eigenen lokalen Gerät ausführt!
- [Liquid LFM2.5: Wie man ausführt und feinabstimmt](https://unsloth.ai/docs/de/modelle/tutorials/lfm2.5.md): Führe LFM2.5 Instruct und Vision lokal auf deinem Gerät aus und feinabstimme sie!
- [Magistral: Wie man ausführt und feinabstimmt](https://unsloth.ai/docs/de/modelle/tutorials/magistral-how-to-run-and-fine-tune.md): Lerne Magistral kennen – Mistrals neue Reasoning-Modelle.
- [IBM Granite 4.0](https://unsloth.ai/docs/de/modelle/tutorials/ibm-granite-4.0.md): Wie man IBM Granite-4.0 mit Unsloth GGUFs auf llama.cpp und Ollama ausführt und wie man feinabstimmt!
- [Llama 4: Wie man ausführt und feinabstimmt](https://unsloth.ai/docs/de/modelle/tutorials/llama-4-how-to-run-and-fine-tune.md): Wie man Llama 4 lokal mit unseren dynamischen GGUFs ausführt, die im Vergleich zur Standardquantisierung die Genauigkeit wiederherstellen.
- [Grok 2](https://unsloth.ai/docs/de/modelle/tutorials/grok-2.md): Führe xAIs Grok-2-Modell lokal aus!
- [Devstral: Wie man ausführt und feinabstimmt](https://unsloth.ai/docs/de/modelle/tutorials/devstral-how-to-run-and-fine-tune.md): Führe Mistral Devstral 1.1 aus und feinabstimme es, einschließlich Small-2507 und 2505.
- [Wie man lokale LLMs mit Docker ausführt: Schritt-für-Schritt-Anleitung](https://unsloth.ai/docs/de/modelle/tutorials/how-to-run-llms-with-docker.md): Lerne, wie man Large Language Models (LLMs) mit Docker und Unsloth auf deinem lokalen Gerät ausführt.
- [DeepSeek-V3-0324: Wie man lokal ausführt](https://unsloth.ai/docs/de/modelle/tutorials/deepseek-v3-0324-how-to-run-locally.md): Wie man DeepSeek-V3-0324 lokal mit unseren dynamischen Quantisierungen ausführt, die die Genauigkeit wiederherstellen
- [DeepSeek-R1: Wie man lokal ausführt](https://unsloth.ai/docs/de/modelle/tutorials/deepseek-r1-how-to-run-locally.md): Eine Anleitung, wie du unsere 1,58-Bit-Dynamic-Quantisierungen für DeepSeek-R1 mit llama.cpp ausführen kannst.
- [DeepSeek-R1 Dynamic 1.58-Bit](https://unsloth.ai/docs/de/modelle/tutorials/deepseek-r1-how-to-run-locally/deepseek-r1-dynamic-1.58-bit.md): Sieh dir Performance-Vergleichstabellen für Unsloths Dynamic-GGUF-Quantisierungen im Vergleich zu Standard-IMatrix-Quantisierungen an.
- [Phi-4 Reasoning: Wie man ausführt und feinabstimmt](https://unsloth.ai/docs/de/modelle/tutorials/phi-4-reasoning-how-to-run-and-fine-tune.md): Lerne, Phi-4-Reasoning-Modelle lokal mit Unsloth + unseren Dynamic-2.0-Quantisierungen auszuführen und feinabzustimmen
- [QwQ-32B: Wie man effektiv ausführt](https://unsloth.ai/docs/de/modelle/tutorials/qwq-32b-how-to-run-effectively.md): Wie man QwQ-32B effektiv mit unseren Fehlerbehebungen und ohne endlose Generierungen + GGUFs ausführt.


---

# Agent Instructions: Querying This Documentation

If you need additional information that is not directly available in this page, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on the current page URL with the `ask` query parameter:

```
GET https://unsloth.ai/docs/de/modelle.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
