# Modelle

- [Gemma 4 - Wie man lokal ausführt](/docs/de/modelle/gemma-4.md): Führe Googles neue Gemma-4-Modelle lokal aus, einschließlich E2B, E4B, 26B A4B und 31B.
- [Gemma 4 Feintuning-Anleitung](/docs/de/modelle/gemma-4/train.md): Trainiere Gemma 4 von Google mit Unsloth.
- [Qwen3.5 - Wie man lokal ausführt](/docs/de/modelle/qwen3.5.md): Führe die neuen Qwen3.5-LLMs lokal auf deinem Gerät aus, einschließlich Medium: Qwen3.5-35B-A3B, 27B, 122B-A10B, Small: Qwen3.5-0.8B, 2B, 4B, 9B und 397B-A17B!
- [Qwen3.5 Feintuning-Anleitung](/docs/de/modelle/qwen3.5/fine-tune.md): Lerne, wie man Qwen3.5-LLMs mit Unsloth feinabstimmt.
- [Qwen3.5 GGUF-Benchmarks](/docs/de/modelle/qwen3.5/gguf-benchmarks.md): Sieh dir an, wie Unsloths Dynamic-GGUFs abschneiden + Analyse von Perplexität, KL-Divergenz & MXFP4.
- [GLM-5.1 - Wie man lokal ausführt](/docs/de/modelle/glm-5.1.md): Führe das neue GLM-5.1-Modell von Z.ai auf deinem eigenen lokalen Gerät aus!
- [NVIDIA Nemotron 3 Nano - Anleitung zum Ausführen](/docs/de/modelle/nemotron-3.md): Führe NVIDIA Nemotron 3 Nano lokal auf deinem Gerät aus und feinabstimme es!
- [NVIDIA Nemotron-3-Super: Anleitung zum Ausführen](/docs/de/modelle/nemotron-3/nemotron-3-super.md): Führe NVIDIA Nemotron-3-Super-120B-A12B lokal auf deinem Gerät aus und feinabstimme es!
- [Qwen3-Coder-Next: Wie man lokal ausführt](/docs/de/modelle/qwen3-coder-next.md): Anleitung zum lokalen Ausführen von Qwen3-Coder-Next auf deinem Gerät!
- [GLM-4.7-Flash: Wie man lokal ausführt](/docs/de/modelle/glm-4.7-flash.md): Führe GLM-4.7-Flash lokal auf deinem Gerät aus und feinabstimme es!
- [MiniMax-M2.5: Anleitung zum Ausführen](/docs/de/modelle/minimax-m25.md): Führe MiniMax-M2.5 lokal auf deinem eigenen Gerät aus!
- [Kimi K2.5: Anleitung zum lokalen Ausführen](/docs/de/modelle/kimi-k2.5.md): Anleitung zum Ausführen von Kimi-K2.5 auf deinem eigenen lokalen Gerät!
- [gpt-oss: Anleitung zum Ausführen](/docs/de/modelle/gpt-oss-how-to-run-and-fine-tune.md): Führe OpenAIs neue Open-Source-Modelle aus und feinabstimme sie!
- [gpt-oss Reinforcement Learning](/docs/de/modelle/gpt-oss-how-to-run-and-fine-tune/gpt-oss-reinforcement-learning.md)
- [Tutorial: Wie man gpt-oss mit RL trainiert](/docs/de/modelle/gpt-oss-how-to-run-and-fine-tune/gpt-oss-reinforcement-learning/tutorial-how-to-train-gpt-oss-with-rl.md): Lerne, OpenAI gpt-oss mit GRPO zu trainieren, um 2048 lokal oder auf Colab autonom zu schlagen.
- [Tutorial: Wie man gpt-oss feinabstimmt](/docs/de/modelle/gpt-oss-how-to-run-and-fine-tune/tutorial-how-to-fine-tune-gpt-oss.md): Lerne Schritt für Schritt, wie man OpenAI gpt-oss lokal mit Unsloth trainiert.
- [Langkontext-gpt-oss-Training](/docs/de/modelle/gpt-oss-how-to-run-and-fine-tune/long-context-gpt-oss-training.md)
- [Tutorials zu Large Language Models (LLMs)](/docs/de/modelle/tutorials.md): Entdecke die neuesten LLMs und lerne, wie man Modelle lokal für optimale Leistung mit Unsloth ausführt und feinabstimmt.
- [GLM-5: Anleitung zum lokalen Ausführen](/docs/de/modelle/tutorials/glm-5.md): Führe das neue GLM-5-Modell von Z.ai auf deinem eigenen lokalen Gerät aus!
- [Qwen3 - Wie man ausführt und feinabstimmt](/docs/de/modelle/tutorials/qwen3-how-to-run-and-fine-tune.md): Lerne, Qwen3 lokal mit Unsloth + unseren Dynamic-2.0-Quantisierungen auszuführen und feinabzustimmen
- [Qwen3-VL: Anleitung zum Ausführen](/docs/de/modelle/tutorials/qwen3-how-to-run-and-fine-tune/qwen3-vl-how-to-run-and-fine-tune.md): Lerne, Qwen3-VL lokal mit Unsloth auszuführen und feinabzustimmen.
- [Qwen3-2507: Anleitung zum lokalen Ausführen](/docs/de/modelle/tutorials/qwen3-how-to-run-and-fine-tune/qwen3-2507.md): Führe Qwen3-30B-A3B-2507 sowie die Thinking- und Instruct-Versionen von 235B-A22B lokal auf deinem Gerät aus!
- [Qwen3-Coder: Wie man lokal ausführt](/docs/de/modelle/tutorials/qwen3-coder-how-to-run-locally.md): Führe Qwen3-Coder-30B-A3B-Instruct und 480B-A35B lokal mit Unsloth Dynamic-Quantisierungen aus.
- [Gemma 3 - Anleitung zum Ausführen](/docs/de/modelle/tutorials/gemma-3-how-to-run-and-fine-tune.md): Wie man Gemma 3 effektiv mit unseren GGUFs auf llama.cpp, Ollama, Open WebUI ausführt und wie man mit Unsloth feinabstimmt!
- [Gemma 3n: Wie man ausführt und feinabstimmt](/docs/de/modelle/tutorials/gemma-3-how-to-run-and-fine-tune/gemma-3n-how-to-run-and-fine-tune.md): Führe Googles neues Gemma 3n lokal mit Dynamic GGUFs auf llama.cpp, Ollama, Open WebUI aus und feinabstimme es mit Unsloth!
- [DeepSeek-OCR 2: Anleitung zum Ausführen und Feinabstimmen](/docs/de/modelle/tutorials/deepseek-ocr-2.md): Anleitung, wie man DeepSeek-OCR-2 lokal ausführt und feinabstimmt.
- [GLM-4.7: Anleitung zum lokalen Ausführen](/docs/de/modelle/tutorials/glm-4.7.md): Eine Anleitung, wie man das Z.ai-GLM-4.7-Modell auf deinem eigenen lokalen Gerät ausführt!
- [Wie man Qwen-Image-2512 lokal in ComfyUI ausführt](/docs/de/modelle/tutorials/qwen-image-2512.md): Schritt-für-Schritt-Tutorial zum Ausführen von Qwen-Image-2512 auf deinem lokalen Gerät mit ComfyUI.
- [Qwen-Image-2512 in stable-diffusion.cpp ausführen Tutorial](/docs/de/modelle/tutorials/qwen-image-2512/stable-diffusion.cpp.md): Tutorial zur Verwendung von Qwen-Image-2512 in stable-diffusion.cpp.
- [Devstral 2 - Anleitung zum Ausführen](/docs/de/modelle/tutorials/devstral-2.md): Anleitung zum lokalen Ausführen der Mistral-Devstral-2-Modelle: 123B-Instruct-2512 und Small-2-24B-Instruct-2512.
- [Ministral 3 - Anleitung zum Ausführen](/docs/de/modelle/tutorials/ministral-3.md): Anleitung für Mistral-Ministral-3-Modelle, um sie lokal auf deinem Gerät auszuführen oder feinabzustimmen
- [DeepSeek-OCR: Wie man ausführt und feinabstimmt](/docs/de/modelle/tutorials/deepseek-ocr-how-to-run-and-fine-tune.md): Anleitung, wie man DeepSeek-OCR lokal ausführt und feinabstimmt.
- [Kimi K2 Thinking: Anleitung zum lokalen Ausführen](/docs/de/modelle/tutorials/kimi-k2-thinking-how-to-run-locally.md): Anleitung zum Ausführen von Kimi-K2-Thinking und Kimi-K2 auf deinem eigenen lokalen Gerät!
- [GLM-4.6: Anleitung zum lokalen Ausführen](/docs/de/modelle/tutorials/glm-4.6-how-to-run-locally.md): Eine Anleitung, wie man das Z.ai-GLM-4.6- und GLM-4.6V-Flash-Modell auf deinem eigenen lokalen Gerät ausführt!
- [Qwen3-Next: Anleitung zum lokalen Ausführen](/docs/de/modelle/tutorials/qwen3-next.md): Führe Qwen3-Next-80B-A3B-Instruct und die Thinking-Versionen lokal auf deinem Gerät aus!
- [FunctionGemma: Wie man ausführt und feinabstimmt](/docs/de/modelle/tutorials/functiongemma.md): Lerne, wie man FunctionGemma lokal auf deinem Gerät und Telefon ausführt und feinabstimmt.
- [DeepSeek-V3.1: Wie man lokal ausführt](/docs/de/modelle/tutorials/deepseek-v3.1-how-to-run-locally.md): Eine Anleitung, wie man DeepSeek-V3.1 und Terminus auf deinem eigenen lokalen Gerät ausführt!
- [DeepSeek-R1-0528: Wie man lokal ausführt](/docs/de/modelle/tutorials/deepseek-r1-0528-how-to-run-locally.md): Eine Anleitung, wie man DeepSeek-R1-0528 einschließlich Qwen3 auf deinem eigenen lokalen Gerät ausführt!
- [Liquid LFM2.5: Wie man ausführt und feinabstimmt](/docs/de/modelle/tutorials/lfm2.5.md): Führe LFM2.5 Instruct und Vision lokal auf deinem Gerät aus und feinabstimme sie!
- [Magistral: Wie man ausführt und feinabstimmt](/docs/de/modelle/tutorials/magistral-how-to-run-and-fine-tune.md): Lerne Magistral kennen – Mistrals neue Reasoning-Modelle.
- [IBM Granite 4.0](/docs/de/modelle/tutorials/ibm-granite-4.0.md): Wie man IBM Granite-4.0 mit Unsloth GGUFs auf llama.cpp und Ollama ausführt und wie man feinabstimmt!
- [Llama 4: Wie man ausführt und feinabstimmt](/docs/de/modelle/tutorials/llama-4-how-to-run-and-fine-tune.md): Wie man Llama 4 lokal mit unseren dynamischen GGUFs ausführt, die im Vergleich zur Standardquantisierung die Genauigkeit wiederherstellen.
- [Grok 2](/docs/de/modelle/tutorials/grok-2.md): Führe xAIs Grok-2-Modell lokal aus!
- [Devstral: Wie man ausführt und feinabstimmt](/docs/de/modelle/tutorials/devstral-how-to-run-and-fine-tune.md): Führe Mistral Devstral 1.1 aus und feinabstimme es, einschließlich Small-2507 und 2505.
- [Wie man lokale LLMs mit Docker ausführt: Schritt-für-Schritt-Anleitung](/docs/de/modelle/tutorials/how-to-run-llms-with-docker.md): Lerne, wie man Large Language Models (LLMs) mit Docker und Unsloth auf deinem lokalen Gerät ausführt.
- [DeepSeek-V3-0324: Wie man lokal ausführt](/docs/de/modelle/tutorials/deepseek-v3-0324-how-to-run-locally.md): Wie man DeepSeek-V3-0324 lokal mit unseren dynamischen Quantisierungen ausführt, die die Genauigkeit wiederherstellen
- [DeepSeek-R1: Wie man lokal ausführt](/docs/de/modelle/tutorials/deepseek-r1-how-to-run-locally.md): Eine Anleitung, wie du unsere 1,58-Bit-Dynamic-Quantisierungen für DeepSeek-R1 mit llama.cpp ausführen kannst.
- [DeepSeek-R1 Dynamic 1.58-Bit](/docs/de/modelle/tutorials/deepseek-r1-how-to-run-locally/deepseek-r1-dynamic-1.58-bit.md): Sieh dir Performance-Vergleichstabellen für Unsloths Dynamic-GGUF-Quantisierungen im Vergleich zu Standard-IMatrix-Quantisierungen an.
- [Phi-4 Reasoning: Wie man ausführt und feinabstimmt](/docs/de/modelle/tutorials/phi-4-reasoning-how-to-run-and-fine-tune.md): Lerne, Phi-4-Reasoning-Modelle lokal mit Unsloth + unseren Dynamic-2.0-Quantisierungen auszuführen und feinabzustimmen
- [QwQ-32B: Wie man effektiv ausführt](/docs/de/modelle/tutorials/qwq-32b-how-to-run-effectively.md): Wie man QwQ-32B effektiv mit unseren Fehlerbehebungen und ohne endlose Generierungen + GGUFs ausführt.
