# Grundlagen

- [Inferenz & Bereitstellung](/docs/de/grundlagen/inference-and-deployment.md): Lerne, wie du dein feinabgestimmtes Modell speicherst, damit du es in deiner bevorzugten Inferenz-Engine ausführen kannst.
- [Speichern als GGUF](/docs/de/grundlagen/inference-and-deployment/saving-to-gguf.md): Modelle in 16-Bit für GGUF speichern, damit du sie für Ollama, Jan AI, Open WebUI und mehr verwenden kannst!
- [Spekulatives Dekodieren](/docs/de/grundlagen/inference-and-deployment/saving-to-gguf/speculative-decoding.md): Spekulatives Dekodieren mit llama-server, llama.cpp, vLLM und mehr für 2x schnellere Inferenz
- [vLLM-Bereitstellungs- und Inferenzanleitung](/docs/de/grundlagen/inference-and-deployment/vllm-guide.md): Anleitung zum Speichern und Bereitstellen von LLMs für vLLM zum Serven von LLMs in der Produktion
- [vLLM-Engine-Argumente](/docs/de/grundlagen/inference-and-deployment/vllm-guide/vllm-engine-arguments.md)
- [Anleitung zum Hot-Swapping von LoRA](/docs/de/grundlagen/inference-and-deployment/vllm-guide/lora-hot-swapping-guide.md)
- [Speichern für Ollama](/docs/de/grundlagen/inference-and-deployment/saving-to-ollama.md)
- [Bereitstellen von Modellen in LM Studio](/docs/de/grundlagen/inference-and-deployment/lm-studio.md): Modelle in GGUF speichern, damit du sie in LM Studio ausführen und bereitstellen kannst
- [Wie man die LM-Studio-CLI im Linux-Terminal installiert](/docs/de/grundlagen/inference-and-deployment/lm-studio/how-to-install-lm-studio-cli-in-linux-terminal.md): Anleitung zur Installation der LM-Studio-CLI ohne UI in einer Terminal-Instanz.
- [SGLang-Bereitstellungs- und Inferenzanleitung](/docs/de/grundlagen/inference-and-deployment/sglang-guide.md): Anleitung zum Speichern und Bereitstellen von LLMs für SGLang zum Serven von LLMs in der Produktion
- [Bereitstellungsanleitung für llama-server & OpenAI-Endpoint](/docs/de/grundlagen/inference-and-deployment/llama-server-and-openai-endpoint.md): Bereitstellung über llama-server mit einem mit OpenAI kompatiblen Endpunkt
- [Wie man LLMs auf deinem iOS- oder Android-Telefon ausführt und bereitstellt](/docs/de/grundlagen/inference-and-deployment/deploy-llms-phone.md): Tutorial zum Feintuning deines eigenen LLM und zur Bereitstellung auf deinem Android- oder iPhone mit ExecuTorch.
- [Fehlerbehebung bei Inferenz](/docs/de/grundlagen/inference-and-deployment/troubleshooting-inference.md): Wenn du Probleme beim Ausführen oder Speichern deines Modells hast.
- [Wie man lokale LLMs mit Claude Code ausführt](/docs/de/grundlagen/claude-code.md): Anleitung zur Verwendung offener Modelle mit Claude Code auf deinem lokalen Gerät.
- [Wie man lokale LLMs mit OpenAI Codex ausführt](/docs/de/grundlagen/codex.md): Verwende offene Modelle mit OpenAI Codex lokal auf deinem Gerät.
- [Multi-GPU-Feintuning mit Unsloth](/docs/de/grundlagen/multi-gpu-training-with-unsloth.md): Lerne, wie man LLMs auf mehreren GPUs und mit Parallelisierung mit Unsloth feinabstimmt.
- [Multi-GPU-Feintuning mit Distributed Data Parallel (DDP)](/docs/de/grundlagen/multi-gpu-training-with-unsloth/ddp.md): Lerne, wie du die Unsloth-CLI verwenden kannst, um mit Distributed Data Parallel (DDP) auf mehreren GPUs zu trainieren!
- [Anleitung zum Feintuning von Embedding-Modellen mit Unsloth](/docs/de/grundlagen/embedding-finetuning.md): Lerne, wie man Embedding-Modelle mit Unsloth ganz einfach feinabstimmt.
- [MoE-Modelle 12x schneller mit Unsloth feinabstimmen](/docs/de/grundlagen/faster-moe.md): Trainiere MoE-LLMs lokal mit der Unsloth-Anleitung.
- [Anleitung zum Feintuning von Text-to-Speech (TTS)](/docs/de/grundlagen/text-to-speech-tts-fine-tuning.md): Lerne, wie du TTS- und STT-Sprachmodelle mit Unsloth feinabstimmst.
- [Unsloth Dynamic 2.0 GGUFs](/docs/de/grundlagen/unsloth-dynamic-2.0-ggufs.md): Ein großes neues Upgrade für unsere Dynamic-Quantisierungen!
- [Unsloth Dynamic GGUFs auf Aider Polyglot](/docs/de/grundlagen/unsloth-dynamic-2.0-ggufs/unsloth-dynamic-ggufs-on-aider-polyglot.md): Leistung von Unsloth Dynamic GGUFs bei den Aider-Polyglot-Benchmarks
- [Anleitung zum Tool Calling für lokale LLMs](/docs/de/grundlagen/tool-calling-guide-for-local-llms.md)
- [Vision-Feintuning](/docs/de/grundlagen/vision-fine-tuning.md): Lerne, wie man Vision-/Multimodal-LLMs mit Unsloth feinabstimmt
- [Fehlerbehebung & FAQs](/docs/de/grundlagen/troubleshooting-and-faqs.md): Tipps zur Lösung von Problemen und häufig gestellte Fragen.
- [Hugging Face Hub, XET-Debugging](/docs/de/grundlagen/troubleshooting-and-faqs/hugging-face-hub-xet-debugging.md): Debugging, Fehlerbehebung bei hängenden, festgefahrenen Downloads und langsamen Downloads
- [Chat-Vorlagen](/docs/de/grundlagen/chat-templates.md): Lerne die Grundlagen und Anpassungsoptionen von Chat-Vorlagen kennen, einschließlich der Formate Conversational, ChatML, ShareGPT, Alpaca und mehr!
- [Unsloth-Umgebungsflags](/docs/de/grundlagen/unsloth-environment-flags.md): Erweiterte Flags, die nützlich sein können, wenn du fehlschlagende Feintunings siehst oder Dinge abschalten möchtest.
- [Fortgesetztes Vortraining](/docs/de/grundlagen/continued-pretraining.md): Auch bekannt als fortgesetztes Finetuning. Mit Unsloth kannst du kontinuierlich vortrainieren, damit ein Modell eine neue Sprache lernen kann.
- [Feintuning ab letztem Checkpoint](/docs/de/grundlagen/finetuning-from-last-checkpoint.md): Checkpointing ermöglicht es dir, deinen Feintuning-Fortschritt zu speichern, damit du pausieren und später fortsetzen kannst.
- [Unsloth-Benchmarks](/docs/de/grundlagen/unsloth-benchmarks.md): Von Unsloth aufgezeichnete Benchmarks auf NVIDIA-GPUs.
