Wie man lokale LLMs mit Docker ausführt: Schritt-für-Schritt-Anleitung
Lerne, wie man große Sprachmodelle (LLMs) mit Docker & Unsloth auf deinem lokalen Gerät ausführt.
docker model run ai/gpt-oss:20Bdocker model run hf.co/unsloth/gpt-oss-20b-GGUF:F16Warum Unsloth + Docker?
⚙️ Hardware-Infos + Leistung
⚡ Schritt-für-Schritt-Tutorials
Methode Nr. 1: Docker-Terminal
3
gpt-oss-20b mit Unsloths UD-Q8_K_XL-Quantisierung


Hugging Face
1
2
#2. Suchen Sie nach Ihrem gewünschten Modell.


UD-Q8_K_XL
unterstützt wird und auf Docker Hub verfügbar ist.
Zuletzt aktualisiert
War das hilfreich?






