Wie man lokale LLMs mit Docker ausführt: Schritt-für-Schritt-Anleitung
Erfahre, wie du große Sprachmodelle (LLMs) mit Docker und Unsloth auf deinem lokalen Gerät ausführst.
docker model run ai/gpt-oss:20Bdocker model run hf.co/unsloth/gpt-oss-20b-GGUF:F16Warum Unsloth + Docker?
⚙️ Hardware-Infos + Leistung
⚡ Schritt-für-Schritt-Tutorials
Methode Nr. 1: Docker-Terminal
3
gpt-oss-20b mit Unsloths UD-Q8_K_XL-Quantisierung


Hugging Face
1
2
#2. Suchen Sie nach Ihrem gewünschten Modell.


UD-Q8_K_XL
unterstützt wird und auf Docker Hub verfügbar ist.
Zuletzt aktualisiert
War das hilfreich?






