🔮Unsloth-Modellkatalog
Unsloth LLM-Verzeichnis für alle unsere Dynamisch GGUF-, 4-Bit-, 16-Bit-Modelle auf Hugging Face.
QwenDeepSeekGemmaLlamaMistralGLM
GGUFs lassen Sie Modelle in Tools wie Unsloth Studio✨, Ollama und llama.cpp ausführen. Instruct (4-Bit) safetensors können für Inferenz oder Feinabstimmung über Unsloth verwendet werden.
Neue & empfohlene Modelle:
DeepSeek-Modelle:
Llama-Modelle:
Gemma-Modelle:
Qwen-Modelle:
GLM-Modelle:
Mistral-Modelle:
Phi-Modelle:
Andere (GLM, Orpheus, Smol, Llava etc.) Modelle:
16-Bit- und 8-Bit-Instruct-Modelle werden für Inferenz oder Feinabstimmung in Unsloth Studio:
Neue Modelle:
DeepSeek-Modelle
Llama-Modelle
Gemma-Modelle:
Qwen-Modelle:
QVQ (Vorschau)
72 B
—
Mistral-Modelle:
Phi-Modelle:
Text-to-Speech (TTS)-Modelle:
Basismodelle werden normalerweise für Feinabstimmungszwecke verwendet:
Neue Modelle:
Llama-Modelle:
Qwen-Modelle:
Llama-Modelle:
Gemma-Modelle
Mistral-Modelle:
Andere (TTS, TinyLlama) Modelle:
Sie können unsere FP8-Uploads für Training oder Bereitstellung/Deployment verwenden.
FP8 Dynamic bietet etwas schnelleres Training und geringeren VRAM-Verbrauch als FP8 Block, geht aber mit einem kleinen Genauigkeitskompromiss einher.
Zuletzt aktualisiert
War das hilfreich?

