🔮Unsloth-Modellkatalog
Unsloth-LLMs-Verzeichnis für all unsere Dynamische GGUF-, 4-Bit-, 16-Bit-Modelle auf Hugging Face.
QwenDeepSeekGemmaLlamaMistralGLM
GGUFs ermöglichen es dir, Modelle in Tools wie Unsloth Studio✨, Ollama und llama.cpp auszuführen. Instrukt (4-Bit) safetensors können für Inferenz oder Fine-Tuning über Unsloth verwendet werden.
Neue & empfohlene Modelle:
DeepSeek-Modelle:
Llama-Modelle:
Gemma-Modelle:
Qwen-Modelle:
GLM-Modelle:
Mistral-Modelle:
Phi-Modelle:
Andere (GLM, Orpheus, Smol, Llava usw.) Modelle:
16-Bit- und 8-Bit-Instrukt-Modelle werden für Inferenz oder Fine-Tuning in Unsloth Studio:
Neue Modelle:
DeepSeek-Modelle
Llama-Modelle
Gemma-Modelle:
Qwen-Modelle:
QVQ (Vorschau)
72 B
—
Mistral-Modelle:
Phi-Modelle:
Text-to-Speech-(TTS)-Modelle:
Basis-Modelle werden normalerweise für Fine-Tuning-Zwecke verwendet:
Neue Modelle:
Llama-Modelle:
Qwen-Modelle:
Llama-Modelle:
Gemma-Modelle
Mistral-Modelle:
Andere (TTS, TinyLlama) Modelle:
Du kannst unsere FP8-Uploads für Training oder Serving/Deployment verwenden.
FP8 Dynamic bietet etwas schnelleres Training und geringeren VRAM-Verbrauch als FP8 Block, allerdings mit einem kleinen Genauigkeitsverlust.
Zuletzt aktualisiert
War das hilfreich?

