🔮Unslothモデルカタログ
Unsloth LLM のディレクトリ(すべての 動的 Hugging Face 上の GGUF、4-bit、16-bit モデル。
QwenDeepSeekGemmaLlamaMistralGLM
GGUF は、次のようなツールでモデルを実行できます Unsloth Studio✨、Ollama、llama.cpp。 Instruct (4-bit) safetensors は Unsloth 経由で推論またはファインチューニングに使用できます。
新規&推奨モデル:
モデル
バリアント
GGUF
Instruct (4-bit)
DeepSeek モデル:
モデル
バリアント
GGUF
Instruct (4-bit)
Llama モデル:
Gemma モデル:
Qwen モデル:
モデル
バリアント
GGUF
Instruct (4-bit)
GLM モデル:
Mistral モデル:
モデル
バリアント
GGUF
Instruct (4-bit)
Phi モデル:
その他 (GLM、Orpheus、Smol、Llava など) モデル:
モデル
バリアント
GGUF
Instruct (4-bit)
16-bit と 8-bit の Instruct モデルは、以下で推論またはファインチューニングに使用されます Unsloth Studio:
新規モデル:
モデル
バリアント
Instruct (16-bit)
DeepSeek モデル
Llama モデル
Gemma モデル:
Qwen モデル:
ファミリー
バリアント
Instruct (16-bit)
QVQ (プレビュー)
72 B
—
Mistral モデル:
Phi モデル:
テキスト読み上げ (TTS) モデル:
Base モデルは通常、ファインチューニング用途に使用されます:
新規モデル:
Llama モデル:
Qwen モデル:
Llama モデル:
Gemma モデル
Mistral モデル:
その他 (TTS、TinyLlama) モデル:
トレーニングまたは配信/デプロイに、当社の FP8 アップロードを使用できます。
FP8 Dynamic は FP8 Block よりわずかに高速なトレーニングと低い VRAM 使用量を提供しますが、精度は少しトレードオフになります。
モデル
バリアント
FP8 (Dynamic / Block)
最終更新
役に立ちましたか?

