🔮Unsloth モデルカタログ
Unsloth の LLM ディレクトリ、すべての ダイナミック Hugging Face 上の GGUF、4ビット、16ビット モデル。
QwenDeepSeekGemmaLlamaMistralGLM
GGUFs Ollama、LM Studio、llama.cpp のようなツールでモデルを実行できます。 Instruct(4ビット) safetensors は推論やファインチューニングに使用できます。
新着 & 推奨モデル:
モデル
バリアント
GGUF
Instruct(4ビット)
DeepSeek モデル:
モデル
バリアント
GGUF
Instruct(4ビット)
Llama モデル:
Gemma モデル:
Qwen モデル:
モデル
バリアント
GGUF
Instruct(4ビット)
GLM モデル:
Mistral モデル:
モデル
バリアント
GGUF
Instruct(4ビット)
Phi モデル:
その他(GLM、Orpheus、Smol、Llava など)モデル:
モデル
バリアント
GGUF
Instruct(4ビット)
16ビットおよび8ビットの Instruct モデルは、推論やファインチューニングに使用されます:
新しいモデル:
モデル
バリアント
Instruct(16ビット)
DeepSeek モデル
Llama モデル
Gemma モデル:
Qwen モデル:
ファミリー
バリアント
Instruct(16ビット)
QVQ(プレビュー)
72 B
—
Mistral モデル:
Phi モデル:
テキスト読み上げ(TTS)モデル:
ベースモデルは通常ファインチューニング用途で使用されます:
新しいモデル:
Llama モデル:
Qwen モデル:
Llama モデル:
Gemma モデル
Mistral モデル:
その他(TTS、TinyLlama)モデル:
トレーニングやサービング/デプロイに当社の FP8 アップロードを使用できます。
FP8 Dynamic は FP8 Block よりわずかに高速なトレーニングと低い VRAM 使用量を提供しますが、精度に小さなトレードオフがあります。
モデル
バリアント
FP8(Dynamic / Block)
最終更新
役に立ちましたか?

