🔮Unsloth モデルカタログ
UnslothのすべてのLLMディレクトリ、 ダイナミック Hugging FaceのGGUF、4ビット、16ビットモデル。
DeepSeekLlamaGemmaQwenMistralPhi
GGUFs Ollama、Open WebUI、llama.cppなどのツールでモデルを実行できます。 Instruct(4ビット) safetensorsは推論やファインチューニングに使用できます。
新着&推奨モデル:
モデル
バリアント
GGUF
Instruct(4ビット)
DeepSeekのモデル:
モデル
バリアント
GGUF
Instruct(4ビット)
Llamaのモデル:
Gemmaのモデル:
Qwenのモデル:
モデル
バリアント
GGUF
Instruct(4ビット)
Mistralのモデル:
モデル
バリアント
GGUF
Instruct(4ビット)
Phiのモデル:
その他(GLM、Orpheus、Smol、Llavaなど)のモデル:
モデル
バリアント
GGUF
Instruct(4ビット)
16ビットおよび8ビットのInstructモデルは推論やファインチューニングに使用されます:
新しいモデル:
モデル
バリアント
Instruct(16ビット)
DeepSeekのモデル
Llamaのモデル
Gemmaのモデル:
Qwenのモデル:
ファミリー
バリアント
Instruct(16ビット)
QVQ(プレビュー)
72B
—
Mistralのモデル:
Phiのモデル:
テキスト読み上げ(TTS)モデル:
ベースモデルは通常ファインチューニング目的で使用されます:
新しいモデル:
Llamaのモデル:
Qwenのモデル:
Llamaのモデル:
Gemmaのモデル
Mistralのモデル:
その他(TTS、TinyLlama)モデル:
当社のFP8アップロードはトレーニングやサービング/デプロイに使用できます。
FP8 DynamicはFP8 Blockよりわずかに高速なトレーニングと低いVRAM使用量を提供しますが、精度に小さなトレードオフがあります。
モデル
バリアント
FP8(Dynamic / Block)
最終更新
役に立ちましたか?

