Docker でのローカル LLM 実行:ステップバイステップガイド
Docker と Unsloth を使ってローカルデバイスで大規模言語モデル(LLM)を実行する方法を学びます。
docker model run ai/gpt-oss:20Bdocker model run hf.co/unsloth/gpt-oss-20b-GGUF:F16なぜ Unsloth + Docker なのか?
⚙️ ハードウェア情報 + パフォーマンス
⚡ ステップバイステップ チュートリアル
方法 #1:Docker ターミナル
3
特定の量子化レベルを実行するには:


方法 #2:Docker Desktop(コード不要)
最新のモデルを実行するには:
Docker Model Runner とは何ですか?
最終更新
役に立ちましたか?








