# モデル

- [Gemma 4 - ローカルで実行する方法](/docs/jp/moderu/gemma-4.md): E2B、E4B、26B A4B、31B を含む Google の新しい Gemma 4 モデルをローカルで実行しましょう。
- [Gemma 4 ファインチューニングガイド](/docs/jp/moderu/gemma-4/train.md): Google の Gemma 4 を Unsloth で学習しましょう。
- [Qwen3.5 - ローカルで実行する方法](/docs/jp/moderu/qwen3.5.md): Medium の Qwen3.5-35B-A3B、27B、122B-A10B、Small の Qwen3.5-0.8B、2B、4B、9B、397B-A17B を含む新しい Qwen3.5 LLM を自分のローカルデバイスで実行しましょう！
- [Qwen3.5 ファインチューニングガイド](/docs/jp/moderu/qwen3.5/fine-tune.md): Unsloth を使って Qwen3.5 LLM をファインチューニングする方法を学びましょう。
- [Qwen3.5 GGUF ベンチマーク](/docs/jp/moderu/qwen3.5/gguf-benchmarks.md): Unsloth の Dynamic GGUF の性能と、perplexity、KL divergence、MXFP4 の分析をご覧ください。
- [GLM-5.1 - ローカルで実行する方法](/docs/jp/moderu/glm-5.1.md): Z.ai の新しい GLM-5.1 モデルを自分のローカルデバイスで実行しましょう！
- [MiniMax-M2.7 - ローカルで実行する方法](/docs/jp/moderu/minimax-m27.md): MiniMax-M2.7 LLM を自分のデバイスでローカル実行しましょう！
- [NVIDIA Nemotron 3 Nano - 実行方法ガイド](/docs/jp/moderu/nemotron-3.md): NVIDIA Nemotron 3 Nano を自分のデバイスでローカル実行・ファインチューニングしましょう！
- [NVIDIA Nemotron-3-Super: 実行方法ガイド](/docs/jp/moderu/nemotron-3/nemotron-3-super.md): NVIDIA Nemotron-3-Super-120B-A12B を自分のデバイスでローカル実行・ファインチューニングしましょう！
- [Qwen3-Coder-Next: ローカルで実行する方法](/docs/jp/moderu/qwen3-coder-next.md): Qwen3-Coder-Next を自分のデバイスでローカル実行するためのガイド！
- [GLM-4.7-Flash: ローカルで実行する方法](/docs/jp/moderu/glm-4.7-flash.md): GLM-4.7-Flash を自分のデバイスでローカル実行・ファインチューニングしましょう！
- [Kimi K2.5: ローカル実行ガイド](/docs/jp/moderu/kimi-k2.5.md): Kimi-K2.5 を自分のローカルデバイスで実行するためのガイド！
- [gpt-oss: 実行方法ガイド](/docs/jp/moderu/gpt-oss-how-to-run-and-fine-tune.md): OpenAI の新しいオープンソースモデルを実行・ファインチューニングしましょう！
- [gpt-oss 強化学習](/docs/jp/moderu/gpt-oss-how-to-run-and-fine-tune/gpt-oss-reinforcement-learning.md)
- [チュートリアル：RL で gpt-oss を学習する方法](/docs/jp/moderu/gpt-oss-how-to-run-and-fine-tune/gpt-oss-reinforcement-learning/tutorial-how-to-train-gpt-oss-with-rl.md): GRPO を使って OpenAI gpt-oss を学習し、ローカルまたは Colab 上で 2048 に自律的に勝つ方法を学びましょう。
- [チュートリアル：gpt-oss のファインチューニング方法](/docs/jp/moderu/gpt-oss-how-to-run-and-fine-tune/tutorial-how-to-fine-tune-gpt-oss.md): Unsloth を使って OpenAI gpt-oss をローカルで学習する方法をステップバイステップで学びましょう。
- [長文コンテキストの gpt-oss 学習](/docs/jp/moderu/gpt-oss-how-to-run-and-fine-tune/long-context-gpt-oss-training.md)
- [大規模言語モデル（LLM）チュートリアル](/docs/jp/moderu/tutorials.md): 最新の LLM を発見し、Unsloth を使って最適な性能を得るためにモデルをローカルで実行・ファインチューニングする方法を学びましょう。
- [GLM-5: ローカルで実行する方法ガイド](/docs/jp/moderu/tutorials/glm-5.md): Z.ai の新しい GLM-5 モデルを自分のローカルデバイスで実行しましょう！
- [Qwen3 - 実行とファインチューニングの方法](/docs/jp/moderu/tutorials/qwen3-how-to-run-and-fine-tune.md): Unsloth と独自の Dynamic 2.0 quants を使って、Qwen3 をローカルで実行・ファインチューニングする方法を学びましょう
- [Qwen3-VL: 実行方法ガイド](/docs/jp/moderu/tutorials/qwen3-how-to-run-and-fine-tune/qwen3-vl-how-to-run-and-fine-tune.md): Unsloth を使って Qwen3-VL をローカルでファインチューニングし、実行する方法を学びましょう。
- [Qwen3-2507: ローカル実行ガイド](/docs/jp/moderu/tutorials/qwen3-how-to-run-and-fine-tune/qwen3-2507.md): Qwen3-30B-A3B-2507 と 235B-A22B の Thinking 版と Instruct 版を自分のデバイスでローカル実行しましょう！
- [MiniMax-M2.5: 実行方法ガイド](/docs/jp/moderu/tutorials/minimax-m25.md): MiniMax-M2.5 を自分のデバイスでローカル実行しましょう！
- [Qwen3-Coder: ローカルで実行する方法](/docs/jp/moderu/tutorials/qwen3-coder-how-to-run-locally.md): Unsloth Dynamic quants を使って Qwen3-Coder-30B-A3B-Instruct と 480B-A35B をローカルで実行しましょう。
- [Gemma 3 - 実行方法ガイド](/docs/jp/moderu/tutorials/gemma-3-how-to-run-and-fine-tune.md): llama.cpp、Ollama、Open WebUI で GGUF を使って Gemma 3 を効果的に実行する方法と、Unsloth でファインチューニングする方法を学びましょう！
- [Gemma 3n: 実行とファインチューニングの方法](/docs/jp/moderu/tutorials/gemma-3-how-to-run-and-fine-tune/gemma-3n-how-to-run-and-fine-tune.md): Google の新しい Gemma 3n を Dynamic GGUF で llama.cpp、Ollama、Open WebUI 上でローカル実行し、Unsloth でファインチューニングしましょう！
- [DeepSeek-OCR 2: 実行とファインチューニングの方法ガイド](/docs/jp/moderu/tutorials/deepseek-ocr-2.md): DeepSeek-OCR-2 をローカルで実行・ファインチューニングする方法のガイド。
- [GLM-4.7: ローカルで実行する方法ガイド](/docs/jp/moderu/tutorials/glm-4.7.md): Z.ai の GLM-4.7 モデルを自分のローカルデバイスで実行する方法のガイド！
- [ComfyUI で Qwen-Image-2512 をローカル実行する方法](/docs/jp/moderu/tutorials/qwen-image-2512.md): ComfyUI を使って Qwen-Image-2512 を自分のローカルデバイスで実行するためのステップバイステップチュートリアル。
- [stable-diffusion.cpp で Qwen-Image-2512 を実行するチュートリアル](/docs/jp/moderu/tutorials/qwen-image-2512/stable-diffusion.cpp.md): stable-diffusion.cpp で Qwen-Image-2512 を使うためのチュートリアル。
- [Devstral 2 - 実行方法ガイド](/docs/jp/moderu/tutorials/devstral-2.md): Mistral Devstral 2 モデル（123B-Instruct-2512 と Small-2-24B-Instruct-2512）のローカル実行ガイド。
- [Ministral 3 - 実行方法ガイド](/docs/jp/moderu/tutorials/ministral-3.md): Mistral Ministral 3 モデルを、自分のデバイスでローカル実行またはファインチューニングするためのガイド
- [DeepSeek-OCR: 実行とファインチューニングの方法](/docs/jp/moderu/tutorials/deepseek-ocr-how-to-run-and-fine-tune.md): DeepSeek-OCR をローカルで実行・ファインチューニングする方法のガイド。
- [Kimi K2 Thinking: ローカル実行ガイド](/docs/jp/moderu/tutorials/kimi-k2-thinking-how-to-run-locally.md): Kimi-K2-Thinking と Kimi-K2 を自分のローカルデバイスで実行するためのガイド！
- [GLM-4.6: ローカル実行ガイド](/docs/jp/moderu/tutorials/glm-4.6-how-to-run-locally.md): Z.ai の GLM-4.6 および GLM-4.6V-Flash モデルを自分のローカルデバイスで実行する方法のガイド！
- [Qwen3-Next: ローカル実行ガイド](/docs/jp/moderu/tutorials/qwen3-next.md): Qwen3-Next-80B-A3B-Instruct と Thinking 版を自分のデバイスでローカル実行しましょう！
- [FunctionGemma: 実行とファインチューニングの方法](/docs/jp/moderu/tutorials/functiongemma.md): FunctionGemma を自分のデバイスやスマートフォンでローカル実行・ファインチューニングする方法を学びましょう。
- [DeepSeek-V3.1: ローカルで実行する方法](/docs/jp/moderu/tutorials/deepseek-v3.1-how-to-run-locally.md): DeepSeek-V3.1 と Terminus を自分のローカルデバイスで実行する方法のガイド！
- [DeepSeek-R1-0528: ローカルで実行する方法](/docs/jp/moderu/tutorials/deepseek-r1-0528-how-to-run-locally.md): Qwen3 を含む DeepSeek-R1-0528 を自分のローカルデバイスで実行する方法のガイド！
- [Liquid LFM2.5: 実行とファインチューニングの方法](/docs/jp/moderu/tutorials/lfm2.5.md): LFM2.5 Instruct と Vision を自分のデバイスでローカル実行・ファインチューニングしましょう！
- [Magistral: 実行とファインチューニングの方法](/docs/jp/moderu/tutorials/magistral-how-to-run-and-fine-tune.md): Magistral を紹介します - Mistral の新しい推論モデルです。
- [IBM Granite 4.0](/docs/jp/moderu/tutorials/ibm-granite-4.0.md): Unsloth GGUF を使って llama.cpp、Ollama で IBM Granite-4.0 を実行する方法と、ファインチューニングする方法！
- [Llama 4: 実行とファインチューニングの方法](/docs/jp/moderu/tutorials/llama-4-how-to-run-and-fine-tune.md): 標準的な量子化と比べて精度を回復できる動的 GGUF を使って、Llama 4 をローカルで実行する方法。
- [Grok 2](/docs/jp/moderu/tutorials/grok-2.md): xAI の Grok 2 モデルをローカルで実行しましょう！
- [Devstral: 実行とファインチューニングの方法](/docs/jp/moderu/tutorials/devstral-how-to-run-and-fine-tune.md): Small-2507 と 2505 を含む Mistral Devstral 1.1 を実行・ファインチューニングしましょう。
- [Docker でローカル LLM を実行する方法：ステップバイステップガイド](/docs/jp/moderu/tutorials/how-to-run-llms-with-docker.md): Docker と Unsloth を使って、ローカルデバイスで大規模言語モデル（LLM）を実行する方法を学びましょう。
- [DeepSeek-V3-0324: ローカルで実行する方法](/docs/jp/moderu/tutorials/deepseek-v3-0324-how-to-run-locally.md): 精度を回復する動的 quants を使って DeepSeek-V3-0324 をローカルで実行する方法
- [DeepSeek-R1: ローカルで実行する方法](/docs/jp/moderu/tutorials/deepseek-r1-how-to-run-locally.md): llama.cpp を使って DeepSeek-R1 用の 1.58-bit Dynamic Quants を実行する方法のガイド。
- [DeepSeek-R1 Dynamic 1.58-bit](/docs/jp/moderu/tutorials/deepseek-r1-how-to-run-locally/deepseek-r1-dynamic-1.58-bit.md): Unsloth の Dynamic GGUF Quants と標準の IMatrix Quants の性能比較表をご覧ください。
- [Phi-4 Reasoning: 実行とファインチューニングの方法](/docs/jp/moderu/tutorials/phi-4-reasoning-how-to-run-and-fine-tune.md): Unsloth と独自の Dynamic 2.0 quants を使って Phi-4 推論モデルをローカルで実行・ファインチューニングする方法を学びましょう
- [QwQ-32B: 効果的な実行方法](/docs/jp/moderu/tutorials/qwq-32b-how-to-run-effectively.md): バグ修正と無限生成の回避、さらに GGUF を使って QwQ-32B を効果的に実行する方法。
