# モデル

- [Gemma 4 - ローカルで実行する方法](https://unsloth.ai/docs/jp/moderu/gemma-4.md): E2B、E4B、26B A4B、31B を含む Google の新しい Gemma 4 モデルをローカルで実行しましょう。
- [Gemma 4 ファインチューニングガイド](https://unsloth.ai/docs/jp/moderu/gemma-4/train.md): Google の Gemma 4 を Unsloth で学習しましょう。
- [Qwen3.5 - ローカルで実行する方法](https://unsloth.ai/docs/jp/moderu/qwen3.5.md): Medium の Qwen3.5-35B-A3B、27B、122B-A10B、Small の Qwen3.5-0.8B、2B、4B、9B、397B-A17B を含む新しい Qwen3.5 LLM を自分のローカルデバイスで実行しましょう！
- [Qwen3.5 ファインチューニングガイド](https://unsloth.ai/docs/jp/moderu/qwen3.5/fine-tune.md): Unsloth を使って Qwen3.5 LLM をファインチューニングする方法を学びましょう。
- [Qwen3.5 GGUF ベンチマーク](https://unsloth.ai/docs/jp/moderu/qwen3.5/gguf-benchmarks.md): Unsloth の Dynamic GGUF の性能と、perplexity、KL divergence、MXFP4 の分析をご覧ください。
- [GLM-5.1 - ローカルで実行する方法](https://unsloth.ai/docs/jp/moderu/glm-5.1.md): Z.ai の新しい GLM-5.1 モデルを自分のローカルデバイスで実行しましょう！
- [MiniMax-M2.7 - ローカルで実行する方法](https://unsloth.ai/docs/jp/moderu/minimax-m27.md): MiniMax-M2.7 LLM を自分のデバイスでローカル実行しましょう！
- [NVIDIA Nemotron 3 Nano - 実行方法ガイド](https://unsloth.ai/docs/jp/moderu/nemotron-3.md): NVIDIA Nemotron 3 Nano を自分のデバイスでローカル実行・ファインチューニングしましょう！
- [NVIDIA Nemotron-3-Super: 実行方法ガイド](https://unsloth.ai/docs/jp/moderu/nemotron-3/nemotron-3-super.md): NVIDIA Nemotron-3-Super-120B-A12B を自分のデバイスでローカル実行・ファインチューニングしましょう！
- [Qwen3-Coder-Next: ローカルで実行する方法](https://unsloth.ai/docs/jp/moderu/qwen3-coder-next.md): Qwen3-Coder-Next を自分のデバイスでローカル実行するためのガイド！
- [GLM-4.7-Flash: ローカルで実行する方法](https://unsloth.ai/docs/jp/moderu/glm-4.7-flash.md): GLM-4.7-Flash を自分のデバイスでローカル実行・ファインチューニングしましょう！
- [Kimi K2.5: ローカル実行ガイド](https://unsloth.ai/docs/jp/moderu/kimi-k2.5.md): Kimi-K2.5 を自分のローカルデバイスで実行するためのガイド！
- [gpt-oss: 実行方法ガイド](https://unsloth.ai/docs/jp/moderu/gpt-oss-how-to-run-and-fine-tune.md): OpenAI の新しいオープンソースモデルを実行・ファインチューニングしましょう！
- [gpt-oss 強化学習](https://unsloth.ai/docs/jp/moderu/gpt-oss-how-to-run-and-fine-tune/gpt-oss-reinforcement-learning.md)
- [チュートリアル：RL で gpt-oss を学習する方法](https://unsloth.ai/docs/jp/moderu/gpt-oss-how-to-run-and-fine-tune/gpt-oss-reinforcement-learning/tutorial-how-to-train-gpt-oss-with-rl.md): GRPO を使って OpenAI gpt-oss を学習し、ローカルまたは Colab 上で 2048 に自律的に勝つ方法を学びましょう。
- [チュートリアル：gpt-oss のファインチューニング方法](https://unsloth.ai/docs/jp/moderu/gpt-oss-how-to-run-and-fine-tune/tutorial-how-to-fine-tune-gpt-oss.md): Unsloth を使って OpenAI gpt-oss をローカルで学習する方法をステップバイステップで学びましょう。
- [長文コンテキストの gpt-oss 学習](https://unsloth.ai/docs/jp/moderu/gpt-oss-how-to-run-and-fine-tune/long-context-gpt-oss-training.md)
- [大規模言語モデル（LLM）チュートリアル](https://unsloth.ai/docs/jp/moderu/tutorials.md): 最新の LLM を発見し、Unsloth を使って最適な性能を得るためにモデルをローカルで実行・ファインチューニングする方法を学びましょう。
- [GLM-5: ローカルで実行する方法ガイド](https://unsloth.ai/docs/jp/moderu/tutorials/glm-5.md): Z.ai の新しい GLM-5 モデルを自分のローカルデバイスで実行しましょう！
- [Qwen3 - 実行とファインチューニングの方法](https://unsloth.ai/docs/jp/moderu/tutorials/qwen3-how-to-run-and-fine-tune.md): Unsloth と独自の Dynamic 2.0 quants を使って、Qwen3 をローカルで実行・ファインチューニングする方法を学びましょう
- [Qwen3-VL: 実行方法ガイド](https://unsloth.ai/docs/jp/moderu/tutorials/qwen3-how-to-run-and-fine-tune/qwen3-vl-how-to-run-and-fine-tune.md): Unsloth を使って Qwen3-VL をローカルでファインチューニングし、実行する方法を学びましょう。
- [Qwen3-2507: ローカル実行ガイド](https://unsloth.ai/docs/jp/moderu/tutorials/qwen3-how-to-run-and-fine-tune/qwen3-2507.md): Qwen3-30B-A3B-2507 と 235B-A22B の Thinking 版と Instruct 版を自分のデバイスでローカル実行しましょう！
- [MiniMax-M2.5: 実行方法ガイド](https://unsloth.ai/docs/jp/moderu/tutorials/minimax-m25.md): MiniMax-M2.5 を自分のデバイスでローカル実行しましょう！
- [Qwen3-Coder: ローカルで実行する方法](https://unsloth.ai/docs/jp/moderu/tutorials/qwen3-coder-how-to-run-locally.md): Unsloth Dynamic quants を使って Qwen3-Coder-30B-A3B-Instruct と 480B-A35B をローカルで実行しましょう。
- [Gemma 3 - 実行方法ガイド](https://unsloth.ai/docs/jp/moderu/tutorials/gemma-3-how-to-run-and-fine-tune.md): llama.cpp、Ollama、Open WebUI で GGUF を使って Gemma 3 を効果的に実行する方法と、Unsloth でファインチューニングする方法を学びましょう！
- [Gemma 3n: 実行とファインチューニングの方法](https://unsloth.ai/docs/jp/moderu/tutorials/gemma-3-how-to-run-and-fine-tune/gemma-3n-how-to-run-and-fine-tune.md): Google の新しい Gemma 3n を Dynamic GGUF で llama.cpp、Ollama、Open WebUI 上でローカル実行し、Unsloth でファインチューニングしましょう！
- [DeepSeek-OCR 2: 実行とファインチューニングの方法ガイド](https://unsloth.ai/docs/jp/moderu/tutorials/deepseek-ocr-2.md): DeepSeek-OCR-2 をローカルで実行・ファインチューニングする方法のガイド。
- [GLM-4.7: ローカルで実行する方法ガイド](https://unsloth.ai/docs/jp/moderu/tutorials/glm-4.7.md): Z.ai の GLM-4.7 モデルを自分のローカルデバイスで実行する方法のガイド！
- [ComfyUI で Qwen-Image-2512 をローカル実行する方法](https://unsloth.ai/docs/jp/moderu/tutorials/qwen-image-2512.md): ComfyUI を使って Qwen-Image-2512 を自分のローカルデバイスで実行するためのステップバイステップチュートリアル。
- [stable-diffusion.cpp で Qwen-Image-2512 を実行するチュートリアル](https://unsloth.ai/docs/jp/moderu/tutorials/qwen-image-2512/stable-diffusion.cpp.md): stable-diffusion.cpp で Qwen-Image-2512 を使うためのチュートリアル。
- [Devstral 2 - 実行方法ガイド](https://unsloth.ai/docs/jp/moderu/tutorials/devstral-2.md): Mistral Devstral 2 モデル（123B-Instruct-2512 と Small-2-24B-Instruct-2512）のローカル実行ガイド。
- [Ministral 3 - 実行方法ガイド](https://unsloth.ai/docs/jp/moderu/tutorials/ministral-3.md): Mistral Ministral 3 モデルを、自分のデバイスでローカル実行またはファインチューニングするためのガイド
- [DeepSeek-OCR: 実行とファインチューニングの方法](https://unsloth.ai/docs/jp/moderu/tutorials/deepseek-ocr-how-to-run-and-fine-tune.md): DeepSeek-OCR をローカルで実行・ファインチューニングする方法のガイド。
- [Kimi K2 Thinking: ローカル実行ガイド](https://unsloth.ai/docs/jp/moderu/tutorials/kimi-k2-thinking-how-to-run-locally.md): Kimi-K2-Thinking と Kimi-K2 を自分のローカルデバイスで実行するためのガイド！
- [GLM-4.6: ローカル実行ガイド](https://unsloth.ai/docs/jp/moderu/tutorials/glm-4.6-how-to-run-locally.md): Z.ai の GLM-4.6 および GLM-4.6V-Flash モデルを自分のローカルデバイスで実行する方法のガイド！
- [Qwen3-Next: ローカル実行ガイド](https://unsloth.ai/docs/jp/moderu/tutorials/qwen3-next.md): Qwen3-Next-80B-A3B-Instruct と Thinking 版を自分のデバイスでローカル実行しましょう！
- [FunctionGemma: 実行とファインチューニングの方法](https://unsloth.ai/docs/jp/moderu/tutorials/functiongemma.md): FunctionGemma を自分のデバイスやスマートフォンでローカル実行・ファインチューニングする方法を学びましょう。
- [DeepSeek-V3.1: ローカルで実行する方法](https://unsloth.ai/docs/jp/moderu/tutorials/deepseek-v3.1-how-to-run-locally.md): DeepSeek-V3.1 と Terminus を自分のローカルデバイスで実行する方法のガイド！
- [DeepSeek-R1-0528: ローカルで実行する方法](https://unsloth.ai/docs/jp/moderu/tutorials/deepseek-r1-0528-how-to-run-locally.md): Qwen3 を含む DeepSeek-R1-0528 を自分のローカルデバイスで実行する方法のガイド！
- [Liquid LFM2.5: 実行とファインチューニングの方法](https://unsloth.ai/docs/jp/moderu/tutorials/lfm2.5.md): LFM2.5 Instruct と Vision を自分のデバイスでローカル実行・ファインチューニングしましょう！
- [Magistral: 実行とファインチューニングの方法](https://unsloth.ai/docs/jp/moderu/tutorials/magistral-how-to-run-and-fine-tune.md): Magistral を紹介します - Mistral の新しい推論モデルです。
- [IBM Granite 4.0](https://unsloth.ai/docs/jp/moderu/tutorials/ibm-granite-4.0.md): Unsloth GGUF を使って llama.cpp、Ollama で IBM Granite-4.0 を実行する方法と、ファインチューニングする方法！
- [Llama 4: 実行とファインチューニングの方法](https://unsloth.ai/docs/jp/moderu/tutorials/llama-4-how-to-run-and-fine-tune.md): 標準的な量子化と比べて精度を回復できる動的 GGUF を使って、Llama 4 をローカルで実行する方法。
- [Grok 2](https://unsloth.ai/docs/jp/moderu/tutorials/grok-2.md): xAI の Grok 2 モデルをローカルで実行しましょう！
- [Devstral: 実行とファインチューニングの方法](https://unsloth.ai/docs/jp/moderu/tutorials/devstral-how-to-run-and-fine-tune.md): Small-2507 と 2505 を含む Mistral Devstral 1.1 を実行・ファインチューニングしましょう。
- [Docker でローカル LLM を実行する方法：ステップバイステップガイド](https://unsloth.ai/docs/jp/moderu/tutorials/how-to-run-llms-with-docker.md): Docker と Unsloth を使って、ローカルデバイスで大規模言語モデル（LLM）を実行する方法を学びましょう。
- [DeepSeek-V3-0324: ローカルで実行する方法](https://unsloth.ai/docs/jp/moderu/tutorials/deepseek-v3-0324-how-to-run-locally.md): 精度を回復する動的 quants を使って DeepSeek-V3-0324 をローカルで実行する方法
- [DeepSeek-R1: ローカルで実行する方法](https://unsloth.ai/docs/jp/moderu/tutorials/deepseek-r1-how-to-run-locally.md): llama.cpp を使って DeepSeek-R1 用の 1.58-bit Dynamic Quants を実行する方法のガイド。
- [DeepSeek-R1 Dynamic 1.58-bit](https://unsloth.ai/docs/jp/moderu/tutorials/deepseek-r1-how-to-run-locally/deepseek-r1-dynamic-1.58-bit.md): Unsloth の Dynamic GGUF Quants と標準の IMatrix Quants の性能比較表をご覧ください。
- [Phi-4 Reasoning: 実行とファインチューニングの方法](https://unsloth.ai/docs/jp/moderu/tutorials/phi-4-reasoning-how-to-run-and-fine-tune.md): Unsloth と独自の Dynamic 2.0 quants を使って Phi-4 推論モデルをローカルで実行・ファインチューニングする方法を学びましょう
- [QwQ-32B: 効果的な実行方法](https://unsloth.ai/docs/jp/moderu/tutorials/qwq-32b-how-to-run-effectively.md): バグ修正と無限生成の回避、さらに GGUF を使って QwQ-32B を効果的に実行する方法。


---

# Agent Instructions: Querying This Documentation

If you need additional information that is not directly available in this page, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on the current page URL with the `ask` query parameter:

```
GET https://unsloth.ai/docs/jp/moderu.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
