# 模型

- [Gemma 4 - 如何在本地运行](/docs/zh/mo-xing/gemma-4.md): 在本地运行 Google 的新 Gemma 4 模型，包括 E2B、E4B、26B A4B 和 31B。
- [Gemma 4 微调指南](/docs/zh/mo-xing/gemma-4/train.md): 使用 Unsloth 训练 Google 的 Gemma 4。
- [Qwen3.5 - 如何在本地运行](/docs/zh/mo-xing/qwen3.5.md): 在你的本地设备上运行新的 Qwen3.5 LLM，包括中型：Qwen3.5-35B-A3B、27B、122B-A10B，小型：Qwen3.5-0.8B、2B、4B、9B 和 397B-A17B！
- [Qwen3.5 微调指南](/docs/zh/mo-xing/qwen3.5/fine-tune.md): 了解如何使用 Unsloth 微调 Qwen3.5 LLM。
- [Qwen3.5 GGUF 基准测试](/docs/zh/mo-xing/qwen3.5/gguf-benchmarks.md): 查看 Unsloth 动态 GGUF 的表现 + 对困惑度、KL 散度和 MXFP4 的分析。
- [NVIDIA Nemotron 3 Nano - 运行指南](/docs/zh/mo-xing/nemotron-3.md): 在你的设备上本地运行并微调 NVIDIA Nemotron 3 Nano！
- [NVIDIA Nemotron-3-Super：运行指南](/docs/zh/mo-xing/nemotron-3/nemotron-3-super.md): 在你的设备上本地运行并微调 NVIDIA Nemotron-3-Super-120B-A12B！
- [Qwen3-Coder-Next：如何在本地运行](/docs/zh/mo-xing/qwen3-coder-next.md): 在你的设备上本地运行 Qwen3-Coder-Next 的指南！
- [GLM-4.7-Flash：如何在本地运行](/docs/zh/mo-xing/glm-4.7-flash.md): 在你的设备上本地运行并微调 GLM-4.7-Flash！
- [MiniMax-M2.5：运行指南](/docs/zh/mo-xing/minimax-m25.md): 在你自己的设备上本地运行 MiniMax-M2.5！
- [Kimi K2.5：本地运行指南](/docs/zh/mo-xing/kimi-k2.5.md): 在你自己的本地设备上运行 Kimi-K2.5 的指南！
- [gpt-oss：运行指南](/docs/zh/mo-xing/gpt-oss-how-to-run-and-fine-tune.md): 运行并微调 OpenAI 的新开源模型！
- [gpt-oss 强化学习](/docs/zh/mo-xing/gpt-oss-how-to-run-and-fine-tune/gpt-oss-reinforcement-learning.md)
- [教程：如何使用 RL 训练 gpt-oss](/docs/zh/mo-xing/gpt-oss-how-to-run-and-fine-tune/gpt-oss-reinforcement-learning/tutorial-how-to-train-gpt-oss-with-rl.md): 学习使用 GRPO 训练 OpenAI gpt-oss，在本地或 Colab 上自动击败 2048。
- [教程：如何微调 gpt-oss](/docs/zh/mo-xing/gpt-oss-how-to-run-and-fine-tune/tutorial-how-to-fine-tune-gpt-oss.md): 逐步学习如何使用 Unsloth 在本地训练 OpenAI gpt-oss。
- [长上下文 gpt-oss 训练](/docs/zh/mo-xing/gpt-oss-how-to-run-and-fine-tune/long-context-gpt-oss-training.md)
- [大型语言模型（LLM）教程](/docs/zh/mo-xing/tutorials.md): 了解最新的 LLM，并学习如何在本地运行和微调模型，以借助 Unsloth 获得最佳性能。
- [GLM-5：如何在本地运行指南](/docs/zh/mo-xing/tutorials/glm-5.md): 在你自己的本地设备上运行 Z.ai 的新 GLM-5 模型！
- [Qwen3 - 如何运行与微调](/docs/zh/mo-xing/tutorials/qwen3-how-to-run-and-fine-tune.md): 学习使用 Unsloth + 我们的 Dynamic 2.0 量化版本在本地运行和微调 Qwen3
- [Qwen3-VL：运行指南](/docs/zh/mo-xing/tutorials/qwen3-how-to-run-and-fine-tune/qwen3-vl-how-to-run-and-fine-tune.md): 了解如何使用 Unsloth 在本地微调和运行 Qwen3-VL。
- [Qwen3-2507：本地运行指南](/docs/zh/mo-xing/tutorials/qwen3-how-to-run-and-fine-tune/qwen3-2507.md): 在你的设备上本地运行 Qwen3-30B-A3B-2507 和 235B-A22B 的 Thinking 与 Instruct 版本！
- [Qwen3-Coder：如何在本地运行](/docs/zh/mo-xing/tutorials/qwen3-coder-how-to-run-locally.md): 使用 Unsloth Dynamic 量化版本在本地运行 Qwen3-Coder-30B-A3B-Instruct 和 480B-A35B。
- [Gemma 3 - 运行指南](/docs/zh/mo-xing/tutorials/gemma-3-how-to-run-and-fine-tune.md): 如何在 llama.cpp、Ollama、Open WebUI 上使用我们的 GGUF 高效运行 Gemma 3，以及如何使用 Unsloth 进行微调！
- [Gemma 3n：如何运行与微调](/docs/zh/mo-xing/tutorials/gemma-3-how-to-run-and-fine-tune/gemma-3n-how-to-run-and-fine-tune.md): 在 llama.cpp、Ollama、Open WebUI 上使用 Dynamic GGUF 在本地运行 Google 的新 Gemma 3n，并使用 Unsloth 进行微调！
- [DeepSeek-OCR 2：如何运行与微调指南](/docs/zh/mo-xing/tutorials/deepseek-ocr-2.md): 关于如何在本地运行和微调 DeepSeek-OCR-2 的指南。
- [GLM-4.7：如何在本地运行指南](/docs/zh/mo-xing/tutorials/glm-4.7.md): 关于如何在你自己的本地设备上运行 Z.ai GLM-4.7 模型的指南！
- [如何在 ComfyUI 中本地运行 Qwen-Image-2512](/docs/zh/mo-xing/tutorials/qwen-image-2512.md): 在你的本地设备上使用 ComfyUI 运行 Qwen-Image-2512 的分步教程。
- [在 stable-diffusion.cpp 中运行 Qwen-Image-2512 教程](/docs/zh/mo-xing/tutorials/qwen-image-2512/stable-diffusion.cpp.md): 关于在 stable-diffusion.cpp 中使用 Qwen-Image-2512 的教程。
- [Devstral 2 - 运行指南](/docs/zh/mo-xing/tutorials/devstral-2.md): 用于本地运行 Mistral Devstral 2 模型的指南：123B-Instruct-2512 和 Small-2-24B-Instruct-2512。
- [Ministral 3 - 运行指南](/docs/zh/mo-xing/tutorials/ministral-3.md): 用于 Mistral Ministral 3 模型的指南，可在你的设备上本地运行或微调
- [DeepSeek-OCR：如何运行与微调](/docs/zh/mo-xing/tutorials/deepseek-ocr-how-to-run-and-fine-tune.md): 关于如何在本地运行和微调 DeepSeek-OCR 的指南。
- [Kimi K2 Thinking：本地运行指南](/docs/zh/mo-xing/tutorials/kimi-k2-thinking-how-to-run-locally.md): 在你自己的本地设备上运行 Kimi-K2-Thinking 和 Kimi-K2 的指南！
- [GLM-4.6：本地运行指南](/docs/zh/mo-xing/tutorials/glm-4.6-how-to-run-locally.md): 关于如何在你自己的本地设备上运行 Z.ai GLM-4.6 和 GLM-4.6V-Flash 模型的指南！
- [Qwen3-Next：本地运行指南](/docs/zh/mo-xing/tutorials/qwen3-next.md): 在你的设备上本地运行 Qwen3-Next-80B-A3B-Instruct 和 Thinking 版本！
- [FunctionGemma：如何运行与微调](/docs/zh/mo-xing/tutorials/functiongemma.md): 了解如何在你的设备和手机上本地运行和微调 FunctionGemma。
- [DeepSeek-V3.1：如何在本地运行](/docs/zh/mo-xing/tutorials/deepseek-v3.1-how-to-run-locally.md): 关于如何在你自己的本地设备上运行 DeepSeek-V3.1 和 Terminus 的指南！
- [DeepSeek-R1-0528：如何在本地运行](/docs/zh/mo-xing/tutorials/deepseek-r1-0528-how-to-run-locally.md): 关于如何在你自己的本地设备上运行 DeepSeek-R1-0528（包括 Qwen3）的指南！
- [Liquid LFM2.5：如何运行与微调](/docs/zh/mo-xing/tutorials/lfm2.5.md): 在你的设备上本地运行和微调 LFM2.5 Instruct 和 Vision！
- [Magistral：如何运行与微调](/docs/zh/mo-xing/tutorials/magistral-how-to-run-and-fine-tune.md): 认识 Magistral——Mistral 的新推理模型。
- [IBM Granite 4.0](/docs/zh/mo-xing/tutorials/ibm-granite-4.0.md): 如何使用 Unsloth GGUF 在 llama.cpp、Ollama 上运行 IBM Granite-4.0，以及如何进行微调！
- [Llama 4：如何运行与微调](/docs/zh/mo-xing/tutorials/llama-4-how-to-run-and-fine-tune.md): 如何使用我们的动态 GGUF 在本地运行 Llama 4，相比标准量化可恢复准确度。
- [Grok 2](/docs/zh/mo-xing/tutorials/grok-2.md): 在本地运行 xAI 的 Grok 2 模型！
- [Devstral：如何运行与微调](/docs/zh/mo-xing/tutorials/devstral-how-to-run-and-fine-tune.md): 运行并微调 Mistral Devstral 1.1，包括 Small-2507 和 2505。
- [如何使用 Docker 运行本地 LLM：分步指南](/docs/zh/mo-xing/tutorials/how-to-run-llms-with-docker.md): 了解如何使用 Docker 和 Unsloth 在你的本地设备上运行大型语言模型（LLM）。
- [DeepSeek-V3-0324：如何在本地运行](/docs/zh/mo-xing/tutorials/deepseek-v3-0324-how-to-run-locally.md): 如何使用我们的动态量化版本在本地运行 DeepSeek-V3-0324，并恢复准确度
- [DeepSeek-R1：如何在本地运行](/docs/zh/mo-xing/tutorials/deepseek-r1-how-to-run-locally.md): 关于如何使用 llama.cpp 运行我们为 DeepSeek-R1 提供的 1.58-bit 动态量化版本的指南。
- [DeepSeek-R1 动态 1.58-bit](/docs/zh/mo-xing/tutorials/deepseek-r1-how-to-run-locally/deepseek-r1-dynamic-1.58-bit.md): 查看 Unsloth 动态 GGUF 量化版本与标准 IMatrix 量化版本的性能对比表。
- [Phi-4 Reasoning：如何运行与微调](/docs/zh/mo-xing/tutorials/phi-4-reasoning-how-to-run-and-fine-tune.md): 了解如何使用 Unsloth + 我们的 Dynamic 2.0 量化版本在本地运行和微调 Phi-4 推理模型
- [QwQ-32B：如何高效运行](/docs/zh/mo-xing/tutorials/qwq-32b-how-to-run-effectively.md): 如何使用我们的错误修复版本并避免无限生成 + GGUF，高效运行 QwQ-32B。
