# 模型

- [Qwen3.6 - 如何本地运行](https://unsloth.ai/docs/zh/mo-xing/qwen3.6.md): 本地运行全新的 Qwen3.6-35-A3B 模型！
- [Gemma 4 - 如何本地运行](https://unsloth.ai/docs/zh/mo-xing/gemma-4.md): 本地运行 Google 全新的 Gemma 4 模型，包括 E2B、E4B、26B A4B 和 31B。
- [Gemma 4 微调指南](https://unsloth.ai/docs/zh/mo-xing/gemma-4/train.md): 使用 Unsloth 训练 Google 的 Gemma 4。
- [Qwen3.5 - 如何本地运行](https://unsloth.ai/docs/zh/mo-xing/qwen3.5.md): 在你的本地设备上运行全新的 Qwen3.5 LLM，包括中型：Qwen3.5-35B-A3B、27B、122B-A10B，小型：Qwen3.5-0.8B、2B、4B、9B 和 397B-A17B！
- [Qwen3.5 微调指南](https://unsloth.ai/docs/zh/mo-xing/qwen3.5/fine-tune.md): 了解如何使用 Unsloth 微调 Qwen3.5 LLM。
- [Qwen3.5 GGUF 基准测试](https://unsloth.ai/docs/zh/mo-xing/qwen3.5/gguf-benchmarks.md): 查看 Unsloth Dynamic GGUF 的性能，以及困惑度、KL 散度和 MXFP4 的分析。
- [GLM-5.1 - 如何本地运行](https://unsloth.ai/docs/zh/mo-xing/glm-5.1.md): 在你自己的本地设备上运行 Z.ai 的全新 GLM-5.1 模型！
- [MiniMax-M2.7 - 如何本地运行](https://unsloth.ai/docs/zh/mo-xing/minimax-m27.md): 在你自己的设备上本地运行 MiniMax-M2.7 LLM！
- [NVIDIA Nemotron 3 Nano - 运行指南](https://unsloth.ai/docs/zh/mo-xing/nemotron-3.md): 在你的设备上本地运行并微调 NVIDIA Nemotron 3 Nano！
- [NVIDIA Nemotron-3-Super：运行指南](https://unsloth.ai/docs/zh/mo-xing/nemotron-3/nemotron-3-super.md): 在你的设备上本地运行并微调 NVIDIA Nemotron-3-Super-120B-A12B！
- [Qwen3-Coder-Next：如何本地运行](https://unsloth.ai/docs/zh/mo-xing/qwen3-coder-next.md): 在你的设备上本地运行 Qwen3-Coder-Next 指南！
- [GLM-4.7-Flash：如何本地运行](https://unsloth.ai/docs/zh/mo-xing/glm-4.7-flash.md): 在你的设备上本地运行并微调 GLM-4.7-Flash！
- [Kimi K2.5：如何本地运行指南](https://unsloth.ai/docs/zh/mo-xing/kimi-k2.5.md): 在你自己的本地设备上运行 Kimi-K2.5 的指南！
- [gpt-oss：运行指南](https://unsloth.ai/docs/zh/mo-xing/gpt-oss-how-to-run-and-fine-tune.md): 运行并微调 OpenAI 全新的开源模型！
- [gpt-oss 强化学习](https://unsloth.ai/docs/zh/mo-xing/gpt-oss-how-to-run-and-fine-tune/gpt-oss-reinforcement-learning.md)
- [教程：如何使用 RL 训练 gpt-oss](https://unsloth.ai/docs/zh/mo-xing/gpt-oss-how-to-run-and-fine-tune/gpt-oss-reinforcement-learning/tutorial-how-to-train-gpt-oss-with-rl.md): 了解如何使用 GRPO 训练 OpenAI gpt-oss，以便在本地或 Colab 上自动击败 2048。
- [教程：如何微调 gpt-oss](https://unsloth.ai/docs/zh/mo-xing/gpt-oss-how-to-run-and-fine-tune/tutorial-how-to-fine-tune-gpt-oss.md): 一步步学习如何使用 Unsloth 在本地训练 OpenAI gpt-oss。
- [长上下文 gpt-oss 训练](https://unsloth.ai/docs/zh/mo-xing/gpt-oss-how-to-run-and-fine-tune/long-context-gpt-oss-training.md)
- [大型语言模型（LLM）教程](https://unsloth.ai/docs/zh/mo-xing/tutorials.md): 探索最新的 LLM，并了解如何使用 Unsloth 在本地运行和微调模型，以获得最佳性能。
- [GLM-5：如何本地运行指南](https://unsloth.ai/docs/zh/mo-xing/tutorials/glm-5.md): 在你自己的本地设备上运行 Z.ai 的全新 GLM-5 模型！
- [Qwen3 - 如何运行与微调](https://unsloth.ai/docs/zh/mo-xing/tutorials/qwen3-how-to-run-and-fine-tune.md): 学习如何使用 Unsloth + 我们的 Dynamic 2.0 量化，在本地运行和微调 Qwen3
- [Qwen3-VL：运行指南](https://unsloth.ai/docs/zh/mo-xing/tutorials/qwen3-how-to-run-and-fine-tune/qwen3-vl-how-to-run-and-fine-tune.md): 了解如何使用 Unsloth 在本地微调和运行 Qwen3-VL。
- [Qwen3-2507：本地运行指南](https://unsloth.ai/docs/zh/mo-xing/tutorials/qwen3-how-to-run-and-fine-tune/qwen3-2507.md): 在你的设备上本地运行 Qwen3-30B-A3B-2507 和 235B-A22B Thinking 及 Instruct 版本！
- [MiniMax-M2.5：运行指南](https://unsloth.ai/docs/zh/mo-xing/tutorials/minimax-m25.md): 在你自己的设备上本地运行 MiniMax-M2.5！
- [Qwen3-Coder：如何本地运行](https://unsloth.ai/docs/zh/mo-xing/tutorials/qwen3-coder-how-to-run-locally.md): 使用 Unsloth Dynamic 量化，在本地运行 Qwen3-Coder-30B-A3B-Instruct 和 480B-A35B。
- [Gemma 3 - 运行指南](https://unsloth.ai/docs/zh/mo-xing/tutorials/gemma-3-how-to-run-and-fine-tune.md): 了解如何使用我们的 GGUF 在 llama.cpp、Ollama、Open WebUI 上有效运行 Gemma 3，以及如何使用 Unsloth 进行微调！
- [Gemma 3n：如何运行与微调](https://unsloth.ai/docs/zh/mo-xing/tutorials/gemma-3-how-to-run-and-fine-tune/gemma-3n-how-to-run-and-fine-tune.md): 使用 Dynamic GGUF 在 llama.cpp、Ollama、Open WebUI 上本地运行 Google 的全新 Gemma 3n，并使用 Unsloth 进行微调！
- [DeepSeek-OCR 2：运行与微调指南](https://unsloth.ai/docs/zh/mo-xing/tutorials/deepseek-ocr-2.md): 关于如何在本地运行和微调 DeepSeek-OCR-2 的指南。
- [GLM-4.7：如何本地运行指南](https://unsloth.ai/docs/zh/mo-xing/tutorials/glm-4.7.md): 关于如何在你自己的本地设备上运行 Z.ai GLM-4.7 模型的指南！
- [如何在 ComfyUI 中本地运行 Qwen-Image-2512](https://unsloth.ai/docs/zh/mo-xing/tutorials/qwen-image-2512.md): 在你的本地设备上使用 ComfyUI 运行 Qwen-Image-2512 的分步教程。
- [在 stable-diffusion.cpp 中运行 Qwen-Image-2512 教程](https://unsloth.ai/docs/zh/mo-xing/tutorials/qwen-image-2512/stable-diffusion.cpp.md): 在 stable-diffusion.cpp 中使用 Qwen-Image-2512 的教程。
- [Devstral 2 - 运行指南](https://unsloth.ai/docs/zh/mo-xing/tutorials/devstral-2.md): Mistral Devstral 2 模型本地运行指南：123B-Instruct-2512 和 Small-2-24B-Instruct-2512。
- [Ministral 3 - 运行指南](https://unsloth.ai/docs/zh/mo-xing/tutorials/ministral-3.md): Mistral Ministral 3 模型指南，可在你的设备上本地运行或微调
- [DeepSeek-OCR：如何运行与微调](https://unsloth.ai/docs/zh/mo-xing/tutorials/deepseek-ocr-how-to-run-and-fine-tune.md): 关于如何在本地运行和微调 DeepSeek-OCR 的指南。
- [Kimi K2 Thinking：本地运行指南](https://unsloth.ai/docs/zh/mo-xing/tutorials/kimi-k2-thinking-how-to-run-locally.md): 在你自己的本地设备上运行 Kimi-K2-Thinking 和 Kimi-K2 的指南！
- [GLM-4.6：本地运行指南](https://unsloth.ai/docs/zh/mo-xing/tutorials/glm-4.6-how-to-run-locally.md): 关于如何在你自己的本地设备上运行 Z.ai GLM-4.6 和 GLM-4.6V-Flash 模型的指南！
- [Qwen3-Next：本地运行指南](https://unsloth.ai/docs/zh/mo-xing/tutorials/qwen3-next.md): 在你的设备上本地运行 Qwen3-Next-80B-A3B-Instruct 和 Thinking 版本！
- [FunctionGemma：如何运行与微调](https://unsloth.ai/docs/zh/mo-xing/tutorials/functiongemma.md): 了解如何在你的设备和手机上本地运行和微调 FunctionGemma。
- [DeepSeek-V3.1：如何本地运行](https://unsloth.ai/docs/zh/mo-xing/tutorials/deepseek-v3.1-how-to-run-locally.md): 关于如何在你自己的本地设备上运行 DeepSeek-V3.1 和 Terminus 的指南！
- [DeepSeek-R1-0528：如何本地运行](https://unsloth.ai/docs/zh/mo-xing/tutorials/deepseek-r1-0528-how-to-run-locally.md): 关于如何在你自己的本地设备上运行 DeepSeek-R1-0528（包括 Qwen3）的指南！
- [Liquid LFM2.5：如何运行与微调](https://unsloth.ai/docs/zh/mo-xing/tutorials/lfm2.5.md): 在你的设备上本地运行和微调 LFM2.5 Instruct 与 Vision！
- [Magistral：如何运行与微调](https://unsloth.ai/docs/zh/mo-xing/tutorials/magistral-how-to-run-and-fine-tune.md): 认识 Magistral——Mistral 的全新推理模型。
- [IBM Granite 4.0](https://unsloth.ai/docs/zh/mo-xing/tutorials/ibm-granite-4.0.md): 了解如何使用 Unsloth GGUF 在 llama.cpp、Ollama 上运行 IBM Granite-4.0，以及如何进行微调！
- [Llama 4：如何运行与微调](https://unsloth.ai/docs/zh/mo-xing/tutorials/llama-4-how-to-run-and-fine-tune.md): 了解如何使用我们的动态 GGUF 在本地运行 Llama 4，与标准量化相比可恢复准确率。
- [Grok 2](https://unsloth.ai/docs/zh/mo-xing/tutorials/grok-2.md): 在本地运行 xAI 的 Grok 2 模型！
- [Devstral：如何运行与微调](https://unsloth.ai/docs/zh/mo-xing/tutorials/devstral-how-to-run-and-fine-tune.md): 运行并微调 Mistral Devstral 1.1，包括 Small-2507 和 2505。
- [如何使用 Docker 运行本地 LLM：分步指南](https://unsloth.ai/docs/zh/mo-xing/tutorials/how-to-run-llms-with-docker.md): 了解如何使用 Docker 和 Unsloth 在你的本地设备上运行大型语言模型（LLM）。
- [DeepSeek-V3-0324：如何本地运行](https://unsloth.ai/docs/zh/mo-xing/tutorials/deepseek-v3-0324-how-to-run-locally.md): 如何使用我们的动态量化在本地运行 DeepSeek-V3-0324，并恢复准确率
- [DeepSeek-R1：如何本地运行](https://unsloth.ai/docs/zh/mo-xing/tutorials/deepseek-r1-how-to-run-locally.md): 关于如何使用 llama.cpp 运行我们针对 DeepSeek-R1 的 1.58-bit 动态量化的指南。
- [DeepSeek-R1 动态 1.58-bit](https://unsloth.ai/docs/zh/mo-xing/tutorials/deepseek-r1-how-to-run-locally/deepseek-r1-dynamic-1.58-bit.md): 查看 Unsloth 的 Dynamic GGUF 量化与标准 IMatrix 量化的性能对比表。
- [Phi-4 Reasoning：如何运行与微调](https://unsloth.ai/docs/zh/mo-xing/tutorials/phi-4-reasoning-how-to-run-and-fine-tune.md): 了解如何使用 Unsloth + 我们的 Dynamic 2.0 量化在本地运行和微调 Phi-4 推理模型
- [QwQ-32B：如何高效运行](https://unsloth.ai/docs/zh/mo-xing/tutorials/qwq-32b-how-to-run-effectively.md): 了解如何使用我们的错误修复并避免无尽生成来高效运行 QwQ-32B，以及 GGUF。


---

# Agent Instructions: Querying This Documentation

If you need additional information that is not directly available in this page, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on the current page URL with the `ask` query parameter:

```
GET https://unsloth.ai/docs/zh/mo-xing.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
