🐱Ministral 3 - 如何运行指南

Mistral Ministral 3 模型的指南,如何在您的设备上本地运行或微调

Mistral 发布了 Ministral 3,他们的新多模态模型,提供 Base、Instruct 和 Reasoning 变体,可用于 3B, 8B,和 14B 尺寸。它们在同等规模中表现出色,并针对指令和聊天使用场景进行了微调。多模态模型支持 256K 上下文 窗口、多种语言、原生函数调用和 JSON 输出。

未量化的完整 14B Ministral-3-Instruct-2512 模型可放入 24GB 内存/显存。您现在可以使用 Unsloth 运行、微调并对所有 Ministral 3 模型进行强化学习:

运行 Ministral 3 教程微调 Ministral 3

我们也已上传 Mistral Large 3 此处的 GGUFsarrow-up-right。对于所有 Ministral 3 上传(BnB、FP8), 请查看此处arrow-up-right.

Ministral-3-Instruct GGUF:
Ministral-3-Reasoning GGUF:

⚙️ 使用指南

为了在 指令(Instruct)上获得最佳性能,Mistral 建议使用较低的温度,例如 temperature = 0.150.1

对于 Reasoning(推理),Mistral 建议 temperature = 0.7top_p = 0.95.

指令(Instruct):
推理:

Temperature = 0.15(温度 = 0.15)0.1

Temperature = 0.7

Top_P = 默认

Top_P = 0.95

适当的输出长度:对于大多数查询,思考变体请使用 32,768 对于大多数推理变体的查询使用的标记数,以及 16,384 对于指令变体。若有必要,您可以增加推理模型的最大输出长度。

Ministral 3 能达到的最大上下文长度是 262,144

聊天模板格式如下使用时可以找到:

tokenizer.apply_chat_template([
    {"role" : "user", "content" : "What is 1+1?"},
    {"role" : "assistant", "content" : "2"},
    {"role" : "user", "content" : "What is 2+2?"}
    ], add_generation_prompt = True
)

Ministral Reasoning(推理) 聊天模板:

Ministral 指令(Instruct) 聊天模板:

📖 运行 Ministral 3 教程

下面是该 Reasoning(推理)指令(Instruct) 模型的变体。

Instruct:Ministral-3-Instruct-2512

为了在 指令(Instruct)上获得最佳性能,Mistral 建议使用较低的温度,例如 temperature = 0.150.1

Llama.cpp:运行 Ministral-3-14B-Instruct 教程

1

获取最新的 llama.cppGitHub(此处)arrow-up-right。您也可以按照下面的构建说明。若没有 GPU 或仅想用 CPU 推理,请将 -DGGML_CUDA=ON 改为 -DGGML_CUDA=OFF

2

你可以直接通过 Hugging Face 拉取:

3

通过以下方式下载模型(在安装 pip install huggingface_hub hf_transfer 之后)。您可以选择 UD_Q4_K_XL 或其它量化版本。

Reasoning:Ministral-3-Reasoning-2512

为了在 Reasoning(推理),Mistral 建议使用 temperature = 0.7top_p = 0.95.

Llama.cpp:运行 Ministral-3-14B-Reasoning 教程

1

获取最新的 llama.cppGitHubarrow-up-right. 你也可以使用下面的构建说明。更改 -DGGML_CUDA=ON 改为 -DGGML_CUDA=OFF

2

你可以直接通过 Hugging Face 拉取:

3

通过以下方式下载模型(在安装 pip install huggingface_hub hf_transfer 之后)。您可以选择 UD_Q4_K_XL 或其它量化版本。

🛠️ 微调 Ministral 3

Unsloth 现在支持对所有 Ministral 3 模型的微调,包括视觉支持。要训练,您必须使用最新的 🤗Hugging Face transformers v5 和 unsloth 其中包含我们最近的 超长上下文 支持。大型 14B Ministral 3 模型应该可以在免费的 Colab GPU 上运行。

我们制作了免费的 Unsloth 笔记本来微调 Ministral 3。更改名称以使用所需模型。

Ministral 数独 GRPO 强化学习笔记本

Unsloth 现在支持 gpt-oss 的强化学习!我们制作了两个笔记本,更多细节请阅读我们关于 gpt-oss 强化学习的专门博客:

Unsloth 现在也支持 Mistral 模型的强化学习和 GRPO。一如既往,它们受益于 Unsloth 的所有增强功能,明天我们将尽快发布一个专门用于自动解数独的笔记本。

要使用最新版 Unsloth 和 transformers v5,请通过以下方式更新:

目标是自动生成完成数独的策略!

关于 Ministral 的奖励图,我们得到如下结果。我们看到它运行良好!

最后更新于

这有帮助吗?