🐱Ministral 3 - 如何运行指南

Mistral Ministral 3 模型的指南,用于在您的设备上本地运行或微调

Mistral 发布了 Ministral 3,他们的新型多模态模型有 Base、Instruct 和 Reasoning 变体,可在以下 3B, 8B,和 14B 尺寸中使用。它们在相同规模中提供同类最佳性能,并针对指令和聊天用例进行了微调。多模态模型支持 256K 上下文 窗口、多种语言、原生函数调用和 JSON 输出。

完整未量化的 14B Ministral-3-Instruct-2512 模型可放入 24GB 内存/显存。你现在可以使用 Unsloth 运行、微调和在所有 Ministral 3 模型上进行强化学习:

运行 Ministral 3 教程微调 Ministral 3

我们也已上传 Mistral Large 3 在此获取 GGUFsarrow-up-right。对于所有 Ministral 3 上传(BnB、FP8), 请参阅这里arrow-up-right.

Ministral-3-Instruct GGUF:
Ministral-3-Reasoning GGUF:

⚙️ 使用指南

为了在 指令(Instruct)上实现最佳性能,Mistral 建议使用较低的温度,例如 temperature = 0.150.1

对于 推理,Mistral 建议 temperature = 0.7top_p = 0.95.

指令式:
推理:

温度 = 0.150.1

温度 = 0.7

Top_P = 默认

Top_P = 0.95

适当的输出长度: 对于大多数查询,思考变体请使用输出长度为 32,768 标记用于大多数推理变体的查询,以及 16,384 用于指令变体。如果需要,可以增加推理模型的最大输出长度。

Ministral 3 能达到的最大上下文长度是 262,144

当我们使用下面内容时,可以找到聊天模板格式:

tokenizer.apply_chat_template([
    {"role" : "user", "content" : "What is 1+1?"},
    {"role" : "assistant", "content" : "2"},
    {"role" : "user", "content" : "What is 2+2?"}
    ]add_generation_prompt = True
)

Ministral 推理 聊天 模板:

Ministral 指令(Instruct) 聊天 模板:

📖 运行 Ministral 3 教程

下面是关于该 推理指令(Instruct) 模型的变体。

Instruct:Ministral-3-Instruct-2512

为了在 指令(Instruct)上实现最佳性能,Mistral 建议使用较低的温度,例如 temperature = 0.150.1

Llama.cpp:运行 Ministral-3-14B-Instruct 教程

1

获取最新的 llama.cpp此处的 GitHubarrow-up-right。您也可以按照下面的构建说明进行。若 -DGGML_CUDA=ON 更改为 -DGGML_CUDA=OFF 如果您没有 GPU 或仅想要在 CPU 上进行推理。 对于 Apple Mac / Metal 设备,设置 -DGGML_CUDA=OFF 然后照常继续 - Metal 支持默认启用。

2

你可以直接通过 Hugging Face 拉取:

3

通过以下方式下载模型(在安装 pip install huggingface_hub hf_transfer 之后)。您可以选择 UD_Q4_K_XL 或其他量化版本。

Reasoning:Ministral-3-Reasoning-2512

为了在 推理,Mistral 建议使用 temperature = 0.7top_p = 0.95.

Llama.cpp:运行 Ministral-3-14B-Reasoning 教程

1

获取最新的 llama.cppGitHubarrow-up-right。您也可以使用下面的构建说明。将 -DGGML_CUDA=ON 更改为 -DGGML_CUDA=OFF 如果您没有 GPU 或仅想要在 CPU 上进行推理。

2

你可以直接通过 Hugging Face 拉取:

3

通过以下方式下载模型(在安装 pip install huggingface_hub hf_transfer 之后)。您可以选择 UD_Q4_K_XL 或其他量化版本。

🛠️ 微调 Ministral 3

Unsloth 现在支持对所有 Ministral 3 模型进行微调,包括视觉支持。要训练,你必须使用最新的 🤗Hugging Face transformers v5 和 unsloth 其中包含我们最近的 超长上下文 支持。大型 14B Ministral 3 模型应该可以放入免费的 Colab GPU。

我们制作了免费的 Unsloth 笔记本来微调 Ministral 3。更改名称以使用所需模型。

Ministral 数独 GRPO 强化学习 笔记本

强化学习(GRPO)

Unsloth 现在也支持 Mistral 模型的强化学习和 GRPO。像往常一样,它们受益于 Unsloth 的所有增强功能,明天我们将很快发布一个专门用于自主解数独谜题的笔记本。

要使用最新版本的 Unsloth 和 transformers v5,请通过以下方式更新:

目标是自动生成完成数独的策略!

关于 Ministral 的奖励图,我们得到如下结果。我们看到它运行良好!

最后更新于

这有帮助吗?