# Ministral 3 - 実行方法ガイド

Mistralは新しいマルチモーダルモデルMinistral 3をBase、Instruct、Reasoningのバリアントでリリースしました。これらは以下で利用可能です。 **3B**, **8B**、および **14B** のサイズです。これらはサイズに対して最高クラスの性能を提供し、指示とチャット用途向けにファインチューニングされています。マルチモーダルモデルは次をサポートします： **256Kコンテキスト** ウィンドウ、多言語、ネイティブの関数呼び出し、およびJSON出力。

未量子化のフル14B Ministral-3-Instruct-2512モデルは **24GBのRAM**/VRAMに収まります。現在、Unslothを使って全てのMinistral 3モデルの実行、ファインチューニング、RLが可能です：

<a href="#run-ministral-3-tutorials" class="button primary">Ministral 3チュートリアルを実行</a><a href="#fine-tuning" class="button primary">Ministral 3のファインチューニング</a>

またMistral Large 3もアップロードしました [ここで GGUF を](https://huggingface.co/unsloth/Mistral-Large-3-675B-Instruct-2512-GGUF)。すべてのMinistral 3アップロード（BnB、FP8）については、 [まだインストールしていない場合！モデルのより多くのバリアントを実行するには、](https://huggingface.co/collections/unsloth/ministral-3).

| Ministral-3-Instruct GGUF：                                                                                                                                                                                                 | Ministral-3-Reasoning GGUF：                                                                                                                                                                                                   |
| -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
| [3B](https://huggingface.co/unsloth/Ministral-3-3B-Instruct-2512-GGUF) • [8B](https://huggingface.co/unsloth/Ministral-3-8B-Instruct-2512-GGUF) • [14B](https://huggingface.co/unsloth/Ministral-3-14B-Instruct-2512-GGUF) | [3B](https://huggingface.co/unsloth/Ministral-3-3B-Reasoning-2512-GGUF) • [8B](https://huggingface.co/unsloth/Ministral-3-8B-Reasoning-2512-GGUF) • [14B](https://huggingface.co/unsloth/Ministral-3-14B-Reasoning-2512-GGUF) |

### ⚙️ 使用ガイド

最適な性能を得るために、 **Instruct**に対して、Mistralは低めの温度（例えば `temperature = 0.15` または `0.1`<br>

フルファインチューニング **Reasoning**）を推奨します、Mistralは次を推奨します `temperature = 0.7` と `top_p = 0.95`.

| Instruct：                      | Reasoning：          |
| ------------------------------ | ------------------- |
| `Temperature = 0.15` または `0.1` | `Temperature = 0.7` |
| `Top_P = デフォルト`                | `Top_P = 0.95`      |

**適切な出力長**： 出力長には `32,768` 多くのクエリに対してはreasoningバリアントではトークン、そして `16,384` instructバリアントにはトークンを推奨します。必要に応じてreasoningモデルの最大出力サイズを増やすことができます。

Ministral 3が到達できる最大コンテキスト長は `262,144`

チャットテンプレート形式は下記を使用したときに見られます：

{% code overflow="wrap" %}

```python
tokenizer.apply_chat_template([
    {"role" : "user", "content" : "What is 1+1?"},
    {"role" : "assistant", "content" : "2"},
    {"role" : "user", "content" : "What is 2+2?"}
    ]、add_generation_prompt = True
)
```

{% endcode %}

#### Ministral *Reasoning* チャットテンプレート：

{% code overflow="wrap" lineNumbers="true" %}

```
<s>[SYSTEM_PROMPT]# 思考と回答の方法

まず思考過程（内的独白）の草案を書き、回答に至るまで続けてください。回答はMarkdownで整形し、数学式にはLaTeXを使用してください。考えと回答は入力と同じ言語で書いてください。

あなたの思考過程は以下のテンプレートに従う必要があります：[THINK]あなたの考えや/または草案、例えばスクラッチペーパーで演習を解くように。自分が自信を持ってユーザーへの回答を生成できるまで、カジュアルに、望むだけ長く書いてください。[/THINK]ここで自己完結した回答を提供してください。[/SYSTEM_PROMPT][INST]1+1は何ですか？[/INST]2</s>[INST]2+2は何ですか？[/INST]
```

{% endcode %}

#### Ministral *Instruct* チャットテンプレート：

{% code overflow="wrap" lineNumbers="true" expandable="true" %}

```
<s>[SYSTEM_PROMPT]あなたはMinistral-3-3B-Instruct-2512、フランスのスタートアップMistral AI（本社パリ）によって作成された大規模言語モデル（LLM）です。
あなたはLe ChatというAIアシスタントを動かしています。
あなたの知識ベースは2023-10-01に最終更新されました。
現在の日付は{today}です。

情報に確信が持てない場合や、ユーザーの要求が最新または具体的なデータを必要とする場合は、利用可能なツールを使って情報を取得しなければなりません。より正確で完全な回答が得られるなら遠慮なくツールを使用してください。関連するツールがない場合は、情報を持っていないことを明確に述べ、でっち上げを避けてください。
ユーザーの質問が不明瞭、曖昧、または十分な文脈を提供しておらず正確に答えられない場合、ただちに回答しようとせず、ユーザーに要求の明確化を求めてください（例：「近くのおすすめのレストランは？」=>「どちらにいらっしゃいますか？」や「次の東京行きの便はいつですか」=>「どこから出発しますか？」）。
あなたは常に日付に非常に注意を払い、特に日付を解決しようとします（例：「昨日」は{yesterday}）し、特定の日付の情報が問われた場合は別の日付の情報を破棄します。
これらの指示は全ての言語で従い、ユーザーが使用または要求する言語で常に応答します。
次のセクションではあなたが持つ能力について説明します。

# ウェブ閲覧の指示

あなたはウェブ検索やインターネットへのアクセス、URLやリンクの開封などを行うことはできません。ユーザーがそれを期待しているように見える場合は状況を明確にし、テキストをチャットに直接コピーして貼り付けるよう依頼してください。

# マルチモーダルの指示

あなたは画像を読む能力がありますが、画像を生成することはできません。また音声ファイルや動画の書き起こしを行うことはできません。
音声ファイルや動画を読み取ったり書き起こしたりすることはできません。

# ツール呼び出しの指示

あなたは情報取得や行動実行に使用できるツールにアクセスできる場合があります。次の状況ではこれらのツールを使用しなければなりません：

1. 要求が最新の情報を必要とする場合。
2. 要求があなたの知識ベースにない特定のデータを必要とする場合。
3. 要求がツールなしでは実行できない行動を含む場合。

常に最も正確で役立つ回答を提供するためにツールの使用を優先してください。ツールが利用できない場合は、現時点で要求された行動を実行できないことをユーザーに知らせてください。[/SYSTEM_PROMPT][INST]1+1は何ですか？[/INST]2</s>[INST]2+2は何ですか？[/INST]
```

{% endcode %}

## 📖 Ministral 3チュートリアルを実行

以下はモデルの [Reasoning](#reasoning-ministral-3-reasoning-2512) と [Instruct](#instruct-ministral-3-instruct-2512) モデルのバリアント。

### Instruct：Ministral-3-Instruct-2512

最適な性能を得るために、 **Instruct**に対して、Mistralは低めの温度（例えば `temperature = 0.15` または `0.1`

#### :sparkles: Llama.cpp：Ministral-3-14B-Instructチュートリアルを実行

{% stepper %}
{% step %}
最新の `llama.cpp` を [GitHubで入手してください](https://github.com/ggml-org/llama.cpp)。以下のビルド手順にも従うことができます。を変更してください `-DGGML_CUDA=ON` に `-DGGML_CUDA=OFF` GPUを持っていない場合やCPUで推論したい場合は **Apple Mac / Metalデバイスの場合**、次を設定してください `-DGGML_CUDA=OFF` その後通常通り続行してください — Metalサポートはデフォルトで有効です。

{% code overflow="wrap" %}

```bash
apt-get update
apt-get install pciutils build-essential cmake curl libcurl4-openssl-dev -y
git clone https://github.com/ggml-org/llama.cpp
cmake llama.cpp -B llama.cpp/build \
    -DBUILD_SHARED_LIBS=OFF -DGGML_CUDA=ON -DLLAMA_CURL=ON
cmake --build llama.cpp/build --config Release -j --clean-first --target llama-cli llama-mtmd-cli llama-server llama-gguf-split
cp llama.cpp/build/bin/llama-* llama.cpp
```

{% endcode %}
{% endstep %}

{% step %}
Hugging Face から直接プルできます：

```bash
export LLAMA_CACHE="unsloth/GLM-4.7-GGUF"
    -hf unsloth/Ministral-3-14B-Instruct-2512-GGUF:Q4_K_XL \
    --jinja -ngl 99 --ctx-size 32684 \
    --temp 0.15
```

{% endstep %}

{% step %}
モデルをダウンロードするには（をインストールした後） `モデルをダウンロードするには（` を選択できます。 `UD_Q4_K_XL` または他の量子化バージョン。

```python
# !pip install huggingface_hub hf_transfer
import os
os.environ["HF_HUB_ENABLE_HF_TRANSFER"] = "1"
from huggingface_hub import snapshot_download
snapshot_download(
    repo_id = "unsloth/Ministral-3-14B-Instruct-2512-GGUF",
    local_dir = "Ministral-3-14B-Instruct-2512-GGUF",
    allow_patterns = ["*UD-Q4_K_XL*"],
)
```

{% endstep %}
{% endstepper %}

### Reasoning：Ministral-3-Reasoning-2512

最適な性能を得るために、 **Reasoning**、Mistralは次の使用を推奨します `temperature = 0.7` と `top_p = 0.95`.

#### :sparkles: Llama.cpp：Ministral-3-14B-Reasoningチュートリアルを実行

{% stepper %}
{% step %}
最新の `llama.cpp` を [GitHub](https://github.com/ggml-org/llama.cpp)。下記のビルド手順も使用できます。変更する `-DGGML_CUDA=ON` に `-DGGML_CUDA=OFF` GPUを持っていない場合やCPUで推論したい場合は

{% code overflow="wrap" %}

```bash
apt-get update
apt-get install pciutils build-essential cmake curl libcurl4-openssl-dev -y
git clone https://github.com/ggml-org/llama.cpp
cmake llama.cpp -B llama.cpp/build \
    -DBUILD_SHARED_LIBS=OFF -DGGML_CUDA=ON -DLLAMA_CURL=ON
cmake --build llama.cpp/build --config Release -j --clean-first --target llama-cli llama-mtmd-cli llama-server llama-gguf-split
cp llama.cpp/build/bin/llama-* llama.cpp
```

{% endcode %}
{% endstep %}

{% step %}
Hugging Face から直接プルできます：

```bash
export LLAMA_CACHE="unsloth/GLM-4.7-GGUF"
    -hf unsloth/Ministral-3-14B-Reasoning-2512-GGUF:Q4_K_XL \
    --jinja -ngl 99 --ctx-size 32684 \
    --temp 0.6 --top-p 0.95
```

{% endstep %}

{% step %}
モデルをダウンロードするには（をインストールした後） `モデルをダウンロードするには（` を選択できます。 `UD_Q4_K_XL` または他の量子化バージョン。

```python
# !pip install huggingface_hub hf_transfer
import os
os.environ["HF_HUB_ENABLE_HF_TRANSFER"] = "1"
from huggingface_hub import snapshot_download
snapshot_download(
    repo_id = "unsloth/Ministral-3-14B-Reasoning-2512-GGUF",
    local_dir = "Ministral-3-14B-Reasoning-2512-GGUF",
    allow_patterns = ["*UD-Q4_K_XL*"],
)
```

{% endstep %}
{% endstepper %}

## 🛠️ Ministral 3のファインチューニング <a href="#fine-tuning" id="fine-tuning"></a>

Unslothは現在、視覚サポートを含む全てのMinistral 3モデルのファインチューニングをサポートしています。トレーニングするには、最新の🤗Hugging Faceを使用する必要があります `transformers` v5および `unsloth` には最近の [超長コンテキスト](https://unsloth.ai/docs/jp/burogu/500k-context-length-fine-tuning) サポートが含まれています。大きな14B Ministral 3モデルは無料のColab GPUに収まるはずです。

Ministral 3をファインチューニングするための無料のUnslothノートブックを作成しました。希望のモデルを使用するには名前を変更してください。

* Ministral-3B-Instruct [Vision ノートブック](https://colab.research.google.com/github/unslothai/notebooks/blob/main/nb/Ministral_3_VL_\(3B\)_Vision.ipynb) （ビジョン）
* Ministral-3B-Instruct [GRPO ノートブック](https://colab.research.google.com/github/unslothai/notebooks/blob/main/nb/Ministral_3_\(3B\)_Reinforcement_Learning_Sudoku_Game.ipynb)

{% columns %}
{% column %}
Ministral Visionファインチューニングノートブック

{% embed url="<https://colab.research.google.com/github/unslothai/notebooks/blob/main/nb/Ministral_3_VL_(3B)_Vision.ipynb>" %}
{% endcolumn %}

{% column %}
Ministral Sudoku GRPO RLノートブック

{% embed url="<https://colab.research.google.com/github/unslothai/notebooks/blob/main/nb/Ministral_3_(3B)_Reinforcement_Learning_Sudoku_Game.ipynb>" %}
{% endcolumn %}
{% endcolumns %}

### :sparkles:Reasoning + Conversationalノートブック

Unslothは現在、Mistralモデルに対するRLとGRPOもサポートしています。いつものように、これらはUnslothの全ての拡張の恩恵を受け、明日、数独パズルを自律的に解くための専用ノートブックを近日公開する予定です。

* Ministral-3B-Instruct [GRPO ノートブック](https://colab.research.google.com/github/unslothai/notebooks/blob/main/nb/Ministral_3_\(3B\)_Reinforcement_Learning_Sudoku_Game.ipynb)

**最新バージョンのUnslothとtransformers v5を使用するには、次でアップデートしてください：**

{% code overflow="wrap" %}

```
pip install --upgrade --force-reinstall --no-cache-dir --no-deps unsloth unsloth_zoo
```

{% endcode %}

目標は数独を完了するための戦略を自動生成することです！

{% columns %}
{% column %}

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2F2qDbhHfpuhNAHOtIernm%2Fimage.png?alt=media&#x26;token=9a3d4bb2-3994-4ec8-aeb8-16bc2bcb77c4" alt=""><figcaption></figcaption></figure>
{% endcolumn %}

{% column %}

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FLZlHHeAjoVAeO6juQDiC%2Fimage.png?alt=media&#x26;token=45abbb30-b705-4eec-81fc-fb99dd0c2621" alt=""><figcaption></figcaption></figure>
{% endcolumn %}
{% endcolumns %}

Ministralの報酬プロットについては以下の通りです。うまく機能しているのがわかります！

{% columns %}
{% column %}
![](https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FqpfPNKkSF2O1T0flshEi%2Funknown.png?alt=media\&token=a2f14139-bcab-40bf-a054-f189de5d23df)

![](https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2Fe8TBzOVVn5iYhlJ6nh63%2Funknown.png?alt=media\&token=520699f9-ffd0-43a5-a0ef-263fa678b4bd)
{% endcolumn %}

{% column %}
![](https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FudSxKSBuSOIXONrtarmp%2Funknown.png?alt=media\&token=beefcbce-67df-4ce2-92b8-3e0adc240df6)

![](https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FgwwlcVjMt9nqyqVC6xqD%2Funknown.png?alt=media\&token=b5b390b6-c9e6-4926-9a70-d4aa365caa86)
{% endcolumn %}
{% endcolumns %}


---

# Agent Instructions: Querying This Documentation

If you need additional information that is not directly available in this page, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on the current page URL with the `ask` query parameter:

```
GET https://unsloth.ai/docs/jp/moderu/tutorials/ministral-3.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
