🐱Ministral 3 - 実行ガイド

Mistral Ministral 3 モデルをローカルで実行またはファインチューニングするためのガイド

Mistralは新しいマルチモーダルモデル Ministral 3 を Base、Instruct、Reasoning バリアントでリリースしました。サイズは 3B, 8B、および 14B です。これらは同サイズ帯で最高クラスの性能を提供し、指示やチャット用途向けにファインチューニングされています。マルチモーダルモデルは 256Kコンテキスト ウィンドウ、複数言語、ネイティブ関数呼び出し、JSON 出力をサポートします。

フルの未量子化 14B Ministral-3-Instruct-2512 モデルは 24GBのRAM/VRAM に収まります。Unsloth を使ってすべての Ministral 3 モデルを実行、ファインチューン、強化学習で扱うことができます:

Ministral 3 チュートリアルを実行するMinistral 3 のファインチューニング

また Mistral Large 3 もアップロードしました GGUFはこちらarrow-up-right。すべての Ministral 3 のアップロード(BnB、FP8)については、 ここを参照してくださいarrow-up-right.

Ministral-3-Instruct の GGUF:
Ministral-3-Reasoning の GGUF:

⚙️ 使用ガイド

で最適なパフォーマンスを達成するには、 指示(Instruct)に対して、Mistral は低めの温度(例えば temperature = 0.15 または 0.1

に関して 推論(Reasoning))の使用を推奨しています。Mistral は temperature = 0.7 および top_p = 0.95.

Instruct:
Reasoning:

Temperature = 0.15 または 0.1

Temperature = 0.7

Top_P = デフォルト

Top_P = 0.95

十分な出力長:Thinkingバリアントではほとんどのクエリに対して出力長を 32,768 は推論バリアントの多くのクエリに対してのトークン数で、 16,384 は指示(instruct)バリアント向けです。必要に応じて、Reasoning モデルの最大出力サイズを増やすことができます。

Ministral 3 が到達可能な最大コンテキスト長は 262,144

チャットテンプレートの形式は以下を使用したときに見られます:

tokenizer.apply_chat_template([
    {"role" : "user", "content" : "What is 1+1?"},
    {"role" : "assistant", "content" : "2"},
    {"role" : "user", "content" : "What is 2+2?"}
    ], add_generation_prompt = True
)

Ministral 推論(Reasoning) チャットテンプレート:

Ministral 指示(Instruct) チャットテンプレート:

📖 Ministral 3 チュートリアルを実行する

以下はモデルの 推論(Reasoning) および 指示(Instruct) モデルのバリアント。

Instruct:Ministral-3-Instruct-2512

で最適なパフォーマンスを達成するには、 指示(Instruct)に対して、Mistral は低めの温度(例えば temperature = 0.15 または 0.1

Llama.cpp:Ministral-3-14B-Instruct チュートリアルを実行

1

最新の llama.cppGitHub で入手arrow-up-rightできます。下のビルド手順に従うこともできます。変更してください -DGGML_CUDA=ON から -DGGML_CUDA=OFF GPU がない場合や CPU 推論のみを行いたい場合は。

2

Hugging Faceから直接プルできます:

3

(以下をインストールした後に)モデルをダウンロードします pip install huggingface_hub hf_transfer )。量子化バージョンとして選べます UD_Q4_K_XL や他のもの。

Reasoning:Ministral-3-Reasoning-2512

で最適なパフォーマンスを達成するには、 推論(Reasoning)、Mistral は使用を推奨します temperature = 0.7 および top_p = 0.95.

Llama.cpp:Ministral-3-14B-Reasoning チュートリアルを実行

1

最新の llama.cppGitHubarrow-up-right。下のビルド手順も使用できます。を変更してください -DGGML_CUDA=ON から -DGGML_CUDA=OFF GPU がない場合や CPU 推論のみを行いたい場合は。

2

Hugging Faceから直接プルできます:

3

(以下をインストールした後に)モデルをダウンロードします pip install huggingface_hub hf_transfer )。量子化バージョンとして選べます UD_Q4_K_XL や他のもの。

🛠️ Ministral 3 のファインチューニング

Unsloth は現在、ビジョンサポートを含むすべての Ministral 3 モデルのファインチューニングをサポートしています。トレーニングするには、最新の 🤗Hugging Face を使用する必要があります: transformers v5 および unsloth には我々の最近の 超ロングコンテキスト サポートが含まれています。大きな 14B Ministral 3 モデルは無料の Colab GPU に収まるはずです。

Ministral 3 をファインチューンするための無料の Unsloth ノートブックを作成しました。使用したいモデル名に変更してください。

Ministral Vision ファインチューニングノートブック

Ministral Sudoku GRPO RL ノートブック

推論+会話ノートブック

Unsloth は現在、Mistral モデル向けの RL と GRPO もサポートしています。いつものように、これらは Unsloth のすべての改良の恩恵を受けます。明日、数独パズルを自律的に解くための専用ノートブックを近日公開予定です。

最新バージョンの Unsloth と transformers v5 を使用するには、次のようにアップデートしてください:

目標は数独を解くための戦略を自動生成することです!

Ministral の報酬プロットは以下の通りです。うまく動作していることがわかります!

最終更新

役に立ちましたか?