🐱Ministral 3 - 実行ガイド

Mistral Ministral 3 モデルをデバイス上でローカルに実行またはファインチューニングするためのガイド。

Mistralは新しいマルチモーダルモデルMinistral 3をBase、Instruct、Reasoningのバリアントでリリースしました。これらは以下で利用可能です。 3B, 8B、および 14B のサイズです。これらはサイズに対して最高クラスの性能を提供し、指示とチャット用途向けにファインチューニングされています。マルチモーダルモデルは次をサポートします: 256Kコンテキスト ウィンドウ、多言語、ネイティブの関数呼び出し、およびJSON出力。

未量子化のフル14B Ministral-3-Instruct-2512モデルは 24GBのRAM/VRAMに収まります。現在、Unslothを使って全てのMinistral 3モデルの実行、ファインチューニング、RLが可能です:

Ministral 3チュートリアルを実行Ministral 3のファインチューニング

またMistral Large 3もアップロードしました ここで GGUF をarrow-up-right。すべてのMinistral 3アップロード(BnB、FP8)については、 まだインストールしていない場合!モデルのより多くのバリアントを実行するには、arrow-up-right.

Ministral-3-Instruct GGUF:
Ministral-3-Reasoning GGUF:

⚙️ 使用ガイド

最適な性能を得るために、 Instructに対して、Mistralは低めの温度(例えば temperature = 0.15 または 0.1

フルファインチューニング Reasoning)を推奨します、Mistralは次を推奨します temperature = 0.7top_p = 0.95.

Instruct:
Reasoning:

Temperature = 0.15 または 0.1

Temperature = 0.7

Top_P = デフォルト

Top_P = 0.95

適切な出力長: 出力長には 32,768 多くのクエリに対してはreasoningバリアントではトークン、そして 16,384 instructバリアントにはトークンを推奨します。必要に応じてreasoningモデルの最大出力サイズを増やすことができます。

Ministral 3が到達できる最大コンテキスト長は 262,144

チャットテンプレート形式は下記を使用したときに見られます:

tokenizer.apply_chat_template([
    {"role" : "user", "content" : "What is 1+1?"},
    {"role" : "assistant", "content" : "2"},
    {"role" : "user", "content" : "What is 2+2?"}
    ]add_generation_prompt = True
)

Ministral Reasoning チャットテンプレート:

Ministral Instruct チャットテンプレート:

📖 Ministral 3チュートリアルを実行

以下はモデルの ReasoningInstruct モデルのバリアント。

Instruct:Ministral-3-Instruct-2512

最適な性能を得るために、 Instructに対して、Mistralは低めの温度(例えば temperature = 0.15 または 0.1

Llama.cpp:Ministral-3-14B-Instructチュートリアルを実行

1

最新の llama.cppGitHubで入手してくださいarrow-up-right。以下のビルド手順にも従うことができます。を変更してください -DGGML_CUDA=ON-DGGML_CUDA=OFF GPUを持っていない場合やCPUで推論したい場合は Apple Mac / Metalデバイスの場合、次を設定してください -DGGML_CUDA=OFF その後通常通り続行してください — Metalサポートはデフォルトで有効です。

2

Hugging Face から直接プルできます:

3

モデルをダウンロードするには(をインストールした後) モデルをダウンロードするには( を選択できます。 UD_Q4_K_XL または他の量子化バージョン。

Reasoning:Ministral-3-Reasoning-2512

最適な性能を得るために、 Reasoning、Mistralは次の使用を推奨します temperature = 0.7top_p = 0.95.

Llama.cpp:Ministral-3-14B-Reasoningチュートリアルを実行

1

最新の llama.cppGitHubarrow-up-right。下記のビルド手順も使用できます。変更する -DGGML_CUDA=ON-DGGML_CUDA=OFF GPUを持っていない場合やCPUで推論したい場合は

2

Hugging Face から直接プルできます:

3

モデルをダウンロードするには(をインストールした後) モデルをダウンロードするには( を選択できます。 UD_Q4_K_XL または他の量子化バージョン。

🛠️ Ministral 3のファインチューニング

Unslothは現在、視覚サポートを含む全てのMinistral 3モデルのファインチューニングをサポートしています。トレーニングするには、最新の🤗Hugging Faceを使用する必要があります transformers v5および unsloth には最近の 超長コンテキスト サポートが含まれています。大きな14B Ministral 3モデルは無料のColab GPUに収まるはずです。

Ministral 3をファインチューニングするための無料のUnslothノートブックを作成しました。希望のモデルを使用するには名前を変更してください。

Ministral Visionファインチューニングノートブック

Ministral Sudoku GRPO RLノートブック

Reasoning + Conversationalノートブック

Unslothは現在、Mistralモデルに対するRLとGRPOもサポートしています。いつものように、これらはUnslothの全ての拡張の恩恵を受け、明日、数独パズルを自律的に解くための専用ノートブックを近日公開する予定です。

最新バージョンのUnslothとtransformers v5を使用するには、次でアップデートしてください:

目標は数独を完了するための戦略を自動生成することです!

Ministralの報酬プロットについては以下の通りです。うまく機能しているのがわかります!

最終更新

役に立ちましたか?