🐱Ministral 3 - Anleitung zum Ausführen

Anleitung für Mistral Ministral 3-Modelle, um sie lokal auf deinem Gerät auszuführen oder feinabzustimmen

Mistral veröffentlicht Ministral 3, ihre neuen multimodalen Modelle in den Varianten Base, Instruct und Reasoning, verfügbar in 3B, 8B, und 14B Größen. Sie bieten eine branchenführende Leistung für ihre Größe und sind für Instruktions- und Chat-Anwendungsfälle feinabgestimmt. Die multimodalen Modelle unterstützen 256K Kontext Fenster, mehrere Sprachen, natives Funktionsaufrufen und JSON-Ausgabe.

Das vollständige unquantisierte 14B Ministral-3-Instruct-2512 Modell passt in 24GB RAM/VRAM. Sie können jetzt alle Ministral 3-Modelle mit Unsloth ausführen, feinabstimmen und RL darauf anwenden:

Ministral 3 Tutorials ausführenMinistral 3 feinabstimmen

Wir haben außerdem Mistral Large 3 hochgeladen GGUFs hierarrow-up-right. Für alle Ministral 3 Uploads (BnB, FP8), falls Sie es noch nicht getan haben! Um weitere Varianten des Modells auszuführen,arrow-up-right.

Ministral-3-Instruct GGUFs:
Ministral-3-Reasoning GGUFs:

⚙️ Gebrauchsanleitung

Um optimale Leistung für Instructzu erreichen, empfiehlt Mistral die Verwendung niedrigerer Temperaturen wie Temperatur = 0,15 oder 0.1

Für Reasoningempfiehlt Mistral temperature = 0.7 und top_p = 0.95.

Instruct:
Reasoning:

Temperatur = 0,15 oder 0.1

Temperatur = 0,7

Top_P = Standard

Top_P = 0,95

Angemessene Ausgabelänge: Verwenden Sie eine Ausgabelänge von 32,768 Tokens für die meisten Abfragen für die Reasoning-Variante und 16,384 für die Instruct-Variante. Sie können die maximale Ausgabelänge für das Reasoning-Modell bei Bedarf erhöhen.

Die maximale Kontextlänge, die Ministral 3 erreichen kann, beträgt 262,144

Das Chat-Template-Format findet sich, wenn wir Folgendes verwenden:

tokenizer.apply_chat_template([
    {"role" : "user", "content" : "What is 1+1?"},
    {"role" : "assistant", "content" : "2"},
    {"role" : "user", "content" : "What is 2+2?"}
    ], add_generation_prompt = True
)

Ministral Reasoning Chat-Vorlage:

Ministral Instruct Chat-Vorlage:

📖 Ministral 3 Tutorials ausführen

Unten stehen Anleitungen für die Reasoning und Instruct Varianten des Modells.

Instruct: Ministral-3-Instruct-2512

Um optimale Leistung für Instructzu erreichen, empfiehlt Mistral die Verwendung niedrigerer Temperaturen wie Temperatur = 0,15 oder 0.1

Llama.cpp: Ministral-3-14B-Instruct Tutorial ausführen

1

Hole dir die neueste llama.cpp auf GitHub hierarrow-up-right. Du kannst auch den Build-Anweisungen unten folgen. Ändere -DGGML_CUDA=ON zu -DGGML_CUDA=OFF wenn du keine GPU hast oder nur CPU-Inferenz möchtest. Für Apple Mac / Metal-Geräte, setze -DGGML_CUDA=OFF dann wie gewohnt fort - Metal-Unterstützung ist standardmäßig aktiviert.

2

Sie können direkt von Hugging Face ziehen via:

3

Laden Sie das Modell herunter (nach der Installation pip install huggingface_hub hf_transfer ). Sie können wählen UD_Q4_K_XL oder andere quantisierte Versionen.

Reasoning: Ministral-3-Reasoning-2512

Um optimale Leistung für Reasoning, empfiehlt Mistral die Verwendung von temperature = 0.7 und top_p = 0.95.

Llama.cpp: Ministral-3-14B-Reasoning Tutorial ausführen

1

Hole dir die neueste llama.cpp auf GitHubarrow-up-right. Sie können auch die untenstehenden Build-Anweisungen verwenden. Ändern Sie -DGGML_CUDA=ON zu -DGGML_CUDA=OFF wenn du keine GPU hast oder nur CPU-Inferenz möchtest.

2

Sie können direkt von Hugging Face ziehen via:

3

Laden Sie das Modell herunter (nach der Installation pip install huggingface_hub hf_transfer ). Sie können wählen UD_Q4_K_XL oder andere quantisierte Versionen.

🛠️ Ministral 3 feinabstimmen

Unsloth unterstützt jetzt das Fine-Tuning aller Ministral 3-Modelle, einschließlich Vision-Unterstützung. Zum Trainieren musst du die neueste 🤗Hugging Face transformers v5 und unsloth welches unsere jüngste Unterstützung für ultra langen Kontext enthält. Das große 14B Ministral 3-Modell sollte auf einer kostenlosen Colab-GPU Platz finden.

Wir haben kostenlose Unsloth-Notebooks zum Feinabstimmen von Ministral 3 erstellt. Ändere den Namen, um das gewünschte Modell zu verwenden.

Ministral Vision Fine-Tuning-Notebook

Verstärkendes Lernen (GRPO)

Unsloth unterstützt jetzt auch RL und GRPO für die Mistral-Modelle. Wie üblich profitieren sie von allen Verbesserungen von Unsloth und morgen werden wir bald ein spezielles Notebook veröffentlichen, das autonomes Lösen des Sudoku-Rätsels ermöglicht.

Um die neueste Version von Unsloth und transformers v5 zu verwenden, aktualisiere über:

Das Ziel ist, automatisch Strategien zu generieren, um Sudoku zu lösen!

Für die Reward-Plots für Ministral erhalten wir das Folgende. Wir sehen, dass es gut funktioniert!

Zuletzt aktualisiert

War das hilfreich?