🐱Ministral 3 - Anleitung zum Ausführen

Anleitung für Mistral Ministral 3 Modelle, um sie lokal auf deinem Gerät auszuführen oder zu finetunen

Mistral veröffentlicht Ministral 3, ihre neuen multimodalen Modelle in den Varianten Base, Instruct und Reasoning, verfügbar in 3B, 8B, und 14B Größen. Sie bieten erstklassige Leistung für ihre Größe und sind für Instruktions- und Chat-Anwendungsfälle feinabgestimmt. Die multimodalen Modelle unterstützen 256K Kontext Fenster, mehrere Sprachen, native Funktionsaufrufe und JSON-Ausgabe.

Das vollständige unquantisierte 14B Ministral-3-Instruct-2512 Modell passt in 24GB RAM/VRAM. Sie können jetzt alle Ministral 3 Modelle mit Unsloth ausführen, feinabstimmen und RL darauf anwenden:

Ministral 3 Tutorials ausführenMinistral 3 feinabstimmen

Wir haben außerdem Mistral Large 3 hochgeladen GGUFs hierarrow-up-right. Für alle Ministral 3 Uploads (BnB, FP8), siehe hierarrow-up-right.

Ministral-3-Instruct GGUFs:
Ministral-3-Reasoning GGUFs:

⚙️ Gebrauchsanleitung

Um optimale Leistung für Instruktion, empfiehlt Mistral die Verwendung niedrigerer Temperaturen wie Temperatur = 0,15 oder 0.1

Für Reasoning, empfiehlt Mistral temperature = 0.7 und top_p = 0.95.

Instruct:
Reasoning:

Temperatur = 0,15 oder 0.1

Temperatur = 0,7

Top_P = Standard

Top_P = 0,95

Angemessene Ausgabelänge: Verwenden Sie eine Ausgabelänge von 32,768 Token für die meisten Anfragen für die Reasoning-Variante, und 16,384 für die Instruct-Variante. Sie können bei Bedarf die maximale Ausgabelänge für das Reasoning-Modell erhöhen.

Die maximale Kontextlänge, die Ministral 3 erreichen kann, beträgt 262,144

Das Chat-Template-Format findet sich, wenn wir das Folgende verwenden:

tokenizer.apply_chat_template([
    {"role" : "user", "content" : "What is 1+1?"},
    {"role" : "assistant", "content" : "2"},
    {"role" : "user", "content" : "What is 2+2?"}
    ], add_generation_prompt = True
)

Ministral Reasoning Chat-Vorlage:

Ministral Instruktion Chat-Vorlage:

📖 Ministral 3 Tutorials ausführen

Unten sind Anleitungen für die Reasoning und Instruktion Varianten des Modells.

Instruct: Ministral-3-Instruct-2512

Um optimale Leistung für Instruktion, empfiehlt Mistral die Verwendung niedrigerer Temperaturen wie Temperatur = 0,15 oder 0.1

Llama.cpp: Ministral-3-14B-Instruct Tutorial ausführen

1

Holen Sie sich die neueste llama.cpp auf GitHub hierarrow-up-right. Sie können auch den unten stehenden Build-Anweisungen folgen. Ändern Sie -DGGML_CUDA=ON zu -DGGML_CUDA=OFF wenn Sie keine GPU haben oder nur CPU-Inferenz wünschen.

2

Sie können direkt von Hugging Face ziehen via:

3

Laden Sie das Modell herunter über (nach Installation von pip install huggingface_hub hf_transfer ). Sie können wählen UD_Q4_K_XL oder andere quantisierte Versionen.

Reasoning: Ministral-3-Reasoning-2512

Um optimale Leistung für Reasoning, empfiehlt Mistral die Verwendung von temperature = 0.7 und top_p = 0.95.

Llama.cpp: Ministral-3-14B-Reasoning Tutorial ausführen

1

Holen Sie sich die neueste llama.cpp auf GitHubarrow-up-right. Sie können auch die untenstehenden Build-Anweisungen verwenden. Ändern Sie -DGGML_CUDA=ON zu -DGGML_CUDA=OFF wenn Sie keine GPU haben oder nur CPU-Inferenz wünschen.

2

Sie können direkt von Hugging Face ziehen via:

3

Laden Sie das Modell herunter über (nach Installation von pip install huggingface_hub hf_transfer ). Sie können wählen UD_Q4_K_XL oder andere quantisierte Versionen.

🛠️ Ministral 3 feinabstimmen

Unsloth unterstützt jetzt die Feinabstimmung aller Ministral 3 Modelle, einschließlich Vision-Unterstützung. Zum Trainieren müssen Sie die neueste 🤗Hugging Face transformers v5 und unsloth die unsere kürzliche Ultra-Langkontext Unterstützung enthält. Das große 14B Ministral 3 Modell sollte auf einer freien Colab-GPU Platz finden.

Wir haben kostenlose Unsloth-Notebooks erstellt, um Ministral 3 feinabzustimmen. Ändern Sie den Namen, um das gewünschte Modell zu verwenden.

Ministral Vision Feinabstimmungs-Notebook

Reinforcement Learning (GRPO)

Unsloth unterstützt jetzt auch RL und GRPO für die Mistral-Modelle. Wie üblich profitieren sie von allen Verbesserungen von Unsloth und morgen werden wir bald ein Notebook speziell zur autonomen Lösung des Sudoku-Rätsels veröffentlichen.

Um die neueste Version von Unsloth und transformers v5 zu verwenden, aktualisieren Sie über:

Das Ziel ist es, Strategien zur automatischen Lösung von Sudoku zu generieren!

Für die Belohnungsdiagramme für Ministral erhalten wir das Folgende. Wir sehen, dass es gut funktioniert!

Zuletzt aktualisiert

War das hilfreich?