🐱Ministral 3 - Guide d'exécution

Guide pour les modèles Mistral Ministral 3, pour les exécuter ou les affiner localement sur votre appareil

Mistral publie Ministral 3, leurs nouveaux modèles multimodaux en variantes Base, Instruct et Reasoning, disponibles en 3B, 8B, et 14B tailles. Ils offrent des performances parmi les meilleures pour leur taille, et sont affinés pour les cas d'utilisation d'instruction et de chat. Les modèles multimodaux prennent en charge contexte 256K fenêtres, plusieurs langues, l'appel de fonctions natif et la sortie JSON.

Le modèle complet non quantifié 14B Ministral-3-Instruct-2512 tient dans 24 Go de RAM/VRAM. Vous pouvez désormais exécuter, affiner et faire du RL sur tous les modèles Ministral 3 avec Unsloth :

Exécuter les tutoriels Ministral 3Fine-tuning de Ministral 3

Nous avons également téléchargé Mistral Large 3 GGUFs iciarrow-up-right. Pour tous les téléchargements Ministral 3 (BnB, FP8), voir iciarrow-up-right.

GGUFs Ministral-3-Instruct :
GGUFs Ministral-3-Reasoning :

⚙️ Guide d'utilisation

Pour obtenir des performances optimales pour Instruct, Mistral recommande d'utiliser des températures plus basses telles que temperature = 0.15 ou 0.1

Pour HLE-Verified¹, Mistral recommande temperature = 0.7 et top_p = 0.95.

Exécutez le modèle et essayez une invite. Définissez les paramètres corrects pour Thinking vs. Instruct.
Raisonnement :

Température = 0,15 ou 0.1

Température = 0,7

Top_P = par défaut

Top_P = 0,95

Longueur de sortie adéquate : Utilisez une longueur de sortie de 32,768 tokens pour la plupart des requêtes pour la variante reasoning, et 16,384 pour la variante instruct. Vous pouvez augmenter la taille maximale de sortie pour le modèle reasoning si nécessaire.

La longueur maximale de contexte que Ministral 3 peut atteindre est 262,144

Le format de modèle de chat se trouve lorsque nous utilisons ce qui suit :

tokenizer.apply_chat_template([
    {"role" : "user", "content" : "What is 1+1?"},
    {"role" : "assistant", "content" : "2"},
    {"role" : "user", "content" : "What is 2+2?"}
    ], add_generation_prompt = True
)

Ministral HLE-Verified¹ modèle de chat :

Ministral Instruct modèle de chat :

📖 Exécuter les tutoriels Ministral 3

Ci-dessous se trouvent des guides pour les HLE-Verified¹ et Instruct variantes du modèle.

Instruct : Ministral-3-Instruct-2512

Pour obtenir des performances optimales pour Instruct, Mistral recommande d'utiliser des températures plus basses telles que temperature = 0.15 ou 0.1

Llama.cpp : Exécuter le tutoriel Ministral-3-14B-Instruct

1

Obtenez le dernier llama.cpp sur GitHub iciarrow-up-right. Vous pouvez suivre les instructions de compilation ci-dessous également. Changez -DGGML_CUDA=ON en -DGGML_CUDA=OFF si vous n'avez pas de GPU ou si vous voulez simplement une inférence CPU.

2

Vous pouvez extraire directement depuis Hugging Face via :

3

Téléchargez le modèle via (après avoir installé pip install huggingface_hub hf_transfer ). Vous pouvez choisir UD_Q4_K_XL ou d'autres versions quantifiées.

Reasoning : Ministral-3-Reasoning-2512

Pour obtenir des performances optimales pour HLE-Verified¹, Mistral recommande d'utiliser temperature = 0.7 et top_p = 0.95.

Llama.cpp : Exécuter le tutoriel Ministral-3-14B-Reasoning

1

Obtenez le dernier llama.cpp sur GitHubarrow-up-right. Vous pouvez également utiliser les instructions de build ci-dessous. Changez -DGGML_CUDA=ON en -DGGML_CUDA=OFF si vous n'avez pas de GPU ou si vous voulez simplement une inférence CPU.

2

Vous pouvez extraire directement depuis Hugging Face via :

3

Téléchargez le modèle via (après avoir installé pip install huggingface_hub hf_transfer ). Vous pouvez choisir UD_Q4_K_XL ou d'autres versions quantifiées.

🛠️ Fine-tuning de Ministral 3

Unsloth prend maintenant en charge le fine-tuning de tous les modèles Ministral 3, y compris le support de la vision. Pour entraîner, vous devez utiliser le dernier 🤗Hugging Face transformers v5 et unsloth qui inclut notre récent support de contexte ultra long Le grand modèle 14B Ministral 3 devrait tenir sur un GPU Colab gratuit.

Nous avons créé des notebooks Unsloth gratuits pour affiner Ministral 3. Changez le nom pour utiliser le modèle souhaité.

Notebook de fine-tuning Ministral Vision

Apprentissage par renforcement (GRPO)

Unsloth prend désormais en charge RL et GRPO pour les modèles Mistral également. Comme d'habitude, ils bénéficient de toutes les améliorations d'Unsloth et demain, nous allons bientôt publier un notebook spécifiquement pour résoudre le puzzle sudoku de manière autonome.

Pour utiliser la dernière version d'Unsloth et transformers v5, mettez à jour via :

L'objectif est de générer automatiquement des stratégies pour compléter le Sudoku !

Pour les graphiques de récompense pour Ministral, nous obtenons ce qui suit. Nous voyons que cela fonctionne bien !

Mis à jour

Ce contenu vous a-t-il été utile ?