🌠Qwen3-2507 : Guide d'exécution locale
Exécutez Qwen3-30B-A3B-2507 et 235B-A22B versions Thinking et Instruct localement sur votre appareil !
Qwen a publié les mises à jour 2507 (juillet 2025) pour leurs Qwen3 modèles 4B, 30B et 235B, introduisant des variantes « thinking » et « non-thinking ». Le modèle non-thinking 'Qwen3-30B-A3B-Instruct-2507' et 'Qwen3-235B-A22B-Instruct-2507' dispose d'une fenêtre de contexte de 256K, d'une meilleure conformité aux instructions, de capacités multilingues et d'un alignement amélioré.
Les modèles thinking 'Qwen3-30B-A3B-Thinking-2507' et 'Qwen3-235B-A22B-Thinking-2507' excellent en raisonnement, le modèle 235B obtenant des résultats SOTA en logique, mathématiques, sciences, codage et tâches académiques avancées.
Unsloth prend désormais également en charge le fine-tuning et l'apprentissage par renforcement (RL) des modèles Qwen3-2507 — 2x plus rapide, avec 70 % de VRAM en moins, et des longueurs de contexte 8x plus longues
Exécuter 30B-A3BExécuter 235B-A22BAffiner Qwen3-2507
Unsloth méthodologie Dynamic 2.0 GGUFs :
⚙️ Bonnes pratiques
Les paramètres pour les modèles Thinking et Instruct sont différents. Le modèle thinking utilise temperature = 0.6, mais le modèle instruct utilise temperature = 0.7 Le modèle thinking utilise top_p = 0.95, mais le modèle instruct utilise top_p = 0.8
Pour obtenir des performances optimales, Qwen recommande ces réglages :
Température = 0,7
Température = 0,6
Min_P = 0,00 (la valeur par défaut de llama.cpp est 0,1)
Min_P = 0,00 (la valeur par défaut de llama.cpp est 0,1)
Top_P = 0,80
Top_P = 0,95
TopK = 20
TopK = 20
presence_penalty = 0.0 à 2.0 (la valeur par défaut de llama.cpp le désactive, mais pour réduire les répétitions, vous pouvez l'utiliser)
presence_penalty = 0.0 à 2.0 (la valeur par défaut de llama.cpp le désactive, mais pour réduire les répétitions, vous pouvez l'utiliser)
Longueur de sortie adéquate : Utilisez une longueur de sortie de 32,768 tokens pour la plupart des requêtes, ce qui est adéquat pour la plupart des requêtes.
Le modèle de conversation pour les deux Thinking (thinking a <think></think>) et Instruct est ci-dessous :
📖 Exécuter les tutoriels Qwen3-30B-A3B-2507
Ci-dessous figurent des guides pour les Thinking et Instruct versions du modèle.
Instruct : Qwen3-30B-A3B-Instruct-2507
Étant donné qu'il s'agit d'un modèle non thinking, il n'est pas nécessaire de définir thinking=False et le modèle ne génère pas <think> </think> blocs.
⚙️ Bonnes pratiques
Pour obtenir des performances optimales, Qwen recommande les réglages suivants :
Nous suggérons d'utiliser
temperature=0.7, top_p=0.8, top_k=20, et min_p=0.0presence_penaltyentre 0 et 2 si le framework le prend en charge afin de réduire les répétitions sans fin.température = 0.7top_k = 20min_p = 0.00(la valeur par défaut de llama.cpp est 0,1)top_p = 0.80presence_penalty = 0.0 à 2.0(la valeur par défaut de llama.cpp le désactive, mais pour réduire les répétitions, vous pouvez l'utiliser) Essayez 1.0 par exemple.Prend en charge jusqu'à
262,144contexte nativement mais vous pouvez le régler sur32,768tokens pour une utilisation de RAM réduite
🦙 Ollama : Exécuter le tutoriel Qwen3-30B-A3B-Instruct-2507
Installer
ollamasi vous ne l'avez pas déjà fait ! Vous ne pouvez exécuter que des modèles jusqu'à 32B.
Exécutez le modèle ! Notez que vous pouvez appeler
ollama servedans un autre terminal s'il échoue ! Nous incluons toutes nos corrections et paramètres suggérés (température etc.) dansparamsdans notre upload Hugging Face !
✨ Llama.cpp : Exécuter le tutoriel Qwen3-30B-A3B-Instruct-2507
Obtenez la dernière
llama.cppsur GitHub ici. Vous pouvez aussi suivre les instructions de compilation ci-dessous. Changez-DGGML_CUDA=ONen-DGGML_CUDA=OFFsi vous n'avez pas de GPU ou si vous voulez simplement de l'inférence CPU. Pour les appareils Apple Mac / Metal, définissez-DGGML_CUDA=OFFpuis continuez comme d'habitude - le support Metal est activé par défaut.
Vous pouvez directement récupérer depuis HuggingFace via :
Téléchargez le modèle via (après avoir installé
pip install huggingface_hub hf_transfer). Vous pouvez choisir UD_Q4_K_XL ou d'autres versions quantifiées.
Thinking : Qwen3-30B-A3B-Thinking-2507
Ce modèle prend en charge uniquement le mode thinking et une fenêtre de contexte de 256K nativement. Le modèle de conversation par défaut ajoute <think> automatiquement, donc vous pouvez voir seulement une balise de fermeture </think> dans la sortie.
⚙️ Bonnes pratiques
Pour obtenir des performances optimales, Qwen recommande les réglages suivants :
Nous suggérons d'utiliser
temperature=0.6, top_p=0.95, top_k=20, et min_p=0.0presence_penaltyentre 0 et 2 si le framework le prend en charge afin de réduire les répétitions sans fin.température = 0,6top_k = 20min_p = 0.00(la valeur par défaut de llama.cpp est 0,1)top_p = 0.95presence_penalty = 0.0 à 2.0(la valeur par défaut de llama.cpp le désactive, mais pour réduire les répétitions, vous pouvez l'utiliser) Essayez 1.0 par exemple.Prend en charge jusqu'à
262,144contexte nativement mais vous pouvez le régler sur32,768tokens pour une utilisation de RAM réduite
🦙 Ollama : Exécuter le tutoriel Qwen3-30B-A3B-Instruct-2507
Installer
ollamasi vous ne l'avez pas déjà fait ! Vous ne pouvez exécuter que des modèles jusqu'à 32B. Pour exécuter les modèles complets 235B-A22B, voir ici.
Exécutez le modèle ! Notez que vous pouvez appeler
ollama servedans un autre terminal s'il échoue ! Nous incluons toutes nos corrections et paramètres suggérés (température etc.) dansparamsdans notre upload Hugging Face !
✨ Llama.cpp : Exécuter le tutoriel Qwen3-30B-A3B-Instruct-2507
Obtenez la dernière
llama.cppsur GitHub ici. Vous pouvez aussi suivre les instructions de compilation ci-dessous. Changez-DGGML_CUDA=ONen-DGGML_CUDA=OFFsi vous n'avez pas de GPU ou si vous voulez simplement de l'inférence CPU. Pour les appareils Apple Mac / Metal, définissez-DGGML_CUDA=OFFpuis continuez comme d'habitude - le support Metal est activé par défaut.
Vous pouvez le récupérer directement depuis Hugging Face via :
Téléchargez le modèle via (après avoir installé
pip install huggingface_hub hf_transfer). Vous pouvez choisir UD_Q4_K_XL ou d'autres versions quantifiées.
📖 Exécuter Qwen3-235B-A22B-2507 Tutoriels
Ci-dessous figurent des guides pour les Thinking et Instruct versions du modèle.
Thinking : Qwen3-235B-A22B-Thinking-2507
Ce modèle prend en charge uniquement le mode thinking et une fenêtre de contexte de 256K nativement. Le modèle de conversation par défaut ajoute <think> automatiquement, donc vous pouvez voir seulement une balise de fermeture </think> dans la sortie.
⚙️ Bonnes pratiques
Pour atteindre des performances optimales, Qwen recommande ces paramètres pour le modèle Thinking :
température = 0,6top_k = 20min_p = 0.00(la valeur par défaut de llama.cpp est 0,1)top_p = 0.95presence_penalty = 0.0 à 2.0(la valeur par défaut de llama.cpp le désactive, mais pour réduire les répétitions, vous pouvez l'utiliser) Essayez 1.0 par exemple.Longueur de sortie adéquate : Utilisez une longueur de sortie de
32,768tokens pour la plupart des requêtes, ce qui est adéquat pour la plupart des requêtes.
✨Exécuter Qwen3-235B-A22B-Thinking via llama.cpp :
Pour Qwen3-235B-A22B, nous utiliserons spécifiquement Llama.cpp pour une inférence optimisée et une pléthore d'options.
Si vous voulez une version non quantifiée en pleine précision, utilisez notre Q8_K_XL, Q8_0 ou BF16 versions !
Obtenez la dernière
llama.cppsur GitHub ici. Vous pouvez aussi suivre les instructions de compilation ci-dessous. Changez-DGGML_CUDA=ONen-DGGML_CUDA=OFFsi vous n'avez pas de GPU ou si vous voulez simplement de l'inférence CPU. Pour les appareils Apple Mac / Metal, définissez-DGGML_CUDA=OFFpuis continuez comme d'habitude - le support Metal est activé par défaut.Vous pouvez utiliser directement llama.cpp pour télécharger le modèle, mais je suggère normalement d'utiliser
huggingface_hubPour utiliser llama.cpp directement, faites :Téléchargez le modèle via (après avoir installé
pip install huggingface_hub hf_transferNous suivons des étapes similaires à celles ci‑dessus, cependant cette fois nous devrons également effectuer des étapes supplémentaires car le modèle est si volumineux.local_dir = "unsloth/Qwen3-VL-8B-Instruct-GGUF", # Ou "unsloth/Qwen3-VL-8B-Thinking-GGUF"
Modifier
--threads -1pour le nombre de threads CPU,--ctx-size262114 pour la longueur de contexte,--n-gpu-layers 99pour le déchargement sur GPU du nombre de couches. Essayez de l'ajuster si votre GPU manque de mémoire. Supprimez-le également si vous avez uniquement une inférence CPU.
Utilisez -ot ".ffn_.*_exps.=CPU" pour décharger toutes les couches MoE sur le CPU ! Cela vous permet effectivement de placer toutes les couches non-MoE sur 1 GPU, améliorant les vitesses de génération. Vous pouvez personnaliser l'expression regex pour décharger plus de couches si vous avez plus de capacité GPU.
Instruct : Qwen3-235B-A22B-Instruct-2507
Étant donné qu'il s'agit d'un modèle non thinking, il n'est pas nécessaire de définir thinking=False et le modèle ne génère pas <think> </think> blocs.
⚙️ Bonnes pratiques
Pour obtenir des performances optimales, nous recommandons les paramètres suivants :
1. Paramètres d'échantillonnage : Nous suggérons d'utiliser temperature=0.7, top_p=0.8, top_k=20, et min_p=0. presence_penalty entre 0 et 2 si le framework le prend en charge afin de réduire les répétitions sans fin.
2. Longueur de sortie adéquate : Nous recommandons d'utiliser une longueur de sortie de 16,384 tokens pour la plupart des requêtes, ce qui est adéquat pour les modèles instruct.
3. Standardiser le format de sortie : Nous recommandons d'utiliser des prompts pour standardiser les sorties du modèle lors des benchmarks.
Problèmes de mathématiques : Inclure
Veuillez raisonner étape par étape, et mettre votre réponse finale dans \boxed{}.dans l'invite.Questions à choix multiple : Ajoutez la structure JSON suivante à l'invite pour standardiser les réponses : "Veuillez montrer votre choix dans le champ `answer` avec uniquement la lettre du choix, par ex. `"answer": "C".
✨Exécuter Qwen3-235B-A22B-Instruct via llama.cpp :
Pour Qwen3-235B-A22B, nous utiliserons spécifiquement Llama.cpp pour une inférence optimisée et une pléthore d'options.
Si vous voulez une version non quantifiée en pleine précision, utilisez notre Q8_K_XL, Q8_0 ou BF16 versions !
Obtenir la dernière version de llama.cpp sur GitHub ici. Vous pouvez également suivre les instructions de compilation ci-dessous. Changez
-DGGML_CUDA=ONen-DGGML_CUDA=OFFsi vous n'avez pas de GPU ou si vous voulez simplement de l'inférence CPU. Pour les appareils Apple Mac / Metal, définissez-DGGML_CUDA=OFFpuis continuez comme d'habitude - le support Metal est activé par défaut.
2. Vous pouvez utiliser directement llama.cpp pour télécharger le modèle, mais je suggère normalement d'utiliser huggingface_hub Pour utiliser llama.cpp directement, faites :\
3. Téléchargez le modèle via (après avoir installé pip install huggingface_hub hf_transfer Nous suivons des étapes similaires à celles ci‑dessus, cependant cette fois nous devrons également effectuer des étapes supplémentaires car le modèle est si volumineux.
4. Exécutez le modèle et testez n'importe quelle invite. 5. Éditez --threads -1 pour le nombre de threads CPU, --ctx-size 262114 pour la longueur de contexte, --n-gpu-layers 99 pour le déchargement sur GPU du nombre de couches. Essayez de l'ajuster si votre GPU manque de mémoire. Supprimez-le également si vous avez uniquement une inférence CPU.
Utilisez -ot ".ffn_.*_exps.=CPU" pour décharger toutes les couches MoE sur le CPU ! Cela vous permet effectivement de placer toutes les couches non-MoE sur 1 GPU, améliorant les vitesses de génération. Vous pouvez personnaliser l'expression regex pour décharger plus de couches si vous avez plus de capacité GPU.
🛠️ Améliorer la vitesse de génération
Si vous avez plus de VRAM, vous pouvez essayer de décharger plus de couches MoE, ou de décharger des couches entières elles-mêmes.
Normalement, -ot ".ffn_.*_exps.=CPU" décharge toutes les couches MoE sur le CPU ! Cela vous permet effectivement de placer toutes les couches non-MoE sur 1 GPU, améliorant les vitesses de génération. Vous pouvez personnaliser l'expression regex pour décharger plus de couches si vous avez plus de capacité GPU.
Si vous avez un peu plus de mémoire GPU, essayez -ot ".ffn_(up|down)_exps.=CPU" Cela décharge les couches MoE de projection up et down.
Essayez -ot ".ffn_(up)_exps.=CPU" si vous avez encore plus de mémoire GPU. Cela ne décharge que les couches MoE de projection up.
Vous pouvez aussi personnaliser la regex, par exemple -ot "\.(6|7|8|9|[0-9][0-9]|[0-9][0-9][0-9])\.ffn_(gate|up|down)_exps.=CPU" signifie décharger les couches MoE gate, up et down mais uniquement à partir de la 6e couche.
La dernière version de llama.cpp introduit aussi un mode haut débit. Utilisez llama-parallel. Lisez-en plus à ce sujet ici. Vous pouvez aussi quantifier le cache KV en 4 bits par exemple pour réduire les mouvements VRAM / RAM, ce qui peut aussi accélérer le processus de génération. La section suivante parle de la quantification du cache KV.
📐Comment adapter un long contexte
Pour adapter un contexte plus long, vous pouvez utiliser quantification du cache KV pour quantifier les caches K et V en bits plus faibles. Cela peut également augmenter la vitesse de génération en réduisant les mouvements de données RAM / VRAM. Les options autorisées pour la quantification de K (par défaut est f16) incluent ci-dessous.
--cache-type-k f32, f16, bf16, q8_0, q4_0, q4_1, iq4_nl, q5_0, q5_1
Vous devriez utiliser les _1 variantes pour une précision quelque peu accrue, bien que ce soit légèrement plus lent. Par ex q4_1, q5_1 Donc essayez --cache-type-k q4_1
Vous pouvez aussi quantifier le cache V, mais vous devrez compiler llama.cpp avec le support Flash Attention via -DGGML_CUDA_FA_ALL_QUANTS=ON, et utiliser --flash-attn pour l'activer. Après avoir installé Flash Attention, vous pouvez alors utiliser --cache-type-v q4_1
🦥 Fine-tuning Qwen3-2507 avec Unsloth
Unsloth rend Qwen3 et le fine-tuning de Qwen3-2507 2x plus rapides, utilise 70 % de VRAM en moins et prend en charge des longueurs de contexte 8x plus longues. Parce que Qwen3-2507 n'a été publié que dans une variante 30B, cela signifie que vous aurez besoin d'environ un GPU A100 40GB pour affiner le modèle en utilisant QLoRA (4 bits).
Pour un notebook, comme le modèle ne tient pas dans les GPU gratuits 16GB de Colab, vous devrez utiliser un A100 40GB. Vous pouvez utiliser notre notebook conversationnel mais remplacer le jeu de données par n'importe lequel des vôtres. Cette fois vous n'avez pas besoin de combiner le raisonnement dans votre jeu de données car le modèle n'a pas de raisonnement.
Si vous avez une ancienne version d’Unsloth et/ou affinez localement, installez la dernière version d’Unsloth :
Fine-tuning des modèles MOE Qwen3-2507
La prise en charge du fine-tuning inclut les modèles MOE : 30B-A3B et 235B-A22B. Qwen3-30B-A3B fonctionne sur 30GB de VRAM avec Unsloth. Lors de l'affinage des MoE - ce n'est probablement pas une bonne idée d'affiner la couche de routage, nous l'avons donc désactivée par défaut.
Notebooks Qwen3-2507-4B pour : Thinking et Instruct
Le 30B-A3B tient dans 30GB de VRAM, mais vous pourriez manquer de RAM ou d'espace disque puisque le modèle complet en 16 bits doit être téléchargé et converti en 4 bits à la volée pour le fine-tuning QLoRA. Cela est dû à des problèmes d'importation directe des modèles MOE 4-bit BnB. Cela n'affecte que les modèles MOE.
Si vous affinez les modèles MOE, veuillez utiliser FastModel et pas FastLanguageModel

Mis à jour
Ce contenu vous a-t-il été utile ?

