💜Qwen3.5 - Guide pour exécution locale

Exécutez les nouveaux LLM Qwen3.5 y compris Medium : Qwen3.5-35B-A3B, 27B, 122B-A10B, Small : Qwen3.5-0.8B, 2B, 4B, 9B et 397B-A17B sur votre appareil local !

Qwen3.5 est la nouvelle famille de modèles d’Alibaba, incluant Qwen3.5-35B-A3B, 27B, 122B-A10B et 397B-A17B et la nouvelle Petite série : Qwen3.5-0.8B, 2B, 4B et 9B. Les LLM hybrides de raisonnement multimodal offrent les meilleures performances pour leur taille. Ils prennent en charge contexte 256K dans 201 langues, ont réflexion + non-réflexion, et excellent en codage agentique, vision, chat et tâches à long contexte. Les modèles 35B et 27B fonctionnent sur un appareil Mac / RAM de 22 Go. Voir tous GGUFs iciarrow-up-right.

circle-check

Toutes les uploads utilisent Unsloth Dynamic 2.0arrow-up-right pour des performances de quantification SOTA - ainsi le 4 bits a des couches importantes rehaussées à 8 ou 16 bits. Merci à Qwen pour avoir fourni à Unsloth un accès day zero. Vous pouvez aussi affiner Qwen3.5 avec Unsloth.

circle-info

Pour activer ou désactiver la réflexion voir Qwen3.5.Les modèles Qwen3.5 Small sont désactivés par défaut. Voir aussi guide LM Studio pour activer le bascule Pensez.

35B-A3B27B122B-A10B397B-A17BAffiner Qwen3.50.8B • 2B • 4B • 9B

⚙️ Guide d’utilisation

Tableau : Exigences matérielles pour l’inférence (unités = mémoire totale : RAM + VRAM, ou mémoire unifiée)

Qwen3.5
3 bits
4 bits
6 bits
8 bits
BF16

3 Go

3.5 Go

5 Go

7,5 Go

9 Go

4,5 Go

5,5 Go

7 Go

10 Go

14 Go

5,5 Go

6,5 Go

9 Go

13 Go

19 Go

14 Go

17 Go

24 Go

30 Go

54 Go

17 Go

22 Go

30 Go

38 Go

70 Go

60 Go

70 Go

106 Go

132 Go

245 Go

180 Go

214 Go

340 Go

512 Go

810 Go

circle-check

Entre 27B et 35B-A3B, utilisez 27B si vous voulez des résultats légèrement plus précis et ne pouvez pas tenir sur votre appareil. Choisissez 35B-A3B si vous voulez une inférence beaucoup plus rapide.

Paramètres recommandés

  • Fenêtre de contexte maximale : 262,144 (peut être étendue à 1M via YaRN)

  • presence_penalty = 0.0 à 2.0 par défaut ceci est désactivé, mais pour réduire les répétitions, vous pouvez utiliser ceci, cependant utiliser une valeur plus élevée peut entraîner légère diminution des performances

  • Longueur de sortie adéquate: 32,768 tokens pour la plupart des requêtes

circle-info

Si vous obtenez du charabia, la longueur de votre contexte pourrait être trop faible. Ou essayez d’utiliser --cache-type-k bf16 --cache-type-v bf16 ce qui pourrait aider.

Comme Qwen3.5 est à raisonnement hybride, les modes réflexion et non-réflexion ont des paramètres différents :

Mode réflexion :

Tâches générales
Tâches de codage précises (par ex. WebDev)

temperature = 1.0

temperature = 0.6

top_p = 0.95

top_p = 0.95

top_k = 20

top_k = 20

min_p = 0.0

min_p = 0.0

presence_penalty = 1.5

presence_penalty = 0.0

repeat penalty = désactivée ou 1.0

repeat penalty = désactivée ou 1.0

Mode réflexion pour tâches générales :

Mode réflexion pour tâches de codage précises :

Paramètres du mode Instruct (non-réflexion) :

Tâches générales
Tâches de raisonnement

temperature = 0.7

temperature = 1.0

top_p = 0.8

top_p = 0.95

top_k = 20

top_k = 20

min_p = 0.0

min_p = 0.0

presence_penalty = 1.5

presence_penalty = 1.5

repeat penalty = désactivée ou 1.0

repeat penalty = désactivée ou 1.0

circle-exclamation

Instruct (non-réflexion) pour tâches générales :

Instruct (non-réflexion) pour tâches de raisonnement :

Tutoriels d’inférence Qwen3.5 :

Parce que Qwen3.5 existe en plusieurs tailles, nous utiliserons Dynamic 4-bit MXFP4_MOE variantes GGUF pour toutes les charges de travail d’inférence. Cliquez ci-dessous pour naviguer vers les instructions désignées du modèle :

Qwen3.5-35B-A3B27B122B-A10B397B-A17BPetite (0.8B • 2B • 4B • 9B)LM Studio

Uploads GGUF Unsloth :

circle-exclamation

🦙 Guides Llama.cpp

Qwen3.5-35B-A3B

Pour ce guide nous utiliserons Dynamic 4-bit qui fonctionne très bien sur un appareil Mac / 24 Go RAM pour une inférence rapide. Parce que le modèle fait seulement environ 72 Go en pleine précision F16, nous n’aurons pas trop à nous soucier des performances. GGUF : Qwen3.5-35B-A3B-GGUFarrow-up-right

Pour ces tutoriels, nous utiliserons llama.cpparrow-up-right pour une inférence locale rapide, surtout si vous avez un CPU.

1

Obtenez la dernière llama.cpp sur GitHub iciarrow-up-right. Vous pouvez suivre les instructions de compilation ci-dessous également. Changez -DGGML_CUDA=ON en -DGGML_CUDA=OFF si vous n’avez pas de GPU ou si vous voulez juste l’inférence CPU. Pour les appareils Apple Mac / Metal, définissez -DGGML_CUDA=OFF puis continuez comme d’habitude - le support Metal est activé par défaut.

2

Si vous voulez utiliser llama.cpp directement pour charger des modèles, vous pouvez faire ce qui suit : (:Q4_K_M) est le type de quantification. Vous pouvez aussi télécharger via Hugging Face (point 3). Ceci est similaire à ollama run . Utilisez export LLAMA_CACHE="folder" pour forcer llama.cpp à enregistrer à un emplacement spécifique. Le modèle a une longueur de contexte maximale de 256K.

Suivez une des commandes spécifiques ci-dessous, selon votre cas d’usage :

Mode réflexion :

Tâches de codage précises (par ex. WebDev) :

Tâches générales :

Mode non-réflexion :

Tâches générales :

Tâches de raisonnement :

3

Téléchargez le modèle via (après avoir installé pip install huggingface_hub hf_transfer ). Vous pouvez choisir Q4_K_M ou d’autres versions quantifiées comme UD-Q4_K_XL . Nous recommandons d’utiliser au minimum la quant dynamique 2-bit UD-Q2_K_XL pour équilibrer taille et précision. Si les téléchargements se bloquent, voyez : Hugging Face Hub, débogage XET

4

Ensuite lancez le modèle en mode conversation :

Qwen3.5 Small (0.8B • 2B • 4B • 9B)

circle-exclamation

Pour la série Qwen3.5 Small, comme ils sont si petits, tout ce que vous devez faire est de changer le nom du modèle dans les scripts pour la variante désirée. Pour ce guide spécifique nous utiliserons la variante à 9B paramètres. Pour les exécuter tous en quasi pleine précision, il vous faudra juste 12 Go de RAM / VRAM / mémoire unifiée. GGUFs :

1

Obtenez la dernière llama.cpp sur GitHub iciarrow-up-right. Vous pouvez suivre les instructions de compilation ci-dessous également. Changez -DGGML_CUDA=ON en -DGGML_CUDA=OFF si vous n’avez pas de GPU ou si vous voulez juste l’inférence CPU.

2

Si vous voulez utiliser llama.cpp directement pour charger des modèles, vous pouvez faire ce qui suit : (:Q4_K_XL) est le type de quantification. Vous pouvez aussi télécharger via Hugging Face (point 3). Ceci est similaire à ollama run . Utilisez export LLAMA_CACHE="folder" pour forcer llama.cpp à enregistrer à un emplacement spécifique. Le modèle a une longueur de contexte maximale de 256K.

Suivez une des commandes spécifiques ci-dessous, selon votre cas d’usage :

circle-check

Mode réflexion (désactivé par défaut)

triangle-exclamation

Tâches générales :

circle-check

Le mode non-réflexion est déjà activé par défaut

Tâches générales :

Tâches de raisonnement :

3

Téléchargez le modèle via (après avoir installé pip install huggingface_hub hf_transfer ). Vous pouvez choisir Q4_K_M ou d’autres versions quantifiées comme UD-Q4_K_XL . Nous recommandons d’utiliser au minimum la quant dynamique 2-bit UD-Q2_K_XL pour équilibrer taille et précision. Si les téléchargements se bloquent, voyez : Hugging Face Hub, débogage XET

4

Ensuite lancez le modèle en mode conversation :

Qwen3.5-27B

Pour ce guide nous utiliserons Dynamic 4-bit qui fonctionne très bien sur un appareil Mac / 18 Go RAM pour une inférence rapide. GGUF : Qwen3.5-27B-GGUFarrow-up-right

1

Obtenez la dernière llama.cpp sur GitHub iciarrow-up-right. Vous pouvez suivre les instructions de compilation ci-dessous également. Changez -DGGML_CUDA=ON en -DGGML_CUDA=OFF si vous n’avez pas de GPU ou si vous voulez juste l’inférence CPU.

2

Si vous voulez utiliser llama.cpp directement pour charger des modèles, vous pouvez faire ce qui suit : (:Q4_K_M) est le type de quantification. Vous pouvez aussi télécharger via Hugging Face (point 3). Ceci est similaire à ollama run . Utilisez export LLAMA_CACHE="folder" pour forcer llama.cpp à enregistrer à un emplacement spécifique. Le modèle a une longueur de contexte maximale de 256K.

Suivez une des commandes spécifiques ci-dessous, selon votre cas d’usage :

Mode réflexion :

Tâches de codage précises (par ex. WebDev) :

Tâches générales :

Mode non-réflexion :

Tâches générales :

Tâches de raisonnement :

3

Téléchargez le modèle via (après avoir installé pip install huggingface_hub hf_transfer ). Vous pouvez choisir MXFP4_MOE ou d’autres versions quantifiées comme UD-Q4_K_XL . Nous recommandons d’utiliser au minimum la quant dynamique 2-bit UD-Q2_K_XL pour équilibrer taille et précision. Si les téléchargements se bloquent, voyez : Hugging Face Hub, débogage XET

4

Ensuite lancez le modèle en mode conversation :

Qwen3.5-122B-A10B

Pour ce guide nous utiliserons Dynamic 4-bit qui fonctionne très bien sur un appareil Mac / 70 Go RAM pour une inférence rapide. GGUF : Qwen3.5-122B-A10B-GGUFarrow-up-right

1

Obtenez la dernière llama.cpp sur GitHub iciarrow-up-right. Vous pouvez suivre les instructions de compilation ci-dessous également. Changez -DGGML_CUDA=ON en -DGGML_CUDA=OFF si vous n’avez pas de GPU ou si vous voulez juste l’inférence CPU.

2

Si vous voulez utiliser llama.cpp directement pour charger des modèles, vous pouvez faire ce qui suit : (:Q4_K_M) est le type de quantification. Vous pouvez aussi télécharger via Hugging Face (point 3). Ceci est similaire à ollama run . Utilisez export LLAMA_CACHE="folder" pour forcer llama.cpp à enregistrer à un emplacement spécifique. Le modèle a une longueur de contexte maximale de 256K.

Suivez une des commandes spécifiques ci-dessous, selon votre cas d’usage :

Mode réflexion :

Tâches de codage précises (par ex. WebDev) :

Tâches générales :

Mode non-réflexion :

Tâches générales :

Tâches de raisonnement :

3

Téléchargez le modèle via (après avoir installé pip install huggingface_hub hf_transfer ). Vous pouvez choisir MXFP4_MOE (dynamic 4bit) ou d’autres versions quantifiées comme UD-Q4_K_XL . Nous recommandons d’utiliser au minimum la quant dynamique 2-bit UD-Q2_K_XL pour équilibrer taille et précision. Si les téléchargements se bloquent, voyez : Hugging Face Hub, débogage XET

4

Ensuite lancez le modèle en mode conversation :

Qwen3.5-397B-A17B

Qwen3.5-397B-A17B se situe dans la même catégorie de performance que Gemini 3 Pro, Claude Opus 4.5 et GPT-5.2. Le checkpoint complet 397B occupe ~807 Go sur le disque, mais via les GGUFs 397B d’Unslotharrow-up-right vous pouvez exécuter :

  • 3 bits: tient sur 192 Go de RAM systèmes (par ex., un Mac 192 Go)

  • 4 bits (MXFP4): tient sur 256 Go de RAM. Unsloth 4-bit dynamique UD-Q4_K_XL est ~214 Go sur le disque - se charge directement sur un 256 Go M3 Ultra

  • Fonctionne sur un GPU unique 24 Go + 256 Go RAM système via déchargement MoE, atteignant 25+ tokens/s

  • 8 bits nécessite ~512 Go RAM/VRAM

circle-info

Voir benchmarks de quantification 397B sur la façon dont les GGUFs Unsloth performent.

1

Obtenez la dernière llama.cpp sur GitHub iciarrow-up-right. Vous pouvez suivre les instructions de compilation ci-dessous également. Changez -DGGML_CUDA=ON en -DGGML_CUDA=OFF si vous n’avez pas de GPU ou si vous voulez juste l’inférence CPU.

2

Si vous voulez utiliser llama.cpp directement pour charger des modèles, vous pouvez faire ce qui suit : (:Q4_K_M) est le type de quantification. Vous pouvez aussi télécharger via Hugging Face (point 3). Ceci est similaire à ollama run . Utilisez export LLAMA_CACHE="folder" pour forcer llama.cpp pour enregistrer à un emplacement spécifique. Rappelez-vous que le modèle n’a qu’une longueur de contexte maximale de 256K.

Suivez ceci pour réflexion mode :

Suivez ceci pour non-réflexion mode :

3

Téléchargez le modèle via (après avoir installé pip install huggingface_hub hf_transfer ). Vous pouvez choisir MXFP4_MOE (dynamic 4bit) ou d’autres versions quantifiées comme UD-Q4_K_XL . Nous recommandons d’utiliser au minimum la quant dynamique 2-bit UD-Q2_K_XL pour équilibrer taille et précision. Si les téléchargements se bloquent, voyez : Hugging Face Hub, débogage XET

4

Vous pouvez éditer --threads 32 pour le nombre de threads CPU, --ctx-size 16384 pour la longueur du contexte, --n-gpu-layers 2 pour le déchargement GPU sur combien de couches. Essayez de l’ajuster si votre GPU manque de mémoire. Supprimez-le aussi si vous avez seulement l’inférence CPU.

👾 Guide LM Studio

Pour ce guide, nous utiliserons LM Studioarrow-up-right, une interface UI unifiée pour exécuter des LLMs. Le bascule '💡Thinking' et 'Non-thinking' peut ne pas apparaître par défaut donc nous aurons besoin d’étapes supplémentaires pour le faire fonctionner.

1

Téléchargez LM Studioarrow-up-right pour votre appareil. Puis ouvrez Model Search, recherchez 'unsloth/qwen3.5', et téléchargez le GGUF (quant) que vous désirez.

2

Instructions pour le bascule Thinking : Après le téléchargement, ouvrez votre Terminal / PowerShell et essayez : lms --help. Ensuite si LM Studio apparaît normalement avec de nombreuses commandes, exécutez :

Cela obtiendra un fichier yaml qui permet à votre GGUF d’avoir le bascule '💡Thinking' et 'Non-thinking'. Vous pouvez changer 4b en la quantification désirée que vous souhaitez avoir.

Sinon, vous pouvez aller sur notre page LM Studioarrow-up-right et télécharger le fichier yaml spécifique.

3

Redémarrez LM Studio, puis chargez votre modèle téléchargé (avec le bascule thinking spécifique que vous avez téléchargé). Vous devriez maintenant voir le bascule Thinking activé. N’oubliez pas de définir les paramètres corrects.

🦙 Service Llama-server & la bibliothèque de complétions d’OpenAI

Pour déployer Qwen3.5-397B-A17B en production, nous utilisons llama-server Dans un nouveau terminal dites via tmux, déployez le modèle via :

Puis dans un nouveau terminal, après avoir fait pip install openai, faites :

🤔 Comment activer ou désactiver le raisonnement et la réflexion

Pour les commandes ci-dessous, vous pouvez utiliser 'true' et 'false ' de façon interchangeable. Pour avoir Le bascule Think pour LM Studio, lisez notre guide.

circle-info

Pour désactiver la réflexion / le raisonnement, utilisez dans llama-server :

Si vous êtes sur Windows ou Powershell, utilisez : --chat-template-kwargs "{\"enable_thinking\":false}"

circle-info

Pour activer la réflexion / le raisonnement, utilisez dans llama-server :

Si vous êtes sur Windows ou Powershell, utilisez : --chat-template-kwargs "{\"enable_thinking\":true}"

triangle-exclamation

À titre d’exemple pour Qwen3.5-9B pour activer la réflexion (par défaut elle est désactivée) :

Et ensuite en Python :

👨‍💻 OpenAI Codex & Claude Code

Pour exécuter le modèle via des charges de travail agentiques locales de codage, vous pouvez suivre notre guide. Il suffit de changer le nom du modèle en votre variante 'Qwen3.5' désirée et de vous assurer de suivre les paramètres et instructions d’utilisation corrects de Qwen3.5. Utilisez le llama-server que nous venons de configurer à l’instant.

Après avoir suivi les instructions pour Claude Code par exemple vous verrez :

Nous pouvons alors demander par exemple Créez un jeu Python pour les échecs :

🔨Appel d’outils avec Qwen3.5

Voir Tool Calling Guide pour plus de détails sur comment faire des appels d’outils. Dans un nouveau terminal (si vous utilisez tmux, utilisez CTRL+B+D), nous créons quelques outils comme additionner 2 nombres, exécuter du code Python, exécuter des fonctions Linux et bien plus :

Nous utilisons ensuite les fonctions ci-dessous (copier-coller et exécuter) qui analyseront automatiquement les appels de fonction et appelleront le point de terminaison OpenAI pour tout modèle :

Après le lancement de Qwen3.5 via llama-server comme dans Qwen3.5 ou voir Tool Calling Guide pour plus de détails, nous pouvons ensuite effectuer des appels d'outils.

📊 Benchmarks

Benchmarks Unsloth GGUF

Nous avons mis à jour Qwen3.5-35B Unsloth Dynamic quants étant SOTA sur presque tous les aspects. Nous avons réalisé plus de 150 benchmarks de divergence KL, au total 9 To de GGUFs. Nous avons téléchargé tous les artefacts de recherche. Nous avons également corrigé un appel d'outil modèle de chat bogue (affecte tous les uploaders de quantification)

  • Tous les GGUFs sont maintenant mis à jour avec une quantification améliorée algorithme.

  • Tous utilisent notre nouvelle donnée imatrix. Voyez des améliorations dans les cas d’usage de chat, codage, long contexte et appel d’outils.

  • Les GGUFs Qwen3.5-35B-A3B sont mis à jour pour utiliser les nouvelles corrections (112B, 27B en cours de conversion, retéléchargez une fois qu'ils sont mis à jour)

  • 99,9% de divergence KL montre SOTA sur le front de Pareto pour UD-Q4_K_XL, IQ3_XXS et plus.

  • Retrait de MXFP4 de toutes les quantifications GGUF : Q2_K_XL, Q3_K_XL et Q4_K_XL, sauf pour le pur MXFP4_MOE.

35B-A3B - Benchmarks KLD (plus bas est meilleur)
122B-A10B - Benchmarks KLD (plus bas est meilleur)

LIRE NOTRE ANALYSE DÉTAILLÉE DE QWEN3.5 + BENCHMARKS ICI :

chart-fftBenchmarks GGUF Qwen3.5chevron-right

Benchmarks Qwen3.5-397B-A17B

Benjamin Marie (tiers) a évaluéarrow-up-right Qwen3.5-397B-A17B en utilisant les Unsloth GGUFs sur un ensemble mixte de 750 prompts (LiveCodeBench v6, MMLU Pro, GPQA, Math500), rapportant à la fois précision globale et augmentation relative d'erreur (à quelle fréquence le modèle quantifié fait des erreurs par rapport à l'original).

Résultats clés (précision ; changement vs. l'original ; augmentation relative d'erreur) :

  • Poids originaux : 81.3%

  • UD-Q4_K_XL : 80.5% (−0,8 point ; +4,3 % d'augmentation relative d'erreur)

  • UD-Q3_K_XL : 80.7% (−0,6 point ; +3,5 % d'augmentation relative d'erreur)

UD-Q4_K_XL et UD-Q3_K_XL restent extrêmement proches de l'original, bien en dessous d'une baisse d'1 point de précision sur cette suite, ce qui laisse entendre par Ben que vous pouvez réduire fortement l'empreinte mémoire (~500 Go de moins) avec peu ou pas de perte pratique sur les tâches testées.

Comment choisir : Que Q3 obtienne un score légèrement supérieur à Q4 ici est tout à fait plausible en tant que variance normale d'exécution à cette échelle, donc considérez Q3 et Q4 comme des qualités effectivement similaires dans ce benchmark :

  • Choisissez Q3 si vous voulez le plus petit empreinte / meilleures économies de mémoire

  • Choisissez Q4 si vous voulez une option légèrement plus conservative avec des résultats similaires

Toutes les quantifications listées utilisent notre méthodologie dynamique. Même UD-IQ2_M utilise la même méthodologie dynamique cependant le processus de conversion est différent de UD-Q2-K-XL où K-XL est généralement plus rapide que UD-IQ2_M même s'il est plus grand, c'est pourquoi UD-IQ2_M peut mieux performer que UD-Q2-K-XL.

Benchmarks officiels de Qwen

Benchmarks Qwen3.5-35B-A3B, 27B et 122B-A10B

Benchmarks Qwen3.5-4B et 9B

Benchmarks Qwen3.5-397B-A17B

Mis à jour

Ce contenu vous a-t-il été utile ?