# DeepSeek-V3.1 : comment l'exécuter localement

La V3.1 de DeepSeek et **Terminus** la mise à jour introduit un raisonnement hybride d'inférence, combinant « penser » et « non-penser » en un seul modèle. Le modèle complet de 671 milliards de paramètres nécessite 715 Go d'espace disque. La version dynamique quantifiée en 2 bits utilise 245 Go (-75 % de réduction de taille). GGUF : [**DeepSeek-V3.1-GGUF**](https://huggingface.co/unsloth/DeepSeek-V3.1-GGUF)

{% hint style="success" %}
**NOUVEAU :** DeepSeek-V3.1-Terminus disponible maintenant : [DeepSeek-V3.1-Terminus-GGUF](https://huggingface.co/unsloth/DeepSeek-V3.1-Terminus-GGUF)\
\
[**Mise à jour du 10 sept. 2025 :**](https://unsloth.ai/docs/fr/bases/unsloth-dynamic-2.0-ggufs/unsloth-dynamic-ggufs-on-aider-polyglot) Vous avez demandé des benchmarks plus exigeants, nous présentons donc les résultats Aider Polyglot ! Nos GGUF DeepSeek V3.1 dynamiques en 3 bits obtiennent **75.6%**, dépassant de nombreux LLM SOTA en précision complète. [En savoir plus.](https://unsloth.ai/docs/fr/bases/unsloth-dynamic-2.0-ggufs/unsloth-dynamic-ggufs-on-aider-polyglot)

Nos GGUF DeepSeek-V3.1 incluent Unsloth [corrections de modèle de chat](#chat-template-bug-fixes) pour les backends pris en charge par llama.cpp.
{% endhint %}

Tous les téléchargements utilisent Unsloth [méthodologie Dynamic 2.0](https://unsloth.ai/docs/fr/bases/unsloth-dynamic-2.0-ggufs) pour des performances SOTA en MMLU 5-shot et en divergence KL, ce qui signifie que vous pouvez exécuter et affiner des LLM DeepSeek quantifiés avec une perte d'exactitude minimale.

**Navigation des tutoriels :**

<a href="#run-in-llama.cpp" class="button secondary">Exécuter dans llama.cpp</a><a href="#run-in-ollama-open-webui" class="button secondary">Exécuter dans Ollama/Open WebUI</a>

## :gear: Paramètres recommandés

La quantification dynamique 1-bit TQ1\_0 (1 bit pour les couches MoE peu importantes, 2-4 bits pour les MoE importantes, et 6-8 bits pour le reste) utilise 170 Go d'espace disque - cela fonctionne bien dans un **1x24Go de carte et 128 Go de RAM** avec déchargement MoE - cela **nativement dans Ollama**!

{% hint style="info" %}
Vous devez utiliser `--jinja` pour les quants llama.cpp - cela utilise nos [modèles de chat fixes](#chat-template-bug-fixes) et active le bon modèle ! Vous pourriez obtenir des résultats incorrects si vous n'utilisez pas `--jinja`
{% endhint %}

Les quantifications 2 bits tiendront dans un GPU 1x 24 Go (avec les couches MoE déchargées en RAM). Attendez-vous à environ 5 tokens/s avec cette configuration si vous disposez en plus de 128 Go de RAM. Il est recommandé d'avoir au moins 226 Go de RAM pour exécuter ce 2 bits. Pour des performances optimales, vous aurez besoin d'au moins 226 Go de mémoire unifiée ou de 226 Go combinés RAM+VRAM pour 5+ tokens/s. Pour apprendre comment augmenter la vitesse de génération et accueillir des contextes plus longs, [lire ici](#improving-generation-speed).

{% hint style="success" %}
Bien que ce ne soit pas obligatoire, pour de meilleures performances, faites en sorte que votre VRAM + RAM combinées soient égales à la taille du quant que vous téléchargez. Sinon, le déchargement sur disque dur / SSD fonctionnera avec llama.cpp, seule l'inférence sera plus lente.
{% endhint %}

## :butterfly:Corrections de bugs du modèle de chat

Nous avons corrigé quelques problèmes avec le modèle de chat de DeepSeek V3.1 car ils ne fonctionnaient pas correctement dans llama.cpp et d'autres moteurs :

1. DeepSeek V3.1 est un modèle de raisonnement hybride, ce qui signifie que vous pouvez modifier le modèle de chat pour activer le raisonnement. Le modèle de chat introduisait `thinking = True` , mais d'autres modèles utilisent `enable_thinking = True` . Nous avons ajouté l'option d'utiliser `enable_thinking` comme mot-clé à la place.
2. le renderer jinja de llama.cpp via [minja](https://github.com/google/minja) n'autorise pas l'utilisation d'arguments supplémentaires dans la commande `.split()` , donc l'utilisation de `.split(text, 1)` fonctionne en Python, mais pas en minja. Nous avons dû changer cela pour que llama.cpp fonctionne correctement sans générer d'erreur.\
   \
   Vous obtiendrez l'erreur suivante en utilisant d'autres quants :\
   `terminate called after throwing an instance of 'std::runtime_error' what(): split method must have between 1 and 1 positional arguments and between 0 and 0 keyword arguments at row 3, column 1908` Nous l'avons corrigé dans tous nos quants !

### 🐳Paramètres officiellement recommandés

Selon [DeepSeek](https://huggingface.co/deepseek-ai/DeepSeek-V3.1), voici les paramètres recommandés pour l'inférence V3.1 :

* Réglez la <mark style="background-color:green;">**température à 0,6**</mark> pour réduire les répétitions et l'incohérence.
* Réglez <mark style="background-color:green;">**top\_p à 0,95**</mark> (recommandé)
* **longueur de contexte 128K** ou moins
* Utilisez `--jinja` pour les variantes llama.cpp - nous **avons également corrigé certains problèmes de modèles de chat !**
* **Utilisez** `enable_thinking = True` pour utiliser le mode raisonnement / pensée. Par défaut, il est réglé sur non raisonnement.

#### :1234: Format du modèle de chat / du prompt

Vous n'avez pas besoin de forcer `<think>\n` , mais vous pouvez toujours l'ajouter ! Avec le préfixe donné, DeepSeek V3.1 génère des réponses aux requêtes en mode non-pensée. Contrairement à DeepSeek V3, il introduit un jeton supplémentaire `</think>`.

```
<｜begin▁of▁sentence｜>{system prompt}<｜User｜>{query}<｜Assistant｜></think>
```

Un BOS est ajouté de force, et un EOS sépare chaque interaction. Pour éviter les doubles tokens BOS pendant l'inférence, vous ne devez appeler que `tokenizer.encode(..., add_special_tokens = False)` puisque le modèle de chat ajoute automatiquement un jeton BOS également. Pour l'inférence llama.cpp / GGUF, vous devez omettre le BOS car il l'ajoutera automatiquement.

#### :notebook\_with\_decorative\_cover: Mode Non-Pensée (utilisez `thinking = False`ou `enable_thinking = False` et est par défaut)

**Premier tour**

Préfixe : `<｜begin▁of▁sentence｜>{system prompt}<｜User｜>{query}<｜Assistant｜></think>`

Avec le préfixe donné, DeepSeek V3.1 génère des réponses aux requêtes en mode non-pensée. Contrairement à DeepSeek V3, il introduit un jeton supplémentaire `</think>`.

**Multi-Tour**

Contexte : `<｜begin▁of▁sentence｜>{system prompt}<｜User｜>{query}<｜Assistant｜></think>{response}<｜end▁of▁sentence｜>...<｜User｜>{query}<｜Assistant｜></think>{response}<｜end▁of▁sentence｜>`

Préfixe : `<｜User｜>{query}<｜Assistant｜></think>`

En concaténant le contexte et le préfixe, nous obtenons le prompt correct pour la requête.

#### :books: Mode Pensée (utilisez `thinking = True`ou `enable_thinking = True` et est par défaut)

**Premier tour**

Préfixe : `<｜begin▁of▁sentence｜>{system prompt}<｜User｜>{query}<｜Assistant｜><think>`

Le préfixe du mode pensée est similaire à DeepSeek-R1.

**Multi-Tour**

Contexte : `<｜begin▁of▁sentence｜>{system prompt}<｜User｜>{query}<｜Assistant｜></think>{response}<｜end▁of▁sentence｜>...<｜User｜>{query}<｜Assistant｜></think>{response}<｜end▁of▁sentence｜>`

Préfixe : `<｜User｜>{query}<｜Assistant｜><think>`

Le modèle multi-tour est le même que le modèle multi-tour non-pensée. Cela signifie que le jeton de pensée du dernier tour sera supprimé mais le `</think>` est conservé à chaque tour du contexte.

#### :bow\_and\_arrow: Appel d'outil

L'appel d'outil est pris en charge en mode non-pensée. Le format est :

`<｜begin▁of▁sentence｜>{system prompt}{tool_description}<｜User｜>{query}<｜Assistant｜></think>` où nous remplissons la zone tool\_description après le system prompt.

## :arrow\_forward:Exécuter les tutoriels DeepSeek-V3.1 :

### :llama: Exécuter dans Ollama/Open WebUI

{% stepper %}
{% step %}
Installer `ollama` si vous ne l'avez pas encore fait ! Pour exécuter d'autres variantes du modèle, [voir ici](#run-in-llama.cpp).

```bash
apt-get update
apt-get install pciutils -y
curl -fsSL https://ollama.com/install.sh | sh
```

{% endstep %}

{% step %}
Exécutez le modèle ! Notez que vous pouvez appeler `ollama serve`dans un autre terminal s'il échoue ! Nous incluons toutes nos corrections et paramètres suggérés (température etc.) dans `params` dans notre upload Hugging Face !\
\&#xNAN;**(NOUVEAU) Pour exécuter le modèle complet R1-0528 dans Ollama, vous pouvez utiliser notre quant TQ1\_0 (170 Go) :**

```bash
OLLAMA_MODELS=unsloth ollama serve &

OLLAMA_MODELS=unsloth ollama run hf.co/unsloth/DeepSeek-V3.1-Terminus-GGUF:TQ1_0
```

{% endstep %}

{% step %}
Pour exécuter d'autres quants, vous devez d'abord fusionner les fichiers GGUF divisés en 1 comme le code ci-dessous. Ensuite vous devrez exécuter le modèle localement.

```bash
./llama.cpp/llama-gguf-split --merge \
  DeepSeek-V3.1-Terminus-GGUF/DeepSeek-V3.1-Terminus-UD-Q2_K_XL/DeepSeek-V3.1-Terminus-UD-Q2_K_XL-00001-of-00006.gguf \
	fichier_fusionné.gguf
```

```bash
OLLAMA_MODELS=unsloth ollama serve &

OLLAMA_MODELS=unsloth ollama run fichier_fusionné.gguf
```

{% endstep %}

{% step %}
Open WebUI a également créé un [tutoriel pas à pas](https://docs.openwebui.com/tutorials/integrations/deepseekr1-dynamic/) sur la façon d'exécuter R1 et pour V3.1, vous devrez simplement remplacer R1 par le nouveau quant V3.1.
{% endstep %}
{% endstepper %}

### ✨ Exécuter dans llama.cpp

{% stepper %}
{% step %}
Obtenez la dernière `llama.cpp` sur [GitHub ici](https://github.com/ggml-org/llama.cpp). Vous pouvez aussi suivre les instructions de compilation ci-dessous. Changez `-DGGML_CUDA=ON` en `-DGGML_CUDA=OFF` si vous n'avez pas de GPU ou si vous voulez simplement de l'inférence CPU.

```bash
apt-get update
apt-get install pciutils build-essential cmake curl libcurl4-openssl-dev -y
git clone https://github.com/ggerganov/llama.cpp
cmake llama.cpp -B llama.cpp/build \
    -DBUILD_SHARED_LIBS=OFF -DGGML_CUDA=ON -DLLAMA_CURL=ON
cmake --build llama.cpp/build --config Release -j --clean-first --target llama-quantize llama-cli llama-gguf-split llama-mtmd-cli llama-server
cp llama.cpp/build/bin/llama-* llama.cpp
```

{% endstep %}

{% step %}
Si vous voulez utiliser `llama.cpp` directement pour charger des modèles, vous pouvez faire ce qui suit : (:Q2\_K\_XL) est le type de quantification. Vous pouvez aussi télécharger via Hugging Face (point 3). C'est similaire à `ollama run` . Utilisez `export LLAMA_CACHE="dossier"` pour forcer `llama.cpp` à enregistrer à un emplacement spécifique. Rappelez-vous que le modèle a seulement une longueur de contexte maximale de 128K.

{% hint style="success" %}
Veuillez essayer `-ot ".ffn_.*_exps.=CPU"` pour décharger toutes les couches MoE sur le CPU ! Cela vous permet effectivement de placer toutes les couches non-MoE sur 1 GPU, améliorant les vitesses de génération. Vous pouvez personnaliser l'expression regex pour décharger plus de couches si vous avez plus de capacité GPU.

Si vous avez un peu plus de mémoire GPU, essayez `-ot ".ffn_(up|down)_exps.=CPU"` Cela décharge les couches MoE de projection up et down.

Essayez `-ot ".ffn_(up)_exps.=CPU"` si vous avez encore plus de mémoire GPU. Cela ne décharge que les couches MoE de projection up.

Et enfin déchargez toutes les couches via `-ot ".ffn_.*_exps.=CPU"` Ceci utilise le moins de VRAM.

Vous pouvez aussi personnaliser la regex, par exemple `-ot "\.(6|7|8|9|[0-9][0-9]|[0-9][0-9][0-9])\.ffn_(gate|up|down)_exps.=CPU"` signifie décharger les couches MoE gate, up et down mais uniquement à partir de la 6e couche.
{% endhint %}

```bash
export LLAMA_CACHE="unsloth/DeepSeek-V3.1-GGUF"
./llama.cpp/llama-cli \
    -hf unsloth/DeepSeek-V3.1-Terminus-GGUF:UD-Q2_K_XL \
    --jinja \
    --n-gpu-layers 99 \
    --temp 0.6 \
    --top-p 0.95 \
    --min-p 0.01 \
    --ctx-size 16384 \
    --seed 3407 \
    -ot ".ffn_.*_exps.=CPU"
```

{% endstep %}

{% step %}
Téléchargez le modèle via (après avoir installé `pip install huggingface_hub hf_transfer` ). Vous pouvez choisir `UD-`Q2\_K\_XL (quant dynamique 2 bits) ou d'autres versions quantifiées comme `Q4_K_M` . Nous <mark style="background-color:green;">**recommandons d'utiliser notre quant dynamique 2,7 bits**</mark><mark style="background-color:green;">**&#x20;**</mark><mark style="background-color:green;">**`UD-Q2_K_XL`**</mark><mark style="background-color:green;">**&#x20;**</mark><mark style="background-color:green;">**pour équilibrer taille et précision**</mark>.

```python
# !pip install huggingface_hub hf_transfer
import os
os.environ["HF_HUB_ENABLE_HF_TRANSFER"] = "0" # Peut parfois limiter le débit, donc mettez à 0 pour désactiver
from huggingface_hub import snapshot_download
snapshot_download(
    repo_id = "unsloth/DeepSeek-V3.1-Terminus-GGUF",
    local_dir = "unsloth/DeepSeek-V3.1-Terminus-GGUF",
    allow_patterns = ["*UD-Q2_K_XL*"], # Dynamic 2bit Utilisez "*UD-TQ1_0*" pour Dynamic 1bit
)
```

{% endstep %}

{% step %}
Vous pouvez modifier `--threads 32` pour le nombre de threads CPU, `--ctx-size 16384` pour la longueur de contexte, `--n-gpu-layers 2` pour le déchargement sur GPU du nombre de couches. Essayez de l'ajuster si votre GPU manque de mémoire. Supprimez-le également si vous avez uniquement une inférence CPU.

{% code overflow="wrap" %}

```bash
./llama.cpp/llama-cli \
    --model unsloth/DeepSeek-V3.1-Terminus-GGUF/UD-Q2_K_XL/DeepSeek-V3.1-Terminus-UD-Q2_K_XL-00001-of-00006.gguf \
    --jinja \
    --n-gpu-layers 99 \
    --temp 0.6 \
    --top-p 0.95 \
    --min-p 0.01 \
    --ctx-size 16384 \
    --seed 3407 \
    -ot ".ffn_.*_exps.=CPU"
```

{% endcode %}
{% endstep %}

{% step %}
Obtenez la version 1bit (170 Go) si vous n'avez pas assez de RAM et VRAM combinées :

```python
from huggingface_hub import snapshot_download
snapshot_download(
    repo_id = "unsloth/DeepSeek-V3.1-Terminus-GGUF",
    local_dir = "unsloth/DeepSeek-V3.1-Terminus-GGUF",
    allow_patterns = ["*UD-TQ1_0*"], # Utilisez "*UD-Q2_K_XL*" pour Dynamic 2bit
)
```

{% endstep %}
{% endstepper %}

### ✨ Déployer avec llama-server et la bibliothèque de complétions d'OpenAI

Pour utiliser llama-server pour le déploiement, utilisez la commande suivante :

{% code overflow="wrap" %}

```bash
./llama.cpp/llama-server \
    --model unsloth/DeepSeek-V3.1-Terminus-GGUF/DeepSeek-V3.1-Terminus-UD-TQ1_0.gguf \
    --alias "unsloth/DeepSeek-V3.1-Terminus" \
    --n-gpu-layers 999 \
    -ot ".ffn_.*_exps.=CPU" \
    --prio 3 \
    --min_p 0.01 \
    --ctx-size 16384 \
    --port 8001 \
    --jinja
```

{% endcode %}

Puis utilisez la bibliothèque Python d'OpenAI après `pip install openai` :

```python
from openai import OpenAI
import json
openai_client = OpenAI(
    base_url = "http://127.0.0.1:8001/v1",
    api_key = "sk-no-key-required",
)
completion = openai_client.chat.completions.create(
    model = "unsloth/DeepSeek-V3.1-Terminus",
    messages = [{"role": "user", "content": "What is 2+2?"},],
)
print(completion.choices[0].message.content)
```

## :minidisc:Téléversements de modèles

**TOUS nos téléversements** - y compris ceux qui ne sont pas basés sur imatrix ou dynamiques, utilisent notre jeu de données de calibration, spécialement optimisé pour les tâches conversationnelles, de codage et de langue.

* Téléversements complets du modèle DeepSeek-V3.1 ci-dessous :

Nous avons aussi téléversé [IQ4\_NL](https://huggingface.co/unsloth/DeepSeek-V3.1-GGUF/tree/main/IQ4_NL) et [Q4\_1](https://huggingface.co/unsloth/DeepSeek-V3.1-GGUF/tree/main/Q4_1) des quants qui s'exécutent spécifiquement plus rapidement pour les appareils ARM et Apple respectivement.

<table data-full-width="false"><thead><tr><th>Bits MoE</th><th>Type + Lien</th><th>Taille sur disque</th><th>Détails</th></tr></thead><tbody><tr><td>1,66 bit</td><td><a href="https://huggingface.co/unsloth/DeepSeek-V3.1-GGUF?show_file_info=DeepSeek-V3.1-UD-TQ1_0.gguf">TQ1_0</a></td><td><strong>170 Go</strong></td><td>1,92/1,56 bit</td></tr><tr><td>1,78 bit</td><td><a href="https://huggingface.co/unsloth/DeepSeek-V3.1-GGUF/tree/main/UD-IQ1_S">IQ1_S</a></td><td><strong>185 Go</strong></td><td>2,06/1,56 bit</td></tr><tr><td>1,93 bit</td><td><a href="https://huggingface.co/unsloth/DeepSeek-V3.1-GGUF/tree/main/UD-IQ1_M">IQ1_M</a></td><td><strong>200 Go</strong></td><td>2.5/2.06/1.56</td></tr><tr><td>2,42 bit</td><td><a href="https://huggingface.co/unsloth/DeepSeek-V3.1-GGUF/tree/main/UD-IQ2_XXS">IQ2_XXS</a></td><td><strong>216 Go</strong></td><td>2,5/2,06 bit</td></tr><tr><td>2,71 bit</td><td><a href="https://huggingface.co/unsloth/DeepSeek-V3.1-GGUF/tree/main/UD-Q2_K_XL">Q2_K_XL</a></td><td><strong>251 Go</strong></td><td>3,5/2,5 bit</td></tr><tr><td>3,12 bit</td><td><a href="https://huggingface.co/unsloth/DeepSeek-V3.1-GGUF/tree/main/UD-IQ3_XXS">IQ3_XXS</a></td><td><strong>273 Go</strong></td><td>3,5/2,06 bit</td></tr><tr><td>3,5 bit</td><td><a href="https://huggingface.co/unsloth/DeepSeek-V3.1-GGUF/tree/main/UD-Q3_K_XL">Q3_K_XL</a></td><td><strong>296 Go</strong></td><td>4,5/3,5 bit</td></tr><tr><td>4,5 bit</td><td><a href="https://huggingface.co/unsloth/DeepSeek-V3.1-GGUF/tree/main/UD-Q4_K_XL">Q4_K_XL</a></td><td><strong>384 Go</strong></td><td>5,5/4,5 bit</td></tr><tr><td>5,5 bit</td><td><a href="https://huggingface.co/unsloth/DeepSeek-V3.1-GGUF/tree/main/UD-Q5_K_XL">Q5_K_XL</a></td><td><strong>481 Go</strong></td><td>6,5/5,5 bit</td></tr></tbody></table>

Nous avons également téléversé des versions en [format BF16](https://huggingface.co/unsloth/DeepSeek-V3.1-BF16), et le format original [format FP8 (float8)](https://huggingface.co/unsloth/DeepSeek-V3.1).

## :snowboarder: Amélioration de la vitesse de génération

Si vous avez plus de VRAM, vous pouvez essayer de décharger plus de couches MoE, ou de décharger des couches entières elles-mêmes.

Normalement, `-ot ".ffn_.*_exps.=CPU"` décharge toutes les couches MoE sur le CPU ! Cela vous permet effectivement de placer toutes les couches non-MoE sur 1 GPU, améliorant les vitesses de génération. Vous pouvez personnaliser l'expression regex pour décharger plus de couches si vous avez plus de capacité GPU.

Si vous avez un peu plus de mémoire GPU, essayez `-ot ".ffn_(up|down)_exps.=CPU"` Cela décharge les couches MoE de projection up et down.

Essayez `-ot ".ffn_(up)_exps.=CPU"` si vous avez encore plus de mémoire GPU. Cela ne décharge que les couches MoE de projection up.

Vous pouvez aussi personnaliser la regex, par exemple `-ot "\.(6|7|8|9|[0-9][0-9]|[0-9][0-9][0-9])\.ffn_(gate|up|down)_exps.=CPU"` signifie décharger les couches MoE gate, up et down mais uniquement à partir de la 6e couche.

La [dernière version de llama.cpp](https://github.com/ggml-org/llama.cpp/pull/14363) introduit aussi un mode haut débit. Utilisez `llama-parallel`. Lisez-en plus à ce sujet [ici](https://github.com/ggml-org/llama.cpp/tree/master/examples/parallel). Vous pouvez aussi **quantifier le cache KV en 4 bits** par exemple pour réduire les mouvements VRAM / RAM, ce qui peut aussi accélérer le processus de génération.

## 📐Comment adapter un long contexte (128K complet)

Pour adapter un contexte plus long, vous pouvez utiliser **quantification du cache KV** pour quantifier les caches K et V en bits plus faibles. Cela peut également augmenter la vitesse de génération en réduisant les mouvements de données RAM / VRAM. Les options autorisées pour la quantification de K (par défaut est `f16`) incluent ci-dessous.

`--cache-type-k f32, f16, bf16, q8_0, q4_0, q4_1, iq4_nl, q5_0, q5_1`

Vous devriez utiliser les `_1` variantes pour une précision quelque peu accrue, bien que ce soit légèrement plus lent. Par ex `q4_1, q5_1`

Vous pouvez aussi quantifier le cache V, mais vous devrez **compiler llama.cpp avec le support Flash Attention** via `-DGGML_CUDA_FA_ALL_QUANTS=ON`, et utiliser `--flash-attn` pour l'activer. Ensuite vous pouvez l'utiliser conjointement avec `--cache-type-k` :

`--cache-type-v f32, f16, bf16, q8_0, q4_0, q4_1, iq4_nl, q5_0, q5_1`


---

# Agent Instructions: Querying This Documentation

If you need additional information that is not directly available in this page, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on the current page URL with the `ask` query parameter:

```
GET https://unsloth.ai/docs/fr/modeles/tutorials/deepseek-v3.1-how-to-run-locally.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
