🐋DeepSeek-R1-0528 : Comment exécuter localement

Un guide pour exécuter DeepSeek-R1-0528 incluant Qwen3 sur votre propre appareil local !

DeepSeek-R1-0528 est la nouvelle mise à jour de DeepSeek pour leur modèle de raisonnement R1. Le modèle complet de 671 milliards de paramètres nécessite 715 Go d'espace disque. La version quantifiée dynamique 1,66 bits utilise 162 Go (-80 % de réduction de taille). GGUF : DeepSeek-R1-0528-GGUFarrow-up-right

DeepSeek a également publié une version distillée R1-0528 en ajustant Qwen3 (8B). La distillation atteint des performances similaires à Qwen3 (235B). Vous pouvez aussi affiner Qwen3 Distill avec Unsloth. Qwen3 GGUF : DeepSeek-R1-0528-Qwen3-8B-GGUFarrow-up-right

Tous les téléchargements utilisent Unsloth méthodologie Dynamic 2.0 pour des performances SOTA en MMLU 5-shot et en divergence KL, ce qui signifie que vous pouvez exécuter et affiner des LLM DeepSeek quantifiés avec une perte d'exactitude minimale.

Navigation des tutoriels :

Exécuter dans llama.cppExécuter dans Ollama/Open WebUIAffinage de R1-0528

circle-check

⚙️ Paramètres recommandés

Pour DeepSeek-R1-0528-Qwen3-8B, le modèle peut pratiquement s'adapter à n'importe quelle configuration, même celles disposant de seulement 20 Go de RAM. Il n'y a pas besoin de préparation préalable. Cependant, pour le modèle R1-0528 complet qui fait 715 Go, vous aurez besoin d'une préparation supplémentaire. La quantification 1,78 bits (IQ1_S) tiendra sur un GPU 1x 24 Go (avec toutes les couches déchargées). Attendez-vous à environ 5 tokens/s avec cette configuration si vous disposez également d'un bonus de 128 Go de RAM.

Il est recommandé d'avoir au moins 64 Go de RAM pour exécuter cette quantification (vous obtiendrez 1 token/s sans GPU). Pour des performances optimales, vous aurez besoin d'au moins 180 Go de mémoire unifiée ou 180 Go combinés RAM+VRAM pour 5+ tokens/s.

Nous suggérons d'utiliser notre quantification 2,7 bits (Q2_K_XL) ou 2,4 bits (IQ2_XXS) pour équilibrer taille et précision ! La version 2,4 bits fonctionne également bien.

circle-check

🐳 Paramètres recommandés officiels :

Selon DeepSeekarrow-up-right, voici les paramètres recommandés pour l'inférence R1 (R1-0528 et la distillation Qwen3 doivent utiliser les mêmes paramètres) :

  • Réglez la température 0,6 pour réduire la répétition et l'incohérence.

  • Réglez top_p à 0,95 (recommandé)

  • Effectuez plusieurs tests et faites la moyenne des résultats pour une évaluation fiable.

🔢 Format du modèle de chat / du prompt

R1-0528 utilise le même modèle de chat que le modèle R1 original. Vous n'avez pas besoin de forcer <think>\n , mais vous pouvez toujours l'ajouter !

Un BOS est ajouté de force, et un EOS sépare chaque interaction. Pour éviter les doubles tokens BOS pendant l'inférence, vous ne devez appeler que tokenizer.encode(..., add_special_tokens = False) puisque le modèle de chat ajoute automatiquement un token BOS également. Pour l'inférence llama.cpp / GGUF, vous devez ignorer le BOS car il l'ajoutera automatiquement :

La <think> et </think> les tokens obtiennent leurs propres tokens désignés.

Téléversements de modèles

TOUS nos téléversements - y compris ceux qui ne sont pas basés sur imatrix ou dynamiques, utilisent notre jeu de données de calibration, spécialement optimisé pour les tâches conversationnelles, de codage et de langue.

Nous avons aussi téléversé IQ4_NLarrow-up-right et Q4_1arrow-up-right des quants qui s'exécutent spécifiquement plus rapidement pour les appareils ARM et Apple respectivement.

Bits MoE
Type + Lien
Taille sur disque
Détails

1,66 bit

162 Go

1,92/1,56 bit

1,78 bit

185 Go

2,06/1,56 bit

1,93 bit

200 Go

2.5/2.06/1.56

2,42 bit

216 Go

2,5/2,06 bit

2,71 bit

251 Go

3,5/2,5 bit

3,12 bit

273 Go

3,5/2,06 bit

3,5 bit

296 Go

4,5/3,5 bit

4,5 bit

384 Go

5,5/4,5 bit

5,5 bit

481 Go

6,5/5,5 bit

Nous avons aussi mis en ligne des versions en format BF16arrow-up-right, et le format original format FP8 (float8)arrow-up-right.

Exécutez les tutoriels DeepSeek-R1-0528 :

🦙 Exécuter dans Ollama/Open WebUI

  1. Installer ollama si vous ne l'avez pas encore fait ! Vous ne pouvez exécuter que des modèles jusqu'à 32B de taille. Pour exécuter le modèle R1-0528 complet de 720 Go, voir ici.

  1. Exécutez le modèle ! Notez que vous pouvez appeler ollama servedans un autre terminal s'il échoue ! Nous incluons toutes nos corrections et paramètres suggérés (température etc.) dans params dans notre upload Hugging Face !

  1. (NOUVEAU) Pour exécuter le R1-0528 complet dans Ollama, vous pouvez utiliser notre TQ1_0 (quant 162 Go) :

🦙 Exécuter le R1-0528 complet sur Ollama/Open WebUI

Open WebUI a réalisé un tutoriel étape par étape sur la façon d'exécuter R1 ici et pour R1-0528, vous devrez simplement remplacer R1 par la nouvelle quantification 0528 : docs.openwebui.com/tutorials/integrations/deepseekr1-dynamic/arrow-up-right

(NOUVEAU) Pour exécuter le R1-0528 complet dans Ollama, vous pouvez utiliser notre TQ1_0 (quant 162 Go) :

Si vous souhaitez utiliser l'une des quantifications plus grandes que TQ1_0 (162 Go) sur Ollama, vous devez d'abord fusionner les 3 fichiers GGUF divisés en 1 comme le code ci-dessous. Ensuite, vous devrez exécuter le modèle localement.

✨ Exécuter le R1 distillé Qwen3 dans llama.cpp

  1. Pour exécuter le modèle R1-0528 complet de 720 Go, voir ici. Obtenez la dernière llama.cpp sur GitHub iciarrow-up-right. Vous pouvez aussi suivre les instructions de compilation ci-dessous. Changez -DGGML_CUDA=ON en -DGGML_CUDA=OFF si vous n'avez pas de GPU ou si vous voulez simplement de l'inférence CPU. Pour les appareils Apple Mac / Metal, définissez -DGGML_CUDA=OFF puis continuez comme d'habitude - le support Metal est activé par défaut.

  1. Puis utilisez llama.cpp directement pour télécharger le modèle :

✨ Exécuter le R1-0528 complet sur llama.cpp

  1. Obtenez la dernière llama.cpp sur GitHub iciarrow-up-right. Vous pouvez aussi suivre les instructions de compilation ci-dessous. Changez -DGGML_CUDA=ON en -DGGML_CUDA=OFF si vous n'avez pas de GPU ou si vous voulez simplement de l'inférence CPU. Pour les appareils Apple Mac / Metal, définissez -DGGML_CUDA=OFF puis continuez comme d'habitude - le support Metal est activé par défaut.

  1. Si vous voulez utiliser llama.cpp directement pour charger les modèles, vous pouvez faire ce qui suit : (:IQ1_S) est le type de quantification. Vous pouvez aussi télécharger via Hugging Face (point 3). Ceci est similaire à ollama run . Utilisez export LLAMA_CACHE="dossier" pour forcer llama.cpp pour enregistrer à un emplacement spécifique.

circle-check
  1. Téléchargez le modèle via (après avoir installé pip install huggingface_hub hf_transfer ). Vous pouvez choisir UD-IQ1_S(quant dynamique 1,78 bit) ou d'autres versions quantifiées comme Q4_K_M . Nous recommandons d'utiliser notre quant dynamique 2,7 bits UD-Q2_K_XL pour équilibrer taille et précision. Plus de versions sur : https://huggingface.co/unsloth/DeepSeek-R1-0528-GGUFarrow-up-right

  1. Exécutez le test Flappy Bird d'Unsloth comme décrit dans notre Quant dynamique 1,58 bit pour DeepSeek R1.

  2. Modifier --threads 32 pour le nombre de threads CPU, --ctx-size 16384 pour la longueur de contexte, --n-gpu-layers 2 pour le déchargement sur GPU du nombre de couches. Essayez de l'ajuster si votre GPU manque de mémoire. Supprimez-le également si vous avez uniquement une inférence CPU.

🎱 Test Heptagone

Vous pouvez également tester nos quantifications dynamiques via r/Localllamaarrow-up-right qui teste le modèle en créant un moteur physique basique pour simuler des balles tournant dans une forme heptagonale fermée en mouvement.

L'objectif est de faire tourner l'heptagone, et les balles à l'intérieur de l'heptagone doivent se déplacer.
chevron-rightInvite complète pour exécuter le modèlehashtag

🦥 Affinage de DeepSeek-R1-0528 avec Unsloth

Pour affiner DeepSeek-R1-0528-Qwen3-8B en utilisant Unsloth, nous avons créé un nouveau notebook GRPO comportant une fonction de récompense personnalisée conçue pour améliorer significativement les sorties multilingues - augmentant spécifiquement le taux de réponses dans la langue souhaitée (dans notre exemple nous utilisons l'indonésien mais vous pouvez utiliser n'importe quelle langue) de plus de 40 %.

Bien que de nombreux LLM de raisonnement aient des capacités multilingues, ils produisent souvent des sorties en langues mélangées dans leurs traces de raisonnement, combinant l'anglais avec la langue cible. Notre fonction de récompense atténue efficacement ce problème en encourageant fortement les sorties dans la langue désirée, conduisant à une amélioration substantielle de la cohérence linguistique.

Cette fonction de récompense est également entièrement personnalisable, vous permettant de l'adapter à d'autres langues ou d'affiner pour des domaines ou cas d'utilisation spécifiques.

circle-check

Unsloth rend l'affinage de la distillation R1-Qwen3 2× plus rapide, utilise 70 % de VRAM en moins, et prend en charge des longueurs de contexte 8× plus longues.

Mis à jour

Ce contenu vous a-t-il été utile ?