Cogito v2.1 : comment l'exécuter localement
Les LLMs Cogito v2.1 sont parmi les modèles ouverts les plus puissants au monde, entraînés avec IDA. La version v1 existe aussi en 4 tailles : 70B, 109B, 405B et 671B, ce qui vous permet de choisir la taille la mieux adaptée à votre matériel.
Deep Cogito v2.1 est un MoE mis à jour de 671B qui est le modèle à poids ouverts le plus puissant au 19 novembre 2025.
Cogito v2.1 est disponible en une taille MoE de 671B, tandis que Cogito v2 Preview est Deep Cogitola publication de modèles s'étend sur 4 tailles de modèles allant de 70B à 671B. En utilisant IDA (Distillation itérée et Amplification), ces modèles sont entraînés avec le modèle internalisant le processus de raisonnement via une amélioration itérative de la politique, plutôt que de simplement chercher plus longtemps au moment de l'inférence (comme DeepSeek R1).
Deep Cogito est basé à San Francisco, États-Unis (comme Unsloth 🇺🇸) et nous sommes ravis de fournir des modèles dynamiques quantifiés pour les 4 tailles de modèles ! Tous les téléchargements utilisent Unsloth Dynamic 2.0 pour des performances SOTA en MMLU 5-shot et divergence KL, ce qui signifie que vous pouvez exécuter et affiner ces LLM quantifiés avec une perte d'exactitude minimale !
Navigation des tutoriels :
Exécuter MoE 671BExécuter MoE 109BExécuter Dense 405BExécuter Dense 70B
Choisissez la taille de modèle qui correspond à votre matériel ! Nous téléchargeons des variantes de 1,58 bit à 16 bit pour les 4 tailles de modèles !
💎 Tailles de modèles et téléchargements
Il y a 4 tailles de modèles :
2 modèles Dense basés sur Llama - 70B et 405B
2 modèles MoE basés sur Llama 4 Scout (109B) et DeepSeek R1 (671B)
Bien que non nécessaire, pour de meilleures performances, ayez votre VRAM + RAM combinées égales à la taille du quant que vous téléchargez. Si vous avez moins de VRAM + RAM, le quant fonctionnera toujours, mais sera beaucoup plus lent.
🐳 Exécuter Cogito 671B MoE dans llama.cpp
Obtenez le dernier
llama.cppsur GitHub ici. Vous pouvez également suivre les instructions de compilation ci-dessous. Changez-DGGML_CUDA=ONen-DGGML_CUDA=OFFsi vous n'avez pas de GPU ou si vous souhaitez simplement une inférence CPU. Pour les appareils Apple Mac / Metal, définissez-DGGML_CUDA=OFFpuis continuez normalement - le support Metal est activé par défaut.
Si vous voulez utiliser
llama.cppdirectement pour charger les modèles, vous pouvez faire ce qui suit : (:IQ1_S) est le type de quantification. Vous pouvez aussi télécharger via Hugging Face (point 3). Ceci est similaire àollama run. Utilisezexport LLAMA_CACHE="dossier"pour forcerllama.cpppour enregistrer à un emplacement spécifique.
Veuillez essayer -ot ".ffn_.*_exps.=CPU" pour décharger toutes les couches MoE sur le CPU ! Cela vous permet effectivement de placer toutes les couches non-MoE sur 1 GPU, améliorant les vitesses de génération. Vous pouvez personnaliser l'expression regex pour décharger plus de couches si vous avez plus de capacité GPU.
Si vous avez un peu plus de mémoire GPU, essayez -ot ".ffn_(up|down)_exps.=CPU" Cela décharge les couches MoE de projection up et down.
Essayez -ot ".ffn_(up)_exps.=CPU" si vous avez encore plus de mémoire GPU. Cela ne décharge que les couches MoE de projection up.
Et enfin déchargez toutes les couches via -ot ".ffn_.*_exps.=CPU" Ceci utilise le moins de VRAM.
Vous pouvez aussi personnaliser la regex, par exemple -ot "\.(6|7|8|9|[0-9][0-9]|[0-9][0-9][0-9])\.ffn_(gate|up|down)_exps.=CPU" signifie décharger les couches MoE gate, up et down mais uniquement à partir de la 6e couche.
Téléchargez le modèle via (après avoir installé
pip install huggingface_hub hf_transfer). Vous pouvez choisirUD-IQ1_S(quant dynamique 1,78 bit) ou d'autres versions quantifiées commeQ4_K_M. Nous recommandons d'utiliser notre quant dynamique 2,7 bitsUD-Q2_K_XLpour équilibrer taille et précision. Plus de versions sur : https://huggingface.co/unsloth/cogito-671b-v2.1-GGUF
Modifier
--threads 32pour le nombre de threads CPU,--ctx-size 16384pour la longueur de contexte,--n-gpu-layers 2pour le déchargement sur GPU du nombre de couches. Essayez de l'ajuster si votre GPU manque de mémoire. Supprimez-le également si vous avez uniquement une inférence CPU.
🖱️Exécuter Cogito 109B MoE dans llama.cpp
Suivez les mêmes instructions que pour l'exécution du modèle 671B ci-dessus.
Puis exécutez ce qui suit :
🌳Exécuter Cogito 405B Dense dans llama.cpp
Suivez les mêmes instructions que pour l'exécution du modèle 671B ci-dessus.
Puis exécutez ce qui suit :
😎 Exécuter Cogito 70B Dense dans llama.cpp
Suivez les mêmes instructions que pour l'exécution du modèle 671B ci-dessus.
Puis exécutez ce qui suit :
Voir https://www.deepcogito.com/research/cogito-v2-1 pour plus de détails
Mis à jour
Ce contenu vous a-t-il été utile ?

