# Modèles

- [Qwen3.6 - Comment l'exécuter localement](/docs/fr/modeles/qwen3.6.md): Exécutez le nouveau modèle Qwen3.6-35-A3B localement !
- [Gemma 4 - Comment l'exécuter localement](/docs/fr/modeles/gemma-4.md): Exécutez localement les nouveaux modèles Gemma 4 de Google, y compris E2B, E4B, 26B A4B et 31B.
- [Guide de fine-tuning de Gemma 4](/docs/fr/modeles/gemma-4/train.md): Entraînez Gemma 4 de Google avec Unsloth.
- [Qwen3.5 - Comment l'exécuter localement](/docs/fr/modeles/qwen3.5.md): Exécutez les nouveaux LLMs Qwen3.5, y compris Medium : Qwen3.5-35B-A3B, 27B, 122B-A10B, Small : Qwen3.5-0.8B, 2B, 4B, 9B et 397B-A17B sur votre appareil local !
- [Guide de fine-tuning de Qwen3.5](/docs/fr/modeles/qwen3.5/fine-tune.md): Apprenez à fine-tuner les LLMs Qwen3.5 avec Unsloth.
- [Benchmarks Qwen3.5 GGUF](/docs/fr/modeles/qwen3.5/gguf-benchmarks.md): Voyez comment les GGUF dynamiques d'Unsloth se comportent + analyse de la perplexité, de la divergence KL et de MXFP4.
- [GLM-5.1 - Comment l'exécuter localement](/docs/fr/modeles/glm-5.1.md): Exécutez le nouveau modèle GLM-5.1 de Z.ai sur votre propre appareil local !
- [MiniMax-M2.7 - Comment l'exécuter localement](/docs/fr/modeles/minimax-m27.md): Exécutez le LLM MiniMax-M2.7 localement sur votre propre appareil !
- [NVIDIA Nemotron 3 Nano - Guide d'exécution](/docs/fr/modeles/nemotron-3.md): Exécutez et fine-tunez NVIDIA Nemotron 3 Nano localement sur votre appareil !
- [NVIDIA Nemotron-3-Super : guide d'exécution](/docs/fr/modeles/nemotron-3/nemotron-3-super.md): Exécutez et fine-tunez NVIDIA Nemotron-3-Super-120B-A12B localement sur votre appareil !
- [Qwen3-Coder-Next : Comment l'exécuter localement](/docs/fr/modeles/qwen3-coder-next.md): Guide pour exécuter Qwen3-Coder-Next localement sur votre appareil !
- [GLM-4.7-Flash : Comment l'exécuter localement](/docs/fr/modeles/glm-4.7-flash.md): Exécutez et fine-tunez GLM-4.7-Flash localement sur votre appareil !
- [Kimi K2.5 : guide d'exécution locale](/docs/fr/modeles/kimi-k2.5.md): Guide pour exécuter Kimi-K2.5 sur votre propre appareil local !
- [gpt-oss : guide d'exécution](/docs/fr/modeles/gpt-oss-how-to-run-and-fine-tune.md): Exécutez et fine-tunez les nouveaux modèles open source d'OpenAI !
- [Apprentissage par renforcement gpt-oss](/docs/fr/modeles/gpt-oss-how-to-run-and-fine-tune/gpt-oss-reinforcement-learning.md)
- [Tutoriel : comment entraîner gpt-oss avec RL](/docs/fr/modeles/gpt-oss-how-to-run-and-fine-tune/gpt-oss-reinforcement-learning/tutorial-how-to-train-gpt-oss-with-rl.md): Apprenez à entraîner OpenAI gpt-oss avec GRPO pour battre automatiquement 2048 localement ou sur Colab.
- [Tutoriel : comment fine-tuner gpt-oss](/docs/fr/modeles/gpt-oss-how-to-run-and-fine-tune/tutorial-how-to-fine-tune-gpt-oss.md): Apprenez pas à pas à entraîner OpenAI gpt-oss localement avec Unsloth.
- [Entraînement gpt-oss à long contexte](/docs/fr/modeles/gpt-oss-how-to-run-and-fine-tune/long-context-gpt-oss-training.md)
- [Tutoriels sur les grands modèles de langage (LLMs)](/docs/fr/modeles/tutorials.md): Découvrez les derniers LLMs et apprenez à exécuter et fine-tuner des modèles localement pour des performances optimales avec Unsloth.
- [GLM-5 : guide d'exécution locale](/docs/fr/modeles/tutorials/glm-5.md): Exécutez le nouveau modèle GLM-5 de Z.ai sur votre propre appareil local !
- [Qwen3 - Comment exécuter et fine-tuner](/docs/fr/modeles/tutorials/qwen3-how-to-run-and-fine-tune.md): Apprenez à exécuter et fine-tuner Qwen3 localement avec Unsloth + nos quantifications Dynamic 2.0
- [Qwen3-VL : guide d'exécution](/docs/fr/modeles/tutorials/qwen3-how-to-run-and-fine-tune/qwen3-vl-how-to-run-and-fine-tune.md): Apprenez à fine-tuner et à exécuter Qwen3-VL localement avec Unsloth.
- [Qwen3-2507 : guide d'exécution locale](/docs/fr/modeles/tutorials/qwen3-how-to-run-and-fine-tune/qwen3-2507.md): Exécutez localement sur votre appareil les versions Thinking et Instruct de Qwen3-30B-A3B-2507 et 235B-A22B !
- [MiniMax-M2.5 : guide d'exécution](/docs/fr/modeles/tutorials/minimax-m25.md): Exécutez MiniMax-M2.5 localement sur votre propre appareil !
- [Qwen3-Coder : comment l'exécuter localement](/docs/fr/modeles/tutorials/qwen3-coder-how-to-run-locally.md): Exécutez Qwen3-Coder-30B-A3B-Instruct et 480B-A35B localement avec les quantifications dynamiques d'Unsloth.
- [Gemma 3 - guide d'exécution](/docs/fr/modeles/tutorials/gemma-3-how-to-run-and-fine-tune.md): Comment exécuter efficacement Gemma 3 avec nos GGUF sur llama.cpp, Ollama, Open WebUI et comment fine-tuner avec Unsloth !
- [Gemma 3n : comment exécuter et fine-tuner](/docs/fr/modeles/tutorials/gemma-3-how-to-run-and-fine-tune/gemma-3n-how-to-run-and-fine-tune.md): Exécutez le nouveau Gemma 3n de Google localement avec des GGUF dynamiques sur llama.cpp, Ollama, Open WebUI et fine-tunez avec Unsloth !
- [DeepSeek-OCR 2 : guide d'exécution et de fine-tuning](/docs/fr/modeles/tutorials/deepseek-ocr-2.md): Guide sur la façon d'exécuter et de fine-tuner DeepSeek-OCR-2 localement.
- [GLM-4.7 : guide d'exécution locale](/docs/fr/modeles/tutorials/glm-4.7.md): Un guide sur la façon d'exécuter le modèle Z.ai GLM-4.7 sur votre propre appareil local !
- [Comment exécuter Qwen-Image-2512 localement dans ComfyUI](/docs/fr/modeles/tutorials/qwen-image-2512.md): Tutoriel étape par étape pour exécuter Qwen-Image-2512 sur votre appareil local avec ComfyUI.
- [Exécuter Qwen-Image-2512 dans stable-diffusion.cpp Tutoriel](/docs/fr/modeles/tutorials/qwen-image-2512/stable-diffusion.cpp.md): Tutoriel pour utiliser Qwen-Image-2512 dans stable-diffusion.cpp.
- [Devstral 2 - guide d'exécution](/docs/fr/modeles/tutorials/devstral-2.md): Guide pour exécuter localement les modèles Mistral Devstral 2 : 123B-Instruct-2512 et Small-2-24B-Instruct-2512.
- [Ministral 3 - guide d'exécution](/docs/fr/modeles/tutorials/ministral-3.md): Guide des modèles Mistral Ministral 3, pour les exécuter ou les fine-tuner localement sur votre appareil
- [DeepSeek-OCR : comment l'exécuter et le fine-tuner](/docs/fr/modeles/tutorials/deepseek-ocr-how-to-run-and-fine-tune.md): Guide sur la façon d'exécuter et de fine-tuner DeepSeek-OCR localement.
- [Kimi K2 Thinking : guide d'exécution locale](/docs/fr/modeles/tutorials/kimi-k2-thinking-how-to-run-locally.md): Guide pour exécuter Kimi-K2-Thinking et Kimi-K2 sur votre propre appareil local !
- [GLM-4.6 : guide d'exécution locale](/docs/fr/modeles/tutorials/glm-4.6-how-to-run-locally.md): Un guide sur la façon d'exécuter les modèles Z.ai GLM-4.6 et GLM-4.6V-Flash sur votre propre appareil local !
- [Qwen3-Next : guide d'exécution locale](/docs/fr/modeles/tutorials/qwen3-next.md): Exécutez localement sur votre appareil les versions Qwen3-Next-80B-A3B-Instruct et Thinking !
- [FunctionGemma : comment l'exécuter et le fine-tuner](/docs/fr/modeles/tutorials/functiongemma.md): Apprenez à exécuter et fine-tuner FunctionGemma localement sur votre appareil et votre téléphone.
- [DeepSeek-V3.1 : comment l'exécuter localement](/docs/fr/modeles/tutorials/deepseek-v3.1-how-to-run-locally.md): Un guide sur la façon d'exécuter DeepSeek-V3.1 et Terminus sur votre propre appareil local !
- [DeepSeek-R1-0528 : comment l'exécuter localement](/docs/fr/modeles/tutorials/deepseek-r1-0528-how-to-run-locally.md): Un guide sur la façon d'exécuter DeepSeek-R1-0528, y compris Qwen3, sur votre propre appareil local !
- [Liquid LFM2.5 : comment exécuter et fine-tuner](/docs/fr/modeles/tutorials/lfm2.5.md): Exécutez et fine-tunez LFM2.5 Instruct et Vision localement sur votre appareil !
- [Magistral : comment exécuter et fine-tuner](/docs/fr/modeles/tutorials/magistral-how-to-run-and-fine-tune.md): Découvrez Magistral - les nouveaux modèles de raisonnement de Mistral.
- [IBM Granite 4.0](/docs/fr/modeles/tutorials/ibm-granite-4.0.md): Comment exécuter IBM Granite-4.0 avec les GGUF d'Unsloth sur llama.cpp, Ollama et comment le fine-tuner !
- [Llama 4 : comment exécuter et fine-tuner](/docs/fr/modeles/tutorials/llama-4-how-to-run-and-fine-tune.md): Comment exécuter Llama 4 localement en utilisant nos GGUF dynamiques qui récupèrent la précision par rapport à la quantification standard.
- [Grok 2](/docs/fr/modeles/tutorials/grok-2.md): Exécutez le modèle Grok 2 de xAI localement !
- [Devstral : comment exécuter et fine-tuner](/docs/fr/modeles/tutorials/devstral-how-to-run-and-fine-tune.md): Exécutez et fine-tunez Mistral Devstral 1.1, y compris Small-2507 et 2505.
- [Comment exécuter des LLMs locaux avec Docker : guide étape par étape](/docs/fr/modeles/tutorials/how-to-run-llms-with-docker.md): Apprenez à exécuter des grands modèles de langage (LLMs) avec Docker et Unsloth sur votre appareil local.
- [DeepSeek-V3-0324 : comment l'exécuter localement](/docs/fr/modeles/tutorials/deepseek-v3-0324-how-to-run-locally.md): Comment exécuter DeepSeek-V3-0324 localement en utilisant nos quantifications dynamiques qui récupèrent la précision
- [DeepSeek-R1 : comment l'exécuter localement](/docs/fr/modeles/tutorials/deepseek-r1-how-to-run-locally.md): Un guide sur la façon d'exécuter nos quantifications dynamiques 1,58 bit pour DeepSeek-R1 en utilisant llama.cpp.
- [DeepSeek-R1 quantification dynamique 1,58 bit](/docs/fr/modeles/tutorials/deepseek-r1-how-to-run-locally/deepseek-r1-dynamic-1.58-bit.md): Voir les tableaux de comparaison des performances des quantifications GGUF dynamiques d'Unsloth par rapport aux quantifications IMatrix standard.
- [Phi-4 Reasoning : comment exécuter et fine-tuner](/docs/fr/modeles/tutorials/phi-4-reasoning-how-to-run-and-fine-tune.md): Apprenez à exécuter et fine-tuner localement les modèles de raisonnement Phi-4 avec Unsloth + nos quantifications Dynamic 2.0
- [QwQ-32B : comment l'exécuter efficacement](/docs/fr/modeles/tutorials/qwq-32b-how-to-run-effectively.md): Comment exécuter efficacement QwQ-32B avec nos corrections de bugs et sans générations sans fin + GGUF.
