# Modèles

- [Qwen3.6 - Comment l'exécuter localement](https://unsloth.ai/docs/fr/modeles/qwen3.6.md): Exécutez le nouveau modèle Qwen3.6-35-A3B localement !
- [Gemma 4 - Comment l'exécuter localement](https://unsloth.ai/docs/fr/modeles/gemma-4.md): Exécutez localement les nouveaux modèles Gemma 4 de Google, y compris E2B, E4B, 26B A4B et 31B.
- [Guide de fine-tuning de Gemma 4](https://unsloth.ai/docs/fr/modeles/gemma-4/train.md): Entraînez Gemma 4 de Google avec Unsloth.
- [Qwen3.5 - Comment l'exécuter localement](https://unsloth.ai/docs/fr/modeles/qwen3.5.md): Exécutez les nouveaux LLMs Qwen3.5, y compris Medium : Qwen3.5-35B-A3B, 27B, 122B-A10B, Small : Qwen3.5-0.8B, 2B, 4B, 9B et 397B-A17B sur votre appareil local !
- [Guide de fine-tuning de Qwen3.5](https://unsloth.ai/docs/fr/modeles/qwen3.5/fine-tune.md): Apprenez à fine-tuner les LLMs Qwen3.5 avec Unsloth.
- [Benchmarks Qwen3.5 GGUF](https://unsloth.ai/docs/fr/modeles/qwen3.5/gguf-benchmarks.md): Voyez comment les GGUF dynamiques d'Unsloth se comportent + analyse de la perplexité, de la divergence KL et de MXFP4.
- [GLM-5.1 - Comment l'exécuter localement](https://unsloth.ai/docs/fr/modeles/glm-5.1.md): Exécutez le nouveau modèle GLM-5.1 de Z.ai sur votre propre appareil local !
- [MiniMax-M2.7 - Comment l'exécuter localement](https://unsloth.ai/docs/fr/modeles/minimax-m27.md): Exécutez le LLM MiniMax-M2.7 localement sur votre propre appareil !
- [NVIDIA Nemotron 3 Nano - Guide d'exécution](https://unsloth.ai/docs/fr/modeles/nemotron-3.md): Exécutez et fine-tunez NVIDIA Nemotron 3 Nano localement sur votre appareil !
- [NVIDIA Nemotron-3-Super : guide d'exécution](https://unsloth.ai/docs/fr/modeles/nemotron-3/nemotron-3-super.md): Exécutez et fine-tunez NVIDIA Nemotron-3-Super-120B-A12B localement sur votre appareil !
- [Qwen3-Coder-Next : Comment l'exécuter localement](https://unsloth.ai/docs/fr/modeles/qwen3-coder-next.md): Guide pour exécuter Qwen3-Coder-Next localement sur votre appareil !
- [GLM-4.7-Flash : Comment l'exécuter localement](https://unsloth.ai/docs/fr/modeles/glm-4.7-flash.md): Exécutez et fine-tunez GLM-4.7-Flash localement sur votre appareil !
- [Kimi K2.5 : guide d'exécution locale](https://unsloth.ai/docs/fr/modeles/kimi-k2.5.md): Guide pour exécuter Kimi-K2.5 sur votre propre appareil local !
- [gpt-oss : guide d'exécution](https://unsloth.ai/docs/fr/modeles/gpt-oss-how-to-run-and-fine-tune.md): Exécutez et fine-tunez les nouveaux modèles open source d'OpenAI !
- [Apprentissage par renforcement gpt-oss](https://unsloth.ai/docs/fr/modeles/gpt-oss-how-to-run-and-fine-tune/gpt-oss-reinforcement-learning.md)
- [Tutoriel : comment entraîner gpt-oss avec RL](https://unsloth.ai/docs/fr/modeles/gpt-oss-how-to-run-and-fine-tune/gpt-oss-reinforcement-learning/tutorial-how-to-train-gpt-oss-with-rl.md): Apprenez à entraîner OpenAI gpt-oss avec GRPO pour battre automatiquement 2048 localement ou sur Colab.
- [Tutoriel : comment fine-tuner gpt-oss](https://unsloth.ai/docs/fr/modeles/gpt-oss-how-to-run-and-fine-tune/tutorial-how-to-fine-tune-gpt-oss.md): Apprenez pas à pas à entraîner OpenAI gpt-oss localement avec Unsloth.
- [Entraînement gpt-oss à long contexte](https://unsloth.ai/docs/fr/modeles/gpt-oss-how-to-run-and-fine-tune/long-context-gpt-oss-training.md)
- [Tutoriels sur les grands modèles de langage (LLMs)](https://unsloth.ai/docs/fr/modeles/tutorials.md): Découvrez les derniers LLMs et apprenez à exécuter et fine-tuner des modèles localement pour des performances optimales avec Unsloth.
- [GLM-5 : guide d'exécution locale](https://unsloth.ai/docs/fr/modeles/tutorials/glm-5.md): Exécutez le nouveau modèle GLM-5 de Z.ai sur votre propre appareil local !
- [Qwen3 - Comment exécuter et fine-tuner](https://unsloth.ai/docs/fr/modeles/tutorials/qwen3-how-to-run-and-fine-tune.md): Apprenez à exécuter et fine-tuner Qwen3 localement avec Unsloth + nos quantifications Dynamic 2.0
- [Qwen3-VL : guide d'exécution](https://unsloth.ai/docs/fr/modeles/tutorials/qwen3-how-to-run-and-fine-tune/qwen3-vl-how-to-run-and-fine-tune.md): Apprenez à fine-tuner et à exécuter Qwen3-VL localement avec Unsloth.
- [Qwen3-2507 : guide d'exécution locale](https://unsloth.ai/docs/fr/modeles/tutorials/qwen3-how-to-run-and-fine-tune/qwen3-2507.md): Exécutez localement sur votre appareil les versions Thinking et Instruct de Qwen3-30B-A3B-2507 et 235B-A22B !
- [MiniMax-M2.5 : guide d'exécution](https://unsloth.ai/docs/fr/modeles/tutorials/minimax-m25.md): Exécutez MiniMax-M2.5 localement sur votre propre appareil !
- [Qwen3-Coder : comment l'exécuter localement](https://unsloth.ai/docs/fr/modeles/tutorials/qwen3-coder-how-to-run-locally.md): Exécutez Qwen3-Coder-30B-A3B-Instruct et 480B-A35B localement avec les quantifications dynamiques d'Unsloth.
- [Gemma 3 - guide d'exécution](https://unsloth.ai/docs/fr/modeles/tutorials/gemma-3-how-to-run-and-fine-tune.md): Comment exécuter efficacement Gemma 3 avec nos GGUF sur llama.cpp, Ollama, Open WebUI et comment fine-tuner avec Unsloth !
- [Gemma 3n : comment exécuter et fine-tuner](https://unsloth.ai/docs/fr/modeles/tutorials/gemma-3-how-to-run-and-fine-tune/gemma-3n-how-to-run-and-fine-tune.md): Exécutez le nouveau Gemma 3n de Google localement avec des GGUF dynamiques sur llama.cpp, Ollama, Open WebUI et fine-tunez avec Unsloth !
- [DeepSeek-OCR 2 : guide d'exécution et de fine-tuning](https://unsloth.ai/docs/fr/modeles/tutorials/deepseek-ocr-2.md): Guide sur la façon d'exécuter et de fine-tuner DeepSeek-OCR-2 localement.
- [GLM-4.7 : guide d'exécution locale](https://unsloth.ai/docs/fr/modeles/tutorials/glm-4.7.md): Un guide sur la façon d'exécuter le modèle Z.ai GLM-4.7 sur votre propre appareil local !
- [Comment exécuter Qwen-Image-2512 localement dans ComfyUI](https://unsloth.ai/docs/fr/modeles/tutorials/qwen-image-2512.md): Tutoriel étape par étape pour exécuter Qwen-Image-2512 sur votre appareil local avec ComfyUI.
- [Exécuter Qwen-Image-2512 dans stable-diffusion.cpp Tutoriel](https://unsloth.ai/docs/fr/modeles/tutorials/qwen-image-2512/stable-diffusion.cpp.md): Tutoriel pour utiliser Qwen-Image-2512 dans stable-diffusion.cpp.
- [Devstral 2 - guide d'exécution](https://unsloth.ai/docs/fr/modeles/tutorials/devstral-2.md): Guide pour exécuter localement les modèles Mistral Devstral 2 : 123B-Instruct-2512 et Small-2-24B-Instruct-2512.
- [Ministral 3 - guide d'exécution](https://unsloth.ai/docs/fr/modeles/tutorials/ministral-3.md): Guide des modèles Mistral Ministral 3, pour les exécuter ou les fine-tuner localement sur votre appareil
- [DeepSeek-OCR : comment l'exécuter et le fine-tuner](https://unsloth.ai/docs/fr/modeles/tutorials/deepseek-ocr-how-to-run-and-fine-tune.md): Guide sur la façon d'exécuter et de fine-tuner DeepSeek-OCR localement.
- [Kimi K2 Thinking : guide d'exécution locale](https://unsloth.ai/docs/fr/modeles/tutorials/kimi-k2-thinking-how-to-run-locally.md): Guide pour exécuter Kimi-K2-Thinking et Kimi-K2 sur votre propre appareil local !
- [GLM-4.6 : guide d'exécution locale](https://unsloth.ai/docs/fr/modeles/tutorials/glm-4.6-how-to-run-locally.md): Un guide sur la façon d'exécuter les modèles Z.ai GLM-4.6 et GLM-4.6V-Flash sur votre propre appareil local !
- [Qwen3-Next : guide d'exécution locale](https://unsloth.ai/docs/fr/modeles/tutorials/qwen3-next.md): Exécutez localement sur votre appareil les versions Qwen3-Next-80B-A3B-Instruct et Thinking !
- [FunctionGemma : comment l'exécuter et le fine-tuner](https://unsloth.ai/docs/fr/modeles/tutorials/functiongemma.md): Apprenez à exécuter et fine-tuner FunctionGemma localement sur votre appareil et votre téléphone.
- [DeepSeek-V3.1 : comment l'exécuter localement](https://unsloth.ai/docs/fr/modeles/tutorials/deepseek-v3.1-how-to-run-locally.md): Un guide sur la façon d'exécuter DeepSeek-V3.1 et Terminus sur votre propre appareil local !
- [DeepSeek-R1-0528 : comment l'exécuter localement](https://unsloth.ai/docs/fr/modeles/tutorials/deepseek-r1-0528-how-to-run-locally.md): Un guide sur la façon d'exécuter DeepSeek-R1-0528, y compris Qwen3, sur votre propre appareil local !
- [Liquid LFM2.5 : comment exécuter et fine-tuner](https://unsloth.ai/docs/fr/modeles/tutorials/lfm2.5.md): Exécutez et fine-tunez LFM2.5 Instruct et Vision localement sur votre appareil !
- [Magistral : comment exécuter et fine-tuner](https://unsloth.ai/docs/fr/modeles/tutorials/magistral-how-to-run-and-fine-tune.md): Découvrez Magistral - les nouveaux modèles de raisonnement de Mistral.
- [IBM Granite 4.0](https://unsloth.ai/docs/fr/modeles/tutorials/ibm-granite-4.0.md): Comment exécuter IBM Granite-4.0 avec les GGUF d'Unsloth sur llama.cpp, Ollama et comment le fine-tuner !
- [Llama 4 : comment exécuter et fine-tuner](https://unsloth.ai/docs/fr/modeles/tutorials/llama-4-how-to-run-and-fine-tune.md): Comment exécuter Llama 4 localement en utilisant nos GGUF dynamiques qui récupèrent la précision par rapport à la quantification standard.
- [Grok 2](https://unsloth.ai/docs/fr/modeles/tutorials/grok-2.md): Exécutez le modèle Grok 2 de xAI localement !
- [Devstral : comment exécuter et fine-tuner](https://unsloth.ai/docs/fr/modeles/tutorials/devstral-how-to-run-and-fine-tune.md): Exécutez et fine-tunez Mistral Devstral 1.1, y compris Small-2507 et 2505.
- [Comment exécuter des LLMs locaux avec Docker : guide étape par étape](https://unsloth.ai/docs/fr/modeles/tutorials/how-to-run-llms-with-docker.md): Apprenez à exécuter des grands modèles de langage (LLMs) avec Docker et Unsloth sur votre appareil local.
- [DeepSeek-V3-0324 : comment l'exécuter localement](https://unsloth.ai/docs/fr/modeles/tutorials/deepseek-v3-0324-how-to-run-locally.md): Comment exécuter DeepSeek-V3-0324 localement en utilisant nos quantifications dynamiques qui récupèrent la précision
- [DeepSeek-R1 : comment l'exécuter localement](https://unsloth.ai/docs/fr/modeles/tutorials/deepseek-r1-how-to-run-locally.md): Un guide sur la façon d'exécuter nos quantifications dynamiques 1,58 bit pour DeepSeek-R1 en utilisant llama.cpp.
- [DeepSeek-R1 quantification dynamique 1,58 bit](https://unsloth.ai/docs/fr/modeles/tutorials/deepseek-r1-how-to-run-locally/deepseek-r1-dynamic-1.58-bit.md): Voir les tableaux de comparaison des performances des quantifications GGUF dynamiques d'Unsloth par rapport aux quantifications IMatrix standard.
- [Phi-4 Reasoning : comment exécuter et fine-tuner](https://unsloth.ai/docs/fr/modeles/tutorials/phi-4-reasoning-how-to-run-and-fine-tune.md): Apprenez à exécuter et fine-tuner localement les modèles de raisonnement Phi-4 avec Unsloth + nos quantifications Dynamic 2.0
- [QwQ-32B : comment l'exécuter efficacement](https://unsloth.ai/docs/fr/modeles/tutorials/qwq-32b-how-to-run-effectively.md): Comment exécuter efficacement QwQ-32B avec nos corrections de bugs et sans générations sans fin + GGUF.


---

# Agent Instructions: Querying This Documentation

If you need additional information that is not directly available in this page, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on the current page URL with the `ask` query parameter:

```
GET https://unsloth.ai/docs/fr/modeles.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
