# Documentation Unsloth

Unsloth vous permet d’exécuter et d’entraîner des modèles d’IA sur votre propre matériel local.

Notre documentation vous guidera pour exécuter et entraîner votre propre modèle en local.

<a href="fine-tuning-for-beginners" class="button primary">Commencer</a> <a href="https://github.com/unslothai/unsloth" class="button secondary">Notre GitHub</a>

<table data-view="cards" data-full-width="true"><thead><tr><th></th><th></th><th data-hidden data-card-cover data-type="image">Image de couverture</th><th data-hidden data-card-target data-type="content-ref"></th></tr></thead><tbody><tr><td><strong>Qwen3.6</strong></td><td>Le nouveau modèle MoE 35B-A3B est là !</td><td><a href="https://550366147-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2Fdy7z03AUFzXHKqqOY7kC%2Fqwen3.6%20logo.png?alt=media&#x26;token=a894c047-a9ea-4f9c-824a-be86ec81f54d">qwen3.6 logo.png</a></td><td><a href="../modeles/qwen3.6">qwen3.6</a></td></tr><tr><td><h4>Google Gemma 4</h4></td><td>Exécutez et entraînez les nouveaux modèles Gemma 4 de Google !</td><td><a href="https://550366147-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FkEjWOJqBWCtIN9Cg6CdI%2FGemma%204%20landscape.png?alt=media&#x26;token=57d3f596-dae8-4eab-80e6-0847794ffc8d">Gemma 4 landscape.png</a></td><td><a href="../modeles/gemma-4">gemma-4</a></td></tr><tr><td><h4><strong>Présentation d’Unsloth Studio</strong></h4></td><td>Une nouvelle interface web ouverte, sans code, pour entraîner et exécuter des LLM.</td><td><a href="https://550366147-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FstfdTMsoBMmsbQsgQ1Ma%2Flandscape%20clip%20gemma.gif?alt=media&#x26;token=eec5f2f7-b97a-4c1c-ad01-5a041c3e4013">landscape clip gemma.gif</a></td><td><a href="../nouveau/studio">studio</a></td></tr></tbody></table>

<table data-view="cards" data-full-width="false"><thead><tr><th></th><th></th><th data-hidden data-card-cover data-type="image">Image de couverture</th><th data-hidden data-card-target data-type="content-ref"></th></tr></thead><tbody><tr><td><strong>Qwen3.5</strong></td><td>Les nouveaux LLM Qwen3.5 Small et Medium sont là !</td><td><a href="https://550366147-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2Fvw6yRxJDCeBl1CIsQkki%2Fqwen35.png?alt=media&#x26;token=28fe0357-351a-49e1-a176-bb21ecc8542a">qwen35.png</a></td><td><a href="../modeles/qwen3.5">qwen3.5</a></td></tr><tr><td><strong>GLM-5.1</strong></td><td>Exécutez localement le nouveau modèle ouvert SOTA.</td><td><a href="https://550366147-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FK69rPUGatLzCBK9uaqxU%2Fglm51%20logo.png?alt=media&#x26;token=934ef701-0233-47fd-ad49-6c1a5959b684">glm51 logo.png</a></td><td><a href="../modeles/glm-5.1">glm-5.1</a></td></tr><tr><td><strong>MiniMax-M2.7</strong></td><td>Exécutez le nouveau modèle de 230B de taille.</td><td><a href="https://550366147-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FoWNqL9cQDvNtxEcwGfLY%2Fm27.png?alt=media&#x26;token=aed5db72-4961-4089-b93a-01d9c4d19f0c">m27.png</a></td><td><a href="../modeles/minimax-m27">minimax-m27</a></td></tr><tr><td><strong>NVIDIA Nemotron 3</strong></td><td>Exécutez les nouveaux modèles 4B et 120B de NVIDIA.</td><td><a href="https://550366147-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FllPS7l6rpEr68mytlxXU%2Fnemotron%203%20logo.png?alt=media&#x26;token=7bd05673-6b97-41c2-b657-530b7e6e4e3c">nemotron 3 logo.png</a></td><td><a href="../modeles/nemotron-3">nemotron-3</a></td></tr><tr><td><strong>Le MoE plus rapide est arrivé !</strong></td><td>Entraînez des LLM MoE 12x plus vite avec moins de VRAM.</td><td><a href="https://550366147-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2Fh9BrTJR8CZghHOe1Yrgj%2Ffaster%20moe%201920.png?alt=media&#x26;token=404e70ea-6aa1-4af0-a01c-7490d8147c4e">faster moe 1920.png</a></td><td><a href="../bases/faster-moe">faster-moe</a></td></tr><tr><td><strong>Claude Code et Codex</strong></td><td>Apprenez à exécuter des LLM locaux via Claude et OpenAI.</td><td><a href="https://550366147-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FM3el6W6XCMc0iBEgdeov%2Fclaude%20code%20codex.png?alt=media&#x26;token=e45dbc05-9af6-40f7-bcf8-59b79ac44909">claude code codex.png</a></td><td><a href="../bases/claude-code">claude-code</a></td></tr></tbody></table>

{% columns %}
{% column width="50%" %}
{% content-ref url="fine-tuning-llms-guide" %}
[fine-tuning-llms-guide](https://unsloth.ai/docs/fr/commencer/fine-tuning-llms-guide)
{% endcontent-ref %}

{% content-ref url="unsloth-notebooks" %}
[unsloth-notebooks](https://unsloth.ai/docs/fr/commencer/unsloth-notebooks)
{% endcontent-ref %}
{% endcolumn %}

{% column width="50%" %}
{% content-ref url="unsloth-model-catalog" %}
[unsloth-model-catalog](https://unsloth.ai/docs/fr/commencer/unsloth-model-catalog)
{% endcontent-ref %}

{% content-ref url="../modeles/tutorials" %}
[tutorials](https://unsloth.ai/docs/fr/modeles/tutorials)
{% endcontent-ref %}
{% endcolumn %}
{% endcolumns %}

### 🦥 Pourquoi Unsloth ?

* Nous collaborons directement avec les équipes derrière [gpt-oss](https://docs.unsloth.ai/new/gpt-oss-how-to-run-and-fine-tune#unsloth-fixes-for-gpt-oss), [Qwen3](https://www.reddit.com/r/LocalLLaMA/comments/1kaodxu/qwen3_unsloth_dynamic_ggufs_128k_context_bug_fixes/), [Llama 4](https://github.com/ggml-org/llama.cpp/pull/12889), [Mistral](https://unsloth.ai/docs/fr/modeles/tutorials/devstral-how-to-run-and-fine-tune), [Gemma 1-3](https://news.ycombinator.com/item?id=39671146) et [Phi-4](https://unsloth.ai/blog/phi4), où nous avons **corrigé des bugs critiques** qui ont grandement amélioré la précision du modèle. Andrej Karpathy, par exemple, a [salué notre travail](https://x.com/karpathy/status/1765473722985771335).
* Unsloth simplifie l’entraînement local, l’inférence, les données et le déploiement
* Unsloth prend en charge l’inférence et l’entraînement de plus de 500 modèles : [vision](https://unsloth.ai/docs/fr/bases/vision-fine-tuning), [TTS](https://unsloth.ai/docs/fr/bases/text-to-speech-tts-fine-tuning), [embedding](https://unsloth.ai/docs/fr/bases/embedding-finetuning), [RL](https://unsloth.ai/docs/fr/commencer/reinforcement-learning-rl-guide)

### ⭐ Fonctionnalités

Unsloth vous permet d’exécuter et d’entraîner des modèles pour le texte, [l’audio](https://unsloth.ai/docs/basics/text-to-speech-tts-fine-tuning), [embedding](https://unsloth.ai/docs/new/embedding-finetuning), [vision](https://unsloth.ai/docs/basics/vision-fine-tuning) et plus encore. Unsloth fournit de nombreuses fonctionnalités clés pour l’inférence et l’entraînement :

#### Inférence

* Rechercher + télécharger + exécuter n’importe quel modèle comme les GGUF, les adaptateurs LoRA, les safetensors.
* [Appel d’outils avec auto-réparation](https://unsloth.ai/docs/fr/nouveau/studio/chat#auto-healing-tool-calling) / recherche web et appel d’API compatibles avec OpenAI.
* [Paramètre d’inférence automatique](https://unsloth.ai/docs/fr/nouveau/studio/chat#auto-parameter-tuning) ajustement et modification des modèles de conversation.
* [Exporter ou enregistrer](https://unsloth.ai/docs/fr/nouveau/studio/export) votre modèle en GGUF, safetensor 16 bits, etc.
* [Comparer les sorties](https://unsloth.ai/docs/fr/nouveau/studio/chat#model-arena) avec deux modèles différents côte à côte.

#### Entraînement

* Entraîner et [RL](https://unsloth.ai/docs/fr/commencer/reinforcement-learning-rl-guide) plus de 500 modèles \~2x plus vite avec \~70 % de VRAM en moins (sans perte de précision)
* Prend en charge le fine-tuning complet, le pré-entraînement, l’entraînement en 4 bits, 16 bits et FP8.
* [Créer automatiquement des jeux de données](https://unsloth.ai/docs/fr/nouveau/studio/data-recipe) à partir de fichiers PDF, CSV, DOCX. Modifiez les données dans un workflow visuel par nœuds.
* Observabilité : surveillez l’entraînement en direct, suivez la perte, l’utilisation du GPU, personnalisez les graphiques
* Le plus efficace [**apprentissage par renforcement**](https://unsloth.ai/docs/fr/commencer/reinforcement-learning-rl-guide) bibliothèque, utilisant 80 % de VRAM en moins pour GRPO, [FP8](https://unsloth.ai/docs/fr/commencer/reinforcement-learning-rl-guide/fp8-reinforcement-learning) etc.
* [Multi-GPU](https://unsloth.ai/docs/fr/bases/multi-gpu-training-with-unsloth) fonctionne, mais une bien meilleure version arrive bientôt !

### Démarrage rapide

Unsloth prend en charge MacOS, Linux, [Windows](https://unsloth.ai/docs/fr/commencer/install/windows-installation), [NVIDIA](https://unsloth.ai/docs/fr/commencer/install/pip-install), Intel et les configurations CPU. Voir : [unsloth-requirements](https://unsloth.ai/docs/fr/commencer/fine-tuning-for-beginners/unsloth-requirements "mention"). Utilisez les mêmes commandes pour mettre à jour :

#### **MacOS, Linux, WSL :**

```bash
curl -fsSL https://unsloth.ai/install.sh | sh
```

#### **Windows PowerShell :**

```bash
irm https://unsloth.ai/install.ps1 | iex
```

#### Docker

Utilisez notre **image Docker**: [`unsloth/unsloth`](https://hub.docker.com/r/unsloth/unsloth) officielle, qui fonctionne actuellement pour Windows, WSL et Linux. La prise en charge de MacOS arrive bientôt.

#### Lancer Unsloth

```bash
unsloth studio -H 0.0.0.0 -p 8888
```

#### Nouveaux modèles

<table data-view="cards"><thead><tr><th></th><th data-hidden></th><th data-hidden data-card-cover data-type="image">Image de couverture</th><th data-hidden data-card-target data-type="content-ref"></th></tr></thead><tbody><tr><td><strong>Kimi K2.5</strong></td><td></td><td><a href="https://550366147-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FgcSsB0cPhjj8inDt1bqf%2Fkimi%20k25%20logo.png?alt=media&#x26;token=19aec00a-7e0f-4980-b2b7-98b65a23123e">kimi k25 logo.png</a></td><td><a href="../modeles/kimi-k2.5">kimi-k2.5</a></td></tr><tr><td><strong>MiniMax-M2.5</strong></td><td></td><td><a href="https://550366147-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2F0yrdjCKbV8qnqyTrQ1pZ%2Fminimax2.5%20logo.png?alt=media&#x26;token=183839fe-6750-4c95-b058-c991ec8a5dec">minimax2.5 logo.png</a></td><td><a href="../modeles/tutorials/minimax-m25">minimax-m25</a></td></tr><tr><td><strong>GLM-4.7-Flash</strong></td><td></td><td><a href="https://550366147-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2F6PQZ23CoUdZs1EZCjtYn%2Fglm4.7flash.png?alt=media&#x26;token=d3dc776e-ef3e-4eb3-ad4e-bf45e7b5745a">glm4.7flash.png</a></td><td><a href="../modeles/glm-4.7-flash">glm-4.7-flash</a></td></tr></tbody></table>

### Qu’est-ce que le fine-tuning et le RL ? Pourquoi ?

[**Le fine-tuning** d’un LLM](https://unsloth.ai/docs/fr/commencer/fine-tuning-llms-guide) personnalise son comportement, renforce ses connaissances du domaine et optimise ses performances pour des tâches spécifiques. En affinant un modèle pré-entraîné (par ex. Llama-3.1-8B) sur un jeu de données, vous pouvez :

* **Mettre à jour les connaissances**: Introduire de nouvelles informations spécifiques au domaine.
* **Personnaliser le comportement**: Ajuster le ton, la personnalité ou le style de réponse du modèle.
* **Optimiser pour des tâches**: Améliorer la précision et la pertinence pour des cas d’usage spécifiques.

[**L’apprentissage par renforcement (RL)**](https://unsloth.ai/docs/fr/commencer/reinforcement-learning-rl-guide) est le moment où un « agent » apprend à prendre des décisions en interagissant avec un environnement et en recevant des **retours** sous la forme de **récompenses** ou de **pénalités**.

* **Action :** Ce que le modèle génère (par ex. une phrase).
* **Récompense :** Un signal indiquant à quel point l’action du modèle était bonne ou mauvaise (par ex. la réponse a-t-elle respecté les instructions ? était-elle utile ?).
* **Environnement :** Le scénario ou la tâche sur laquelle le modèle travaille (par ex. répondre à la question d’un utilisateur).

**Exemples de cas d’usage du fine-tuning ou du RL**:

* Permet aux LLM de prédire si un titre a un impact positif ou négatif sur une entreprise.
* Peut utiliser les interactions historiques avec les clients pour obtenir des réponses plus précises et personnalisées.
* Affiner un LLM sur des textes juridiques pour l’analyse de contrats, la recherche en jurisprudence et la conformité.

Vous pouvez considérer un modèle affiné comme un agent spécialisé conçu pour accomplir des tâches spécifiques plus efficacement et plus précisément. **Le fine-tuning peut reproduire toutes les capacités de RAG**, mais pas l’inverse.

{% columns %}
{% column width="50%" %}
{% content-ref url="fine-tuning-for-beginners/faq-+-is-fine-tuning-right-for-me" %}
[faq-+-is-fine-tuning-right-for-me](https://unsloth.ai/docs/fr/commencer/fine-tuning-for-beginners/faq-+-is-fine-tuning-right-for-me)
{% endcontent-ref %}

{% content-ref url="../bases/inference-and-deployment" %}
[inference-and-deployment](https://unsloth.ai/docs/fr/bases/inference-and-deployment)
{% endcontent-ref %}
{% endcolumn %}

{% column width="50%" %}
{% content-ref url="reinforcement-learning-rl-guide" %}
[reinforcement-learning-rl-guide](https://unsloth.ai/docs/fr/commencer/reinforcement-learning-rl-guide)
{% endcontent-ref %}

{% content-ref url="../bases/unsloth-dynamic-2.0-ggufs" %}
[unsloth-dynamic-2.0-ggufs](https://unsloth.ai/docs/fr/bases/unsloth-dynamic-2.0-ggufs)
{% endcontent-ref %}
{% endcolumn %}
{% endcolumns %}

<figure><img src="https://550366147-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2Fgit-blob-134302f2507d4313b9575917c9a43b0a0028856c%2Flarge%20sloth%20wave.png?alt=media" alt="" width="188"><figcaption></figcaption></figure>


---

# Agent Instructions: Querying This Documentation

If you need additional information that is not directly available in this page, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on the current page URL with the `ask` query parameter:

```
GET https://unsloth.ai/docs/fr/commencer/readme.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
