# Documentation Unsloth

Unsloth vous permet d’exécuter et d’entraîner des modèles d’IA sur votre propre matériel local.

Notre documentation vous guidera pour exécuter et entraîner votre propre modèle en local.

<a href="/pages/fae0ce37756fb39f97798fc8e7e12aa27c33bc88" class="button primary">Commencer</a> <a href="https://github.com/unslothai/unsloth" class="button secondary">Notre GitHub</a>

<table data-view="cards" data-full-width="false"><thead><tr><th></th><th></th><th data-hidden data-card-cover data-type="image">Image de couverture</th><th data-hidden data-card-target data-type="content-ref"></th></tr></thead><tbody><tr><td><strong>Qwen3.6</strong></td><td>Le nouveau modèle Qwen3.6-27B est arrivé !</td><td><a href="/files/cf504ebacb40fa34e1dfedcb0a07f852a7879906">/files/cf504ebacb40fa34e1dfedcb0a07f852a7879906</a></td><td><a href="/pages/4a2b83ac4bf0233da80a1e3b6ab9fb218108742c">/pages/4a2b83ac4bf0233da80a1e3b6ab9fb218108742c</a></td></tr><tr><td><strong>Point de terminaison API Unsloth</strong></td><td>Effectuez des inférences avec Unsloth via notre nouvelle API.</td><td><a href="/files/d45a2a432067752cb9e94ae45683815637b528e9">/files/d45a2a432067752cb9e94ae45683815637b528e9</a></td><td><a href="/pages/d7ed99d74f1997aa8747da14938bbaee3f09d15b">/pages/d7ed99d74f1997aa8747da14938bbaee3f09d15b</a></td></tr><tr><td><strong>Google Gemma 4</strong></td><td>Exécutez et entraînez les nouveaux modèles Gemma 4 de Google !</td><td><a href="/files/acef2bf629221d6ee64c998ea956c770bffa46d0">/files/acef2bf629221d6ee64c998ea956c770bffa46d0</a></td><td><a href="/pages/fa9788be3ba8450d14c81331c0249f2201968a40">/pages/fa9788be3ba8450d14c81331c0249f2201968a40</a></td></tr><tr><td><strong>NVIDIA Nemotron 3 Omni</strong></td><td>Exécutez localement le plus puissant omni 30B.</td><td><a href="/files/706403e7624cb8ab884772f00acd62aeb99a4f2a">/files/706403e7624cb8ab884772f00acd62aeb99a4f2a</a></td><td><a href="/pages/84a40d9b3b6f93f936dda7731d24ec92ca78678b">/pages/84a40d9b3b6f93f936dda7731d24ec92ca78678b</a></td></tr><tr><td><strong>Présentation d’Unsloth Studio</strong></td><td>Nouvelle interface ouverte sans code pour entraîner et exécuter des LLMs.</td><td><a href="/files/93caac3ea9f36e951db039e5d7f695e27763705e">/files/93caac3ea9f36e951db039e5d7f695e27763705e</a></td><td><a href="/pages/22a56cb154401d43a94d87fa72ce6dfde69b18e3">/pages/22a56cb154401d43a94d87fa72ce6dfde69b18e3</a></td></tr><tr><td><strong>Kimi K2.6</strong></td><td>Exécutez le nouveau modèle ouvert SOTA.</td><td><a href="/files/459e32276064c7c3b81008a15fa01472a0a0e2eb">/files/459e32276064c7c3b81008a15fa01472a0a0e2eb</a></td><td><a href="/pages/bc4b3913f03692fd54555ddd8ad4faf9c0654c47">/pages/bc4b3913f03692fd54555ddd8ad4faf9c0654c47</a></td></tr></tbody></table>

{% columns %}
{% column width="50%" %}
{% content-ref url="/pages/9bbe6f156adffaddead7109d8475ab4a8547be46" %}
[Fine-tuning Guide](/docs/fr/commencer/fine-tuning-llms-guide.md)
{% endcontent-ref %}

{% content-ref url="/pages/2bdfa5349e5d636154595876b11e5db5e1f9e9d6" %}
[Carnets Unsloth](/docs/fr/commencer/unsloth-notebooks.md)
{% endcontent-ref %}
{% endcolumn %}

{% column width="50%" %}
{% content-ref url="/pages/ca98e2e30b9d7bfca2555b29e750ac7d5e3e674c" %}
[All Our Models](/docs/fr/commencer/unsloth-model-catalog.md)
{% endcontent-ref %}

{% content-ref url="/pages/41f2e6bbbe116f730cf3549300cf28972e8c72f4" %}
[Complete LLM Directory](/docs/fr/modeles/tutorials.md)
{% endcontent-ref %}
{% endcolumn %}
{% endcolumns %}

### 🦥 Pourquoi Unsloth ?

* Nous collaborons directement avec les équipes derrière [gpt-oss](https://docs.unsloth.ai/new/gpt-oss-how-to-run-and-fine-tune#unsloth-fixes-for-gpt-oss), [Qwen3](https://www.reddit.com/r/LocalLLaMA/comments/1kaodxu/qwen3_unsloth_dynamic_ggufs_128k_context_bug_fixes/), [Llama 4](https://github.com/ggml-org/llama.cpp/pull/12889), [Mistral](https://huggingface.co/mistralai/Mistral-Medium-3.5-128B/discussions/18), [Gemma 1-3](https://news.ycombinator.com/item?id=39671146) et [Phi-4](https://unsloth.ai/blog/phi4), où nous avons **corrigé des bogues critiques** qui ont grandement amélioré la précision du modèle. Andrej Karpathy, par exemple, a [salué notre travail](https://x.com/karpathy/status/1765473722985771335).
* Unsloth simplifie l’entraînement local, l’inférence, les données et le déploiement
* Unsloth prend en charge l’inférence et l’entraînement de plus de 500 modèles : [vision](/docs/fr/bases/vision-fine-tuning.md), [TTS](/docs/fr/bases/text-to-speech-tts-fine-tuning.md), [embedding](/docs/fr/bases/embedding-finetuning.md), [RL](/docs/fr/commencer/reinforcement-learning-rl-guide.md)

### ⭐ Fonctionnalités

Unsloth vous permet d’exécuter et d’entraîner des modèles pour le texte, [l’audio](https://unsloth.ai/docs/basics/text-to-speech-tts-fine-tuning), [embedding](https://unsloth.ai/docs/new/embedding-finetuning), [vision](https://unsloth.ai/docs/basics/vision-fine-tuning) et bien plus encore. Unsloth offre de nombreuses fonctionnalités clés pour l’inférence et l’entraînement :

#### Inférence

* Recherchez + téléchargez + exécutez n’importe quel modèle comme des GGUF, des adaptateurs LoRA, des safetensors.
* [Appels d’outils auto-réparateurs](/docs/fr/nouveau/studio/chat.md#auto-healing-tool-calling) / recherche web et appels d’API compatibles OpenAI.
* [Paramètres d’inférence automatiques](/docs/fr/nouveau/studio/chat.md#auto-parameter-tuning) ajustez et modifiez les modèles de conversation.
* [Exporter ou enregistrer](/docs/fr/nouveau/studio/export.md) votre modèle en GGUF, safetensor 16 bits, etc.
* [Comparer les sorties](/docs/fr/nouveau/studio/chat.md#model-arena) avec deux modèles différents côte à côte.

#### Entraînement

* Entraînez et [RL](/docs/fr/commencer/reinforcement-learning-rl-guide.md) plus de 500 modèles \~2x plus rapidement avec \~70 % de VRAM en moins (sans perte de précision)
* Prend en charge le fine-tuning complet, le pré-entraînement, l’entraînement en 4 bits, 16 bits et FP8.
* [Créer automatiquement des jeux de données](/docs/fr/nouveau/studio/data-recipe.md) à partir de fichiers PDF, CSV, DOCX. Modifiez les données dans un workflow visuel à nœuds.
* Observabilité : surveillez l’entraînement en direct, suivez la perte, l’utilisation du GPU, personnalisez les graphiques
* Le plus efficace [**apprentissage par renforcement**](/docs/fr/commencer/reinforcement-learning-rl-guide.md) bibliothèque, utilisant 80 % de VRAM en moins pour GRPO, [FP8](/docs/fr/commencer/reinforcement-learning-rl-guide/fp8-reinforcement-learning.md) etc.
* [Multi-GPU](/docs/fr/bases/multi-gpu-training-with-unsloth.md) fonctionne, mais une bien meilleure version arrive bientôt !

### Démarrage rapide

Unsloth prend en charge MacOS, Linux, [Windows](/docs/fr/commencer/install/windows-installation.md), [NVIDIA](/docs/fr/commencer/install/pip-install.md), Intel et les configurations CPU. Voir : [Exigences d'Unsloth](/docs/fr/commencer/fine-tuning-for-beginners/unsloth-requirements.md). Utilisez les mêmes commandes pour mettre à jour :

#### **MacOS, Linux, WSL :**

```bash
curl -fsSL https://unsloth.ai/install.sh | sh
```

#### **Windows PowerShell :**

```bash
irm https://unsloth.ai/install.ps1 | iex
```

#### Docker

Utilisez notre **image Docker**: [`unsloth/unsloth`](https://hub.docker.com/r/unsloth/unsloth) officielle, qui fonctionne actuellement pour Windows, WSL et Linux. La prise en charge de MacOS arrive bientôt.

#### Lancer Unsloth

```bash
unsloth studio -H 0.0.0.0 -p 8888
```

### Qu’est-ce que le fine-tuning et le RL ? Pourquoi ?

[**Le fine-tuning** d’un LLM](/docs/fr/commencer/fine-tuning-llms-guide.md) personnalise son comportement, enrichit ses connaissances du domaine et optimise ses performances pour des tâches spécifiques. En ajustant finement un modèle pré-entraîné (par ex. Llama-3.1-8B) sur un jeu de données, vous pouvez :

* **Mettre à jour les connaissances**: Introduire de nouvelles informations spécifiques au domaine.
* **Personnaliser le comportement**: Ajuster le ton, la personnalité ou le style de réponse du modèle.
* **Optimiser pour des tâches**: Améliorer la précision et la pertinence pour des cas d’usage spécifiques.

[**L’apprentissage par renforcement (RL)**](/docs/fr/commencer/reinforcement-learning-rl-guide.md) est le domaine où un « agent » apprend à prendre des décisions en interagissant avec un environnement et en recevant **des retours** sous la forme de **récompenses** ou de **pénalités**.

* **Action :** Ce que le modèle génère (par ex. une phrase).
* **Récompense :** Un signal indiquant à quel point l’action du modèle était bonne ou mauvaise (par ex. la réponse a-t-elle suivi les instructions ? était-elle utile ?).
* **Environnement :** Le scénario ou la tâche sur laquelle le modèle travaille (par ex. répondre à la question d’un utilisateur).

**Exemples de cas d’usage du fine-tuning ou du RL**:

* Permet aux LLMs de prédire si un titre a un impact positif ou négatif sur une entreprise.
* Peut utiliser les interactions historiques des clients pour des réponses plus précises et personnalisées.
* Ajustez finement un LLM sur des textes juridiques pour l’analyse de contrats, la recherche en jurisprudence et la conformité.

Vous pouvez considérer un modèle ajusté comme un agent spécialisé conçu pour effectuer des tâches spécifiques plus efficacement et plus performamment. **Le fine-tuning peut reproduire toutes les capacités de RAG**, mais pas l’inverse.

{% columns %}
{% column width="50%" %}
{% content-ref url="/pages/a4c177d0cc0d485af2566701bc0c3f6f94175629" %}
[FAQ + Le fine-tuning est-il fait pour moi ?](/docs/fr/commencer/fine-tuning-for-beginners/faq-+-is-fine-tuning-right-for-me.md)
{% endcontent-ref %}

{% content-ref url="/pages/44b6f06033c7dbf3b6521a33337058e295acc604" %}
[Inférence et déploiement](/docs/fr/bases/inference-and-deployment.md)
{% endcontent-ref %}
{% endcolumn %}

{% column width="50%" %}
{% content-ref url="/pages/85e0cbe0d1323be98ebb2569af86994406e2a2d6" %}
[Reinforcement Learning Guide](/docs/fr/commencer/reinforcement-learning-rl-guide.md)
{% endcontent-ref %}

{% content-ref url="/pages/8e3d570b34072053937ce45a7a2125f403689ec3" %}
[Dynamic 2.0 GGUFs](/docs/fr/bases/unsloth-dynamic-2.0-ggufs.md)
{% endcontent-ref %}
{% endcolumn %}
{% endcolumns %}

<figure><img src="/files/57e63047c6f1d904268843330e7ddf6c6242ab0c" alt="" width="188"><figcaption></figcaption></figure>


---

# Agent Instructions: Querying This Documentation

If you need additional information that is not directly available in this page, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on the current page URL with the `ask` query parameter:

```
GET https://unsloth.ai/docs/fr/commencer/readme.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
