# Commencer

- [Documentation Unsloth](/docs/fr/commencer/readme.md): Unsloth est un framework open source pour exécuter et entraîner des modèles.
- [Fine-tuning pour débutants](/docs/fr/commencer/fine-tuning-for-beginners.md)
- [Exigences d'Unsloth](/docs/fr/commencer/fine-tuning-for-beginners/unsloth-requirements.md): Voici les exigences d'Unsloth, y compris les exigences système et de VRAM GPU.
- [FAQ + Le fine-tuning est-il fait pour moi ?](/docs/fr/commencer/fine-tuning-for-beginners/faq-+-is-fine-tuning-right-for-me.md): Si vous hésitez à savoir si le fine-tuning vous convient, voyez ici ! Découvrez les idées reçues sur le fine-tuning, comment il se compare à RAG, et plus encore :
- [Carnets Unsloth](/docs/fr/commencer/unsloth-notebooks.md): Notebooks de fine-tuning : explorez le catalogue Unsloth.
- [Catalogue des modèles Unsloth](/docs/fr/commencer/unsloth-model-catalog.md)
- [Installation d'Unsloth](/docs/fr/commencer/install.md): Apprenez à installer Unsloth localement ou en ligne.
- [Installer Unsloth via pip et uv](/docs/fr/commencer/install/pip-install.md): Pour installer Unsloth localement via Pip, suivez les étapes ci-dessous :
- [Installer Unsloth sur MacOS](/docs/fr/commencer/install/mac.md)
- [Comment fine-tuner des LLMs sur Windows avec Unsloth (guide étape par étape)](/docs/fr/commencer/install/windows-installation.md): Découvrez comment installer Unsloth sur Windows pour commencer à fine-tuner des LLMs localement.
- [Installer Unsloth via Docker](/docs/fr/commencer/install/docker.md): Installez Unsloth à l'aide de notre conteneur Docker officiel
- [Mise à jour d'Unsloth](/docs/fr/commencer/install/updating.md): Pour mettre à jour ou utiliser une ancienne version d'Unsloth, suivez les étapes ci-dessous :
- [Fine-tuning de LLMs sur GPU AMD avec le guide Unsloth](/docs/fr/commencer/install/amd.md): Apprenez à fine-tuner de grands modèles de langage (LLMs) sur des GPU AMD avec Unsloth.
- [Fine-tuning de LLMs sur GPU Intel avec Unsloth](/docs/fr/commencer/install/intel.md): Apprenez à entraîner et fine-tuner de grands modèles de langage sur des GPU Intel.
- [Guide du fine-tuning de LLMs](/docs/fr/commencer/fine-tuning-llms-guide.md): Apprenez toutes les bases et les bonnes pratiques du fine-tuning. Adapté aux débutants.
- [Guide des jeux de données](/docs/fr/commencer/fine-tuning-llms-guide/datasets-guide.md): Apprenez à créer et préparer un jeu de données pour le fine-tuning.
- [Guide des hyperparamètres de fine-tuning LoRA](/docs/fr/commencer/fine-tuning-llms-guide/lora-hyperparameters-guide.md): Apprenez pas à pas les meilleurs réglages de fine-tuning LLM : rang et alpha LoRA, époques, taille de lot + accumulation de gradients, QLoRA vs. LoRA, modules cibles, et plus encore.
- [Quel modèle dois-je utiliser pour le fine-tuning ?](/docs/fr/commencer/fine-tuning-llms-guide/what-model-should-i-use.md)
- [Tutoriel : comment fine-tuner Llama-3 et l'utiliser dans Ollama](/docs/fr/commencer/fine-tuning-llms-guide/tutorial-how-to-finetune-llama-3-and-use-in-ollama.md): Guide du débutant pour créer un assistant personnel personnalisé (comme ChatGPT) à exécuter localement sur Ollama
- [Guide de l'apprentissage par renforcement (RL)](/docs/fr/commencer/reinforcement-learning-rl-guide.md): Découvrez tout sur l'apprentissage par renforcement (RL) et comment entraîner votre propre modèle de raisonnement DeepSeek-R1 avec Unsloth en utilisant GRPO. Un guide complet du débutant au niveau avancé.
- [Apprentissage par renforcement GRPO avec un contexte 7x plus long](/docs/fr/commencer/reinforcement-learning-rl-guide/grpo-long-context.md): Découvrez comment Unsloth permet un fine-tuning RL à très long contexte.
- [Apprentissage par renforcement pour la vision (VLM RL)](/docs/fr/commencer/reinforcement-learning-rl-guide/vision-reinforcement-learning-vlm-rl.md): Entraînez des modèles de vision/multimodaux via GRPO et RL avec Unsloth !
- [Apprentissage par renforcement FP8](/docs/fr/commencer/reinforcement-learning-rl-guide/fp8-reinforcement-learning.md): Entraînez l'apprentissage par renforcement (RL) et GRPO en précision FP8 avec Unsloth.
- [Tutoriel : entraînez votre propre modèle de raisonnement avec GRPO](/docs/fr/commencer/reinforcement-learning-rl-guide/tutorial-train-your-own-reasoning-model-with-grpo.md): Guide du débutant pour transformer un modèle comme Llama 3.1 (8B) en modèle de raisonnement en utilisant Unsloth et GRPO.
- [Documentation avancée sur l'apprentissage par renforcement](/docs/fr/commencer/reinforcement-learning-rl-guide/advanced-rl-documentation.md): Paramètres de documentation avancés lors de l'utilisation d'Unsloth avec GRPO.
- [Apprentissage par renforcement GSPO](/docs/fr/commencer/reinforcement-learning-rl-guide/advanced-rl-documentation/gspo-reinforcement-learning.md): Entraînez-vous avec le RL GSPO (Group Sequence Policy Optimization) dans Unsloth.
- [Reward Hacking en RL](/docs/fr/commencer/reinforcement-learning-rl-guide/advanced-rl-documentation/rl-reward-hacking.md): Découvrez ce qu'est le Reward Hacking en apprentissage par renforcement et comment le contrer.
- [FP16 vs BF16 pour le RL](/docs/fr/commencer/reinforcement-learning-rl-guide/advanced-rl-documentation/fp16-vs-bf16-for-rl.md): Le document Defeating the Training-Inference Mismatch via FP16 https://arxiv.org/pdf/2510.26788 montre que l'utilisation de float16 est meilleure que bfloat16
- [RL économe en mémoire](/docs/fr/commencer/reinforcement-learning-rl-guide/memory-efficient-rl.md)
- [Entraînement d'optimisation des préférences - DPO, ORPO et KTO](/docs/fr/commencer/reinforcement-learning-rl-guide/preference-dpo-orpo-and-kto.md): Découvrez le fine-tuning d'alignement des préférences avec DPO, GRPO, ORPO ou KTO via Unsloth, suivez les étapes ci-dessous :
