windowsComment fine-tuner des LLM sur Windows avec Unsloth (guide étape par étape)

Découvrez comment installer Unsloth sur Windows pour commencer à fine-tuner des LLM en local.

Vous pouvez désormais affiner des modèles directement sur votre appareil Windows local sans WSL en utilisant Unslotharrow-up-right. Pour ce guide, il existe 3 méthodes principales que vous pouvez utiliser (Conda, Docker et WSL). Si PyTorch est déjà installé sur Windows, pip install unsloth devrait fonctionner. Sinon, suivez nos guides ci-dessous :

Tutoriel CondaTutoriel DockerTutoriel WSL

Unsloth Studio

Nous avons lancé une nouvelle interface web appelée Unsloth Studio qui fonctionne sur Windows dès l’installation :

irm https://unsloth.ai/install.ps1 | iex

Ensuite, pour le lancer à chaque fois :

unsloth studio -H 0.0.0.0 -p 8888

Pour des instructions détaillées d'installation et les prérequis d'Unsloth Studio, consultez notre guide.

Vous trouverez ci-dessous les instructions d’installation pour l’Unsloth Core original :

Méthode n°1 - Windows via Conda :

1

Installer Miniconda (ou Anaconda)

Télécharger Anaconda iciarrow-up-right. Nous vous suggérons d’utiliser Minicondaarrow-up-right. Pour l’utiliser, ouvrez d’abord Powershell - recherchez « Windows Powershell » dans le menu Démarrer :

Ensuite, Powershell s’ouvrira :

Ensuite, copiez-collez ce qui suit : CTRL+C, puis collez-le dans Powershell avec CTRL+V :

Invoke-WebRequest -Uri "https://repo.anaconda.com/miniconda/Miniconda3-latest-Windows-x86_64.exe" -OutFile ".\miniconda.exe"
Start-Process -FilePath ".\miniconda.exe" -ArgumentList "/S" -Wait
del .\miniconda.exe

Acceptez l’avertissement et appuyez sur « Coller quand même » puis attendez.

Il télécharge l’installateur comme ci-dessous :

Après l’installation, ouvrez open Anaconda Powershell Prompt pour utiliser Miniconda via Démarrer -> Recherchez-le :

Ensuite, vous verrez :

2

Créer un environnement conda

conda create --name unsloth_env python==3.12 -y
conda activate unsloth_env

Vous verrez :

3

Vérifier nvidia-smi pour confirmer que vous avez un GPU, et recherchez la version CUDA

Après avoir saisi nvidia-smi dans Powershell, vous devriez voir quelque chose comme ci-dessous. Si vous n’avez pas nvidia-smi ou si ce qui suit ne s’affiche pas, vous devez réinstaller les pilotes NVIDIAarrow-up-right.

4

Installer PyTorch

Lors de l’exécution de nvidia-smi vous verrez en haut à droite : « CUDA Version: 13.0 ». Installez PyTorch dans PowerShell via. Modifiez 130 selon votre version CUDA - assurez-vous que la version existearrow-up-right et correspond à la version de votre pilote CUDA.

pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu130

Vous verrez :

Essayez d’exécuter ceci en Python via python après l’installation de PyTorch :

import torch
print(torch.cuda.is_available())
A = torch.ones((10, 10), device = "cuda")
B = torch.ones((10, 10), device = "cuda")
A @ B

Vous devriez voir une matrice de 10. Vérifiez aussi que la première valeur est True.

5

Installer Unsloth (uniquement si PyTorch fonctionne !)

triangle-exclamation

Dans Powershell (après avoir quitté Python via exit() , faites cela et attendez :

pip install unsloth
6

Vérifier qu’Unsloth fonctionne

Utilisez maintenant n’importe quel script dans Notebooks Unsloth (à enregistrer dans un fichier .py), ou utilisez le script de base ci-dessous :

Vous devriez voir :

🦥 Unsloth : Va modifier votre ordinateur pour permettre un affinement gratuit 2x plus rapide.
🦥 Unsloth Zoo va maintenant tout modifier pour accélérer l’entraînement !
==((====))==  Unsloth 2026.1.4 : patching rapide de Gemma3. Transformers : 4.57.6.
   \\   /|    NVIDIA GeForce RTX 3060. Nombre de GPU = 1. Mémoire maximale : 12.0 Go. Plateforme : Windows.
O^O/ \_/ \    Torch : 2.10.0+cu130. CUDA : 8.6. Kit d’outils CUDA : 13.0. Triton : 3.6.0
\        /    Bfloat16 = TRUE. FA [Xformers = 0.0.34. FA2 = False]
 "-____-"     Licence gratuite : http://github.com/unslothai/unsloth
Unsloth : le téléchargement rapide est activé - ignorez les barres de téléchargement rouges !
Unsloth : Gemma3 ne prend pas en charge SDPA - basculement vers fast eager.
Unsloth : rendre `model.base_model.model.model` dépendant des gradients
Unsloth : tokenisation de ["text"] (num_proc=1):   0%|                 | 0/210289 [00:00<?, ? examples/s]�  Unsloth : Va modifier votre ordinateur pour permettre un affinement gratuit 2x plus rapide.
🦥 Unsloth : Va modifier votre ordinateur pour permettre un affinement gratuit 2x plus rapide.

Et l’entraînement :

Méthode n°2 - Docker :

Docker est peut-être le moyen le plus simple pour les utilisateurs Windows de commencer avec Unsloth, car aucune configuration ni aucun problème de dépendances n’est nécessaire. unsloth/unslotharrow-up-right est la seule image Docker d’Unsloth. Pour Blackwell et les GPU de la série 50, utilisez cette même image - aucune image séparée n’est nécessaire.

Pour les instructions d’installation, veuillez suivre notre guide Docker, sinon voici un guide de démarrage rapide :

1

Installez Docker et NVIDIA Container Toolkit.

Installez Docker via Linuxarrow-up-right ou Desktoparrow-up-right (autre). Ensuite, installez NVIDIA Container Toolkitarrow-up-right:

export NVIDIA_CONTAINER_TOOLKIT_VERSION=1.17.8-1
sudo apt-get update && sudo apt-get install -y \
  nvidia-container-toolkit=${NVIDIA_CONTAINER_TOOLKIT_VERSION} \
  nvidia-container-toolkit-base=${NVIDIA_CONTAINER_TOOLKIT_VERSION} \
  libnvidia-container-tools=${NVIDIA_CONTAINER_TOOLKIT_VERSION} \
  libnvidia-container1=${NVIDIA_CONTAINER_TOOLKIT_VERSION}
2

Exécutez le conteneur.

unsloth/unslotharrow-up-right est la seule image Docker d’Unsloth.

docker run -d -e JUPYTER_PASSWORD="mypassword" \
  -p 8888:8888 -p 2222:22 \
  -v $(pwd)/work:/workspace/work \
  --gpus all \
  unsloth/unsloth
3

Accéder à Jupyter Lab

Allez à http://localhost:8888arrow-up-right et ouvrez Unsloth. Accédez aux onglets unsloth-notebooks pour voir les notebooks Unsloth.

4

Commencer l’entraînement avec Unsloth

Si vous débutez, suivez notre guide Guide d’affinement, Guide RL ou enregistrez/copiez simplement l’un de nos notebooks.

5

Problèmes Docker - GPU non détecté ?

Essayez de passer par WSL via Windows

Méthode n°3 - WSL :

1

Installer WSL

Ouvrez l’Invite de commandes, le Terminal, et installez Ubuntu. Définissez le mot de passe si demandé.

2

Si vous n’avez PAS fait (1), donc si WSL est déjà installé, entrez dans WSL en tapant wsl puis ENTRÉE dans l’invite de commandes

3

Installer Python

4

Installer PyTorch

Si vous rencontrez des problèmes d’autorisation, utilisez –break-system-packages pour que pip install torch torchvision --force-reinstall --index-url https://download.pytorch.org/whl/cu130 –break-system-packages

5

Installer Unsloth et Jupyter Notebook

Si vous rencontrez des problèmes d’autorisation, utilisez –-break-system-packages pour que pip install unsloth jupyter –-break-system-packages

6

Lancer Unsloth via Jupyter Notebook

Ensuite, ouvrez nos notebooks dans Notebooks Unslothet chargez-les ! Vous pouvez également aller sur les notebooks Colab et télécharger > télécharger .ipynb et les charger.

circle-exclamation

Dépannage / Avancé

Pour instructions d’installation avancées ou si vous voyez des erreurs étranges lors des installations :

  1. Installer torch et triton. Allez sur https://pytorch.org pour l’installer. Par exemple pip install torch torchvision torchaudio triton

  2. Vérifiez si CUDA est installé correctement. Essayez nvcc. Si cela échoue, vous devez installer cudatoolkit ou les pilotes CUDA.

  3. Si vous utilisez un GPU Intel, vous devrez suivre notre guide Windows Intel

  4. Installer xformers manuellement. Vous pouvez essayer d’installer vllm et voir si vllm réussit. Vérifiez si xformers a réussi avec python -m xformers.info Allez sur https://github.com/facebookresearch/xformers. Une autre option consiste à installer flash-attn pour les GPU Ampere.

  5. Vérifiez bien que vos versions de Python, CUDA, CUDNN, torch, triton, et xformers sont compatibles entre elles. La matrice de compatibilité PyTorcharrow-up-right peut être utile.

  6. Enfin, installez bitsandbytes et vérifiez-le avec python -m bitsandbytes

Mis à jour

Ce contenu vous a-t-il été utile ?