microchipAjustement des LLM avec Blackwell, série RTX 50 & Unsloth

Apprenez comment affiner des LLM sur les GPU Blackwell RTX 50 series et B200 de NVIDIA avec notre guide pas à pas.

Unsloth prend désormais en charge les GPU basés sur l'architecture Blackwell de NVIDIA, y compris les GPU de la série RTX 50 (5060–5090), le RTX PRO 6000, et des GPU tels que B200, B40, GB100, GB102 et bien d'autres ! Vous pouvez lire le article de blog NVIDIA iciarrow-up-right.

Unsloth est désormais compatible avec tous les GPU NVIDIA depuis 2018+, y compris le DGX Spark.

Notre nouveau image Docker prend en charge Blackwell. Exécutez l'image Docker et commencez l'entraînement ! Guide

Installation via pip

Installez simplement Unsloth :

pip install unsloth

Si vous rencontrez des problèmes, une autre option est de créer un environnement isolé séparé :

python -m venv unsloth
source unsloth/bin/activate
pip install unsloth

Notez que cela peut être pip3 ou pip3.13 et aussi python3 ou python3.13

Vous pourriez rencontrer des problèmes avec Xformers, auquel cas vous devriez construire depuis les sources :

# Désinstaller d'abord xformers installé par des bibliothèques précédentes
pip uninstall xformers -y

# Cloner et construire
pip install ninja
export TORCH_CUDA_ARCH_LIST="12.0"
git clone --depth=1 https://github.com/facebookresearch/xformers --recursive
cd xformers && python setup.py install && cd ..

Docker

unsloth/unslotharrow-up-right est la seule image Docker d'Unsloth. Pour les GPU Blackwell et de la série 50, utilisez cette même image - aucune image distincte n'est nécessaire.

Pour les instructions d'installation, veuillez suivre notre guide Docker Unsloth.

uv

uv (Avancé)

L'ordre d'installation est important, car nous souhaitons écraser les dépendances incluses par défaut avec des versions spécifiques (à savoir, xformers et triton).

  1. Je préfère utiliser uv plutôt que pip car c'est plus rapide et mieux pour résoudre les dépendances, en particulier pour les bibliothèques qui dépendent de torch mais pour lesquelles une version spécifique CUDA est requise dans ce scénario.

    Installez uv

    Créez un répertoire de projet et un venv :

  2. Installez vllm

    Notez que nous devons spécifier cu128, sinon vllm installera torch==2.7.0 mais avec cu126.

  3. Installez unsloth dépendances

    Si vous constatez des problèmes étranges de résolution dus à Xformers, vous pouvez aussi installer Unsloth depuis les sources sans Xformers :

  4. Télécharger et construire xformers (Optionnel)

    Xformers est optionnel, mais il est définitivement plus rapide et utilise moins de mémoire. Nous utiliserons le SDPA natif de PyTorch si vous ne voulez pas Xformers. La compilation de Xformers depuis les sources peut être lente, soyez donc prudent !

    Notez que nous devons explicitement définir TORCH_CUDA_ARCH_LIST=12.0.

  5. transformers Installez n'importe quelle version de transformers, mais il est préférable d'obtenir la dernière.

Conda ou mamba (Avancé)

  1. Installez conda/mamba

    Exécutez le script d'installation

    Créez un environnement conda ou mamba

    Activez l'environnement nouvellement créé

  2. Installez vllm

    Assurez-vous d'être dans l'environnement conda/mamba activé. Vous devriez voir le nom de votre environnement en préfixe de votre shell terminal comme ceci (unsloth-blackwell)user@machine:

    Notez que nous devons spécifier cu128, sinon vllm installera torch==2.7.0 mais avec cu126.

  3. Installez unsloth dépendances

    Assurez-vous d'être dans l'environnement conda/mamba activé. Vous devriez voir le nom de votre environnement en préfixe de votre shell terminal comme ceci (unsloth-blackwell)user@machine:

  4. Télécharger et construire xformers (Optionnel)

    Xformers est optionnel, mais il est définitivement plus rapide et utilise moins de mémoire. Nous utiliserons le SDPA natif de PyTorch si vous ne voulez pas Xformers. La compilation de Xformers depuis les sources peut être lente, soyez donc prudent !

    Vous devriez voir le nom de votre environnement en préfixe de votre shell terminal comme ceci (unsloth-blackwell)user@machine:

    Notez que nous devons explicitement définir TORCH_CUDA_ARCH_LIST=12.0.

  5. Mettre à jour triton

    Assurez-vous d'être dans l'environnement conda/mamba activé. Vous devriez voir le nom de votre environnement en préfixe de votre shell terminal comme ceci (unsloth-blackwell)user@machine:

    triton>=3.3.1 est requis pour Blackwell la prise en charge.

  6. Transformers Installez n'importe quelle version de transformers, mais il est préférable d'obtenir la dernière.

Si vous utilisez mamba comme gestionnaire de paquets, remplacez simplement conda par mamba pour toutes les commandes ci-dessus.

Remarques spécifiques à WSL

Si vous utilisez WSL (Windows Subsystem for Linux) et rencontrez des problèmes lors de la compilation de xformers (rappel : Xformers est optionnel, mais plus rapide pour l'entraînement), suivez ces étapes supplémentaires :

  1. Augmenter la limite de mémoire de WSL Créez ou modifiez le fichier de configuration WSL :

    Après avoir effectué ces modifications, redémarrez WSL :

  2. Installer xformers Utilisez la commande suivante pour installer xformers avec une compilation optimisée pour WSL :

    Le --no-build-isolation l'option aide à éviter d'éventuels problèmes de compilation dans les environnements WSL.

Mis à jour

Ce contenu vous a-t-il été utile ?