infoAjustement des LLM sur GPU Intel avec Unsloth

Apprenez comment entraîner et affiner des modèles de langage de grande taille sur GPU Intel.

Vous pouvez maintenant affiner des LLMs sur votre appareil Intel local avec Unsloth ! Lisez notre guide pour savoir exactement comment commencer à entraîner votre propre modèle personnalisé.

Avant de commencer, assurez-vous d'avoir :

  • GPU Intel : Data Center GPU Max Series, Arc Series ou Intel Ultra AIPC

  • OS : Linux (Ubuntu 22.04+ recommandé) ou Windows 11 (recommandé)

  • Windows uniquement : Installez Intel oneAPI Base Toolkit 2025.2.1 (sélectionnez la version 2025.2.1)

  • Pilote graphique Intel : Dernier pilote recommandé pour Windows/Linux

  • Python : 3.10+

Construire Unsloth avec le support Intel

1

Créer un nouvel environnement conda (optionnel)

conda create -n unsloth-xpu python==3.10
conda activate unsloth-xpu
2

Installer Unsloth

git clone https://github.com/unslothai/unsloth.git
cd unsloth
pip install .[intel-gpu-torch290]
circle-info

Linux uniquement : Installer vLLM (Optionnel) Vous pouvez également installer vLLM pour l'inférence et l'AP. Veuillez suivre le guide de vLLMarrow-up-right.

3

Vérifiez vos environnements

import torch
print(f"Version de PyTorch : {torch.__version__}")
print(f"XPU disponible : {torch.xpu.is_available()}")
print(f"Nombre de dispositifs XPU : {torch.xpu.device_count()}")
print(f"Nom du dispositif XPU : {torch.xpu.get_device_name(0)}")
4

Commencez l'affinage.

Vous pouvez utiliser directement nos carnets ou consulter notre guide d'affinage ou apprentissage par renforcement guides.

Windows uniquement - Configurations d'exécution

Dans l'invite de commandes avec les privilèges Administrateur, activez la prise en charge des chemins longs dans le registre Windows :

powershell -Command "Set-ItemProperty -Path "HKLM:\\SYSTEM\\CurrentControlSet\\Control\\FileSystem" -Name "LongPathsEnabled" -Value 1

Cette commande n'a besoin d'être définie qu'une seule fois sur une machine. Elle n'a pas besoin d'être configurée avant chaque exécution. Ensuite :

  1. Téléchargez level-zero-win-sdk-1.20.2.zip depuis GitHubarrow-up-right

  2. Décompressez le level-zero-win-sdk-1.20.2.zip

  3. Dans l'invite de commandes, sous l'environnement conda unsloth-xpu :

Exemple 1 : Affinage QLoRA avec SFT

Cet exemple montre comment affiner un modèle Qwen3-32B en utilisant QLoRA 4 bits sur un GPU Intel. QLoRA réduit considérablement les besoins en mémoire, ce qui rend possible l'affinage de grands modèles sur du matériel grand public.

Exemple 2 : Apprentissage par renforcement GRPO

GRPO est une apprentissage par renforcement technique pour aligner les modèles de langage sur les préférences humaines. Cet exemple montre comment entraîner un modèle à suivre un format de sortie XML spécifique en utilisant plusieurs fonctions de récompense.

Qu'est-ce que GRPO ?

GRPO améliore le RLHF traditionnel en :

  • Utilisant une normalisation basée sur des groupes pour un entraînement plus stable

  • Prenant en charge plusieurs fonctions de récompense pour une optimisation multi-objectifs

  • Étant plus économe en mémoire que PPO

Dépannage

Erreurs de manque de mémoire (OOM)

Si vous manquez de mémoire, essayez ces solutions :

  1. Réduire la taille du lot : Réduire per_device_train_batch_size.

  2. Utiliser un modèle plus petit : Commencez par un modèle plus petit pour réduire les besoins en mémoire.

  3. Réduire la longueur de séquence : Réduire max_seq_length.

  4. Réduire le rang LoRA : Utiliser r=8 au lieu de r=16 ou r=32.

  5. Pour GRPO, réduisez le nombre de générations : Réduire num_generations.

(Windows uniquement) Mémoire partagée iGPU Intel Ultra AIPC

Pour Intel Ultra AIPC avec des pilotes GPU récents sous Windows, la mémoire GPU partagée pour le GPU intégré est généralement définie par défaut sur 57% de la mémoire système. Pour des modèles plus grands (par ex., Qwen3-32B), ou lors de l'utilisation d'une longueur de séquence maximale plus longue, d'une taille de lot plus grande, d'adaptateurs LoRA avec un rang LoRA plus élevé, etc., pendant l'affinage, vous pouvez augmenter la VRAM disponible en augmentant le pourcentage de mémoire système alloué à l'iGPU.

Vous pouvez ajuster cela en modifiant le registre :

  • Chemin : Computer\HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\GraphicsDrivers\MemoryManager

  • Clé à modifier : SystemPartitionCommitLimitPercentage (définir sur un pourcentage plus élevé)

Mis à jour

Ce contenu vous a-t-il été utile ?