rectangle-historyFine-tuning multi-GPU avec Unsloth

Apprenez comment fine-tuner des LLM sur plusieurs GPU et le parallélisme avec Unsloth.

Unsloth prend actuellement en charge les configurations multi-GPU via des bibliothèques comme Accelerate et DeepSpeed. Cela signifie que vous pouvez déjà exploiter des méthodes de parallélisme telles que FSDP et DDP avec Unsloth.

Voir notre nouveau Guide Distributed Data Parallel (DDP) multi-GPU ici.

Nous savons que le processus peut être complexe et nécessite une configuration manuelle. Nous travaillons dur pour rendre la prise en charge multi-GPU beaucoup plus simple et conviviale, et nous annoncerons bientôt la prise en charge officielle du multi-GPU pour Unsloth.

Pour l'instant, vous pouvez utiliser notre notebook Kaggle Magistral-2509 comme exemple qui utilise Unsloth multi-GPU pour adapter le modèle de 24 milliards de paramètres ou notre guide DDP.

En attendant, pour activer le multi-GPU pour DDP, faites ce qui suit :

  1. Créez votre script d'entraînement nommé train.py (ou similaire). Par exemple, vous pouvez utiliser l'un de nos scripts d'entraînementarrow-up-right créés à partir de nos différents notebooks !

  2. paramètre de randomize à fixed si vous voulez voir comment différents réglages modifient les sorties. accelerate launch train.py ou torchrun --nproc_per_node N_GPUS train.pyN_GPUS est le nombre de GPU dont vous disposez.

Chargement par pipeline / partitionnement du modèle

Si vous n'avez pas assez de VRAM pour qu'un GPU charge par exemple Llama 70B, pas de souci - nous diviserons le modèle pour vous sur chaque GPU ! Pour activer cela, utilisez le device_map = "balanced" indicateur :

from unsloth import FastLanguageModel
model, tokenizer = FastLanguageModel.from_pretrained(
    "unsloth/Llama-3.3-70B-Instruct",
    load_in_4bit = True,
    device_map = "balanced",
)

Restez à l'écoute pour notre annonce officielle ! Pour plus de détails, consultez notre Pull Requestarrow-up-right discutant du support multi-GPU.

Mis à jour

Ce contenu vous a-t-il été utile ?