Fine-tuning multi-GPU avec Unsloth
Apprenez comment fine-tuner des LLM sur plusieurs GPU et le parallélisme avec Unsloth.
Voir notre nouveau Guide Distributed Data Parallel (DDP) multi-GPU ici.
Chargement par pipeline / partitionnement du modèle
from unsloth import FastLanguageModel
model, tokenizer = FastLanguageModel.from_pretrained(
"unsloth/Llama-3.3-70B-Instruct",
load_in_4bit = True,
device_map = "balanced",
)Mis à jour
Ce contenu vous a-t-il été utile ?

