Multi-GPU-Finetuning mit Unsloth
Lerne, wie man LLMs auf mehreren GPUs und Parallelismus mit Unsloth finetunt.
Siehe unseren neuen Distributed Data Parallel (DDP) Multi-GPU-Leitfaden hier.
Pipeline- / Modellaufteilung beim Laden
from unsloth import FastLanguageModel
model, tokenizer = FastLanguageModel.from_pretrained(
"unsloth/Llama-3.3-70B-Instruct",
load_in_4bit = True,
device_map = "balanced",
)Zuletzt aktualisiert
War das hilfreich?

