使用 Unsloth 的多 GPU 微调
了解如何在多个 GPU 上使用 Unsloth 进行微调和并行训练。
请参阅我们新的分布式数据并行 (DDP)多 GPU 指南在此处.
流水线 / 模型拆分加载
from unsloth import FastLanguageModel
model, tokenizer = FastLanguageModel.from_pretrained(
"unsloth/Llama-3.3-70B-Instruct",
load_in_4bit = True,
device_map = "balanced",
)最后更新于
这有帮助吗?

