Unsloth を使ったマルチ GPU ファインチューニング
複数 GPU と並列処理で LLM をファインチューニングする方法を Unsloth で学びます。
当社の新しい分散データ並列(Distributed Data Parallel)を参照してください (DDP)マルチGPUガイドはこちら.
パイプライン/モデル分割のロード
from unsloth import FastLanguageModel
model, tokenizer = FastLanguageModel.from_pretrained(
"unsloth/Llama-3.3-70B-Instruct",
load_in_4bit = True,
device_map = "balanced",
)最終更新
役に立ちましたか?

