⁉️FP16 と BF16 の比較(RL 用)
Training-Inference のミスマッチを解消する方法:FP16 を使用することが bfloat16 より優れていることを示す論文 https://arxiv.org/pdf/2510.26788
最終更新
役に立ちましたか?
Training-Inference のミスマッチを解消する方法:FP16 を使用することが bfloat16 より優れていることを示す論文 https://arxiv.org/pdf/2510.26788
最終更新
役に立ちましたか?
役に立ちましたか?
from unsloth import FastLanguageModel
import torch
max_seq_length = 2048 # より長い推論履歴には増やせます
lora_rank = 32 # ランクが大きいほど賢くなりますが遅くなります
model, tokenizer = FastLanguageModel.from_pretrained(
model_name = "unsloth/Qwen3-4B-Base",
max_seq_length = max_seq_length,
load_in_4bit = False, # LoRA 16bit用はFalse
fast_inference = True, # vLLM の高速推論を有効にする
max_lora_rank = lora_rank,
gpu_memory_utilization = 0.9, # メモリ不足の場合は値を下げてください
dtype = torch.float16, # torch.float16、torch.bfloat16 を使用可能
)