⁉️RL における FP16 と BF16 の比較
学習と推論の不一致を克服する FP16: https://arxiv.org/pdf/2510.26788 は float16 を bfloat16 よりも優れていることを示しています
最終更新
役に立ちましたか?
学習と推論の不一致を克服する FP16: https://arxiv.org/pdf/2510.26788 は float16 を bfloat16 よりも優れていることを示しています
最終更新
役に立ちましたか?
役に立ちましたか?
from unsloth import FastLanguageModel
import torch
max_seq_length = 2048 # より長い推論履歴には増やせます
lora_rank = 32 # ランクが大きいほど賢くなりますが遅くなります
model, tokenizer = FastLanguageModel.from_pretrained(
model_name = "unsloth/Qwen3-4B-Base",
max_seq_length = max_seq_length,
load_in_4bit = False, # LoRA 16bit用はFalse
fast_inference = True, # vLLM の高速推論を有効にする
max_lora_rank = lora_rank,
gpu_memory_utilization = 0.9, # メモリ不足の場合は値を下げてください
dtype = torch.float16, # torch.float16、torch.bfloat16 を使用可能
)