👁️ビジョン ファインチューニング
Unsloth を使ってビジョン/マルチモーダル LLM をファインチューニングする方法を学びます
ビジョン/テキストのみのファインチューニングの無効化
model = FastVisionModel.get_peft_model(
model,
finetune_vision_layers = True, # ビジョン層をファインチューニングしない場合はFalse
finetune_language_layers = True, # 言語層を微調整しない場合は False
finetune_attention_modules = True, # 注意層を微調整しない場合は False
finetune_mlp_modules = True, # MLP 層を微調整しない場合は False
r = 16, # 値が大きいほど精度は上がるが過学習する可能性がある
lora_alpha = 16, # 推奨されるalphaは少なくともrと同じ
lora_dropout = 0,
bias = "none",
random_state = 3407,
use_rslora = False, # ランク安定化LoRAをサポートしています
loftq_config = None, # およびLoftQ
target_modules = "all-linear", # 現在はオプション!必要に応じてリストを指定できます
modules_to_save=[
"lm_head",
"embed_tokens",
],
)ビジョン用データコラレータ
ビジョンファインチューニング用データセット
画像
キャプション

マルチ画像トレーニング
🔎言語モデルの場合、前述のように
最終更新
役に立ちましたか?

