👁️ビジョンファインチューニング
Unsloth を使って視覚/マルチモーダル LLM をファインチューニングする方法を学びましょう
ビジョン/テキストのみのファインチューニングの無効化
model = FastVisionModel.get_peft_model(
model,
finetune_vision_layers = True, # ビジョン層をファインチューニングしない場合はFalse
finetune_language_layers = True, # 言語層をファインチューニングしない場合はFalse
finetune_attention_modules = True, # アテンション層をファインチューニングしない場合はFalse
finetune_mlp_modules = True, # MLP層をファインチューニングしない場合はFalse
r = 16, # 値が大きいほど精度は高くなりますが、過学習する可能性があります
lora_alpha = 16, # 推奨:alpha == r以上
lora_dropout = 0,
bias = "none",
random_state = 3407,
use_rslora = False, # ランク安定化LoRAをサポートしています
loftq_config = None, # そしてLoftQ
target_modules = "all-linear", # これでオプションです!必要ならリストで指定できます
modules_to_save=[
"lm_head",
"embed_tokens",
],
)ビジョン用データコレータ
マルチ画像トレーニング
ビジョンファインチューニング用データセット
画像
キャプション

🔎ビジョンモデル(VLM)におけるアシスタント応答のみでのトレーニング
最終更新
役に立ちましたか?

