👁️视觉微调
了解如何使用 Unsloth 微调视觉/多模态 LLM。
禁用视觉/仅文本微调
model = FastVisionModel.get_peft_model(
model,
finetune_vision_layers = True, # 如果不微调视觉层则为 False
finetune_language_layers = True, # 如果不微调语言层则为 False
finetune_attention_modules = True, # 如果不微调注意力层则为 False
finetune_mlp_modules = True, # 如果不微调 MLP 层则为 False
r = 16, # 值越大,精度越高,但可能过拟合
lora_alpha = 16, # 建议 alpha 至少等于 r
lora_dropout = 0,
bias = "none",
random_state = 3407,
use_rslora = False, # 我们支持秩稳定化的 LoRA
loftq_config = None, # 以及 LoftQ
target_modules = "all-linear", # 现在可选!如有需要可指定列表
modules_to_save=[
"lm_head",
"embed_tokens",
],
)视觉数据整理器(Data Collator)
多图像训练
视觉微调的数据集
图像
说明

🔎仅对视觉模型(VLMs)训练助理回复
最后更新于
这有帮助吗?

