👁️视觉微调
了解如何使用 Unsloth 微调视觉/多模态 LLM
禁用视觉/仅文本微调
model = FastVisionModel.get_peft_model(
model,
finetune_vision_layers = True, # 如果不微调视觉层则为 False
finetune_language_layers = True, # 如果不微调语言层则为 False
finetune_attention_modules = True, # 如果不微调注意力层则为 False
finetune_mlp_modules = True, # 如果不微调 MLP 层则为 False
r = 16, # 值越大,准确度越高,但可能过拟合
lora_alpha = 16, # 建议的 alpha 至少等于 r
lora_dropout = 0,
bias = "none",
random_state = 3407,
use_rslora = False, # 我们支持秩稳定的 LoRA
loftq_config = None, # 以及 LoftQ
target_modules = "all-linear", # 现在可选!如有需要可指定列表
modules_to_save=[
"lm_head",
"embed_tokens",
],
)视觉数据整理器
视觉微调数据集
图像
标题

多图像训练
🔎仅在视觉模型(VLMs)上对助理回复进行训练
最后更新于
这有帮助吗?

