👁️Vision-Finetuning
Lerne, wie man Vision-/multimodale LLMs mit Unsloth finetunt
Deaktivierung von Vision- / Nur-Text-Feinabstimmung
model = FastVisionModel.get_peft_model(
model,
finetune_vision_layers = True, # False, wenn die Vision-Schichten nicht feinabgestimmt werden
finetune_language_layers = True, # False, wenn die Sprachschichten nicht feinabgestimmt werden
finetune_attention_modules = True, # False, wenn die Attention-Schichten nicht feinabgestimmt werden
finetune_mlp_modules = True, # False, wenn die MLP-Schichten nicht feinabgestimmt werden
r = 16, # Je größer, desto höher die Genauigkeit, kann aber überanpassen
lora_alpha = 16, # Empfohlene Alpha == r mindestens
lora_dropout = 0,
bias = "none",
random_state = 3407,
use_rslora = False, # Wir unterstützen rank-stabilisiertes LoRA
loftq_config = None, # Und LoftQ
target_modules = "all-linear", # Jetzt optional! Kann bei Bedarf eine Liste angeben
modules_to_save=[
"lm_head",
"embed_tokens",
],
)Vision Data Collator
Vision-Feinabstimmungs-Datensatz
Bild
Bildbeschreibung

Multi-Bild-Training
🔎response_part = "<start_of_turn>model\n",
Zuletzt aktualisiert
War das hilfreich?

