👁️Vision-Feinabstimmung
Lerne, wie man Vision-/multimodale LLMs mit Unsloth feinabstimmt
Deaktivieren von Vision- / Nur-Text-Feinabstimmung
model = FastVisionModel.get_peft_model(
model,
finetune_vision_layers = True, # False, wenn Vision‑Layer nicht feinabgestimmt werden
finetune_language_layers = True, # False, wenn Sprach‑Layer nicht feinabgestimmt werden
finetune_attention_modules = True, # False, wenn Attention‑Layer nicht feinabgestimmt werden
finetune_mlp_modules = True, # False, wenn MLP‑Layer nicht feinabgestimmt werden
r = 16, # Je größer, desto höher die Genauigkeit, kann aber overfitten
lora_alpha = 16, # Empfohlen: alpha == r mindestens
lora_dropout = 0,
bias = "none",
random_state = 3407,
use_rslora = False, # Wir unterstützen rank‑stabilisiertes LoRA
loftq_config = None, # Und LoftQ
target_modules = "all-linear", # Jetzt optional! Kann bei Bedarf eine Liste angeben
modules_to_save=[
"lm_head",
"embed_tokens",
],
)Vision Data Collator
Training mit mehreren Bildern
Datensatz für Vision-Feinabstimmung
Bild
Bildunterschrift

🔎Training nur auf Assistentenantworten für Vision-Modelle, VLMs
Zuletzt aktualisiert
War das hilfreich?

