👁️Affinage en vision
Apprenez à affiner des LLM vision/multimodaux avec Unsloth
Désactivation de la vision / affinage texte uniquement
model = FastVisionModel.get_peft_model(
model,
finetune_vision_layers = True, # False si vous n’affinez pas les couches vision
finetune_language_layers = True, # False si vous n’affinez pas les couches de langage
finetune_attention_modules = True, # False si vous n’affinez pas les couches d’attention
finetune_mlp_modules = True, # False si vous n’affinez pas les couches MLP
r = 16, # Plus grand = meilleure précision, mais peut suradapter
lora_alpha = 16, # Alpha recommandé == r au moins
lora_dropout = 0,
bias = "none",
random_state = 3407,
use_rslora = False, # Nous supportons LoRA stabilisé en rang
loftq_config = None, # Et LoftQ
target_modules = "all-linear", # Optionnel maintenant ! Peut spécifier une liste si nécessaire
modules_to_save=[
"lm_head",
"embed_tokens",
],
)Vision Data Collator
Entraînement multi-image
Jeu de données pour l'affinage en vision
Image
Légende

🔎Entraîner uniquement sur les réponses de l'assistant pour les modèles de vision, VLMs
Mis à jour
Ce contenu vous a-t-il été utile ?

