👁️Ajustement Vision
Apprenez comment affiner des LLM vision/multimodaux avec Unsloth
Désactivation de la vision / Affinage uniquement texte
model = FastVisionModel.get_peft_model(
model,
finetune_vision_layers = True, # False si vous n'affinez pas les couches de vision
finetune_language_layers = True, # False si vous n'affinez pas les couches de langage
finetune_attention_modules = True, # False si vous n'affinez pas les couches d'attention
finetune_mlp_modules = True, # False si vous n'affinez pas les couches MLP
r = 16, # Plus grand = plus de précision, mais peut sur-apprendre
lora_alpha = 16, # Alpha recommandé == r au minimum
lora_dropout = 0,
bias = "none",
random_state = 3407,
use_rslora = False, # Nous supportons LoRA stabilisé en rang
loftq_config = None, # Et LoftQ
target_modules = "all-linear", # Optionnel maintenant ! Peut spécifier une liste si nécessaire
modules_to_save=[
"lm_head",
"embed_tokens",
],
)Collecteur de données Vision
Jeu de données pour l'affinage en vision
Image
Légende

guide VLM GRPO
🔎Entraînement uniquement sur les réponses de l'assistant pour les modèles de vision, VLMs
Mis à jour
Ce contenu vous a-t-il été utile ?

