♻️Préentraînement continu
Également appelé Fine-tuning continu. Unsloth vous permet de préentraîner continuellement afin qu'un modèle puisse apprendre une nouvelle langue.
Qu'est-ce que la préformation continue ?
Fonctionnalités avancées :
Chargement d'adaptateurs LoRA pour un affinage continu
from unsloth import FastLanguageModel
model, tokenizer = FastLanguageModel.from_pretrained(
model_name = "LORA_MODEL_NAME",
max_seq_length = max_seq_length,
dtype = dtype,
load_in_4bit = load_in_4bit,
)
trainer = Trainer(...)
trainer.train()Préformation continue et affinage du lm_head image 1 embed_tokens matrices
lm_head image 1 embed_tokens matricesMis à jour
Ce contenu vous a-t-il été utile ?

