♻️Fortgesetztes Pretraining
Auch bekannt als fortgesetztes Finetuning. Unsloth ermöglicht kontinuierliches Pretraining, damit ein Modell eine neue Sprache lernen kann.
Was ist fortgesetztes Pretraining?
Erweiterte Funktionen:
Laden von LoRA-Adaptern zum fortgesetzten Finetuning
from unsloth import FastLanguageModel
model, tokenizer = FastLanguageModel.from_pretrained(
model_name = "LORA_MODEL_NAME",
max_seq_length = max_seq_length,
dtype = dtype,
load_in_4bit = load_in_4bit,
)
trainer = Trainer(...)
trainer.train()Fortgesetztes Pretraining & Finetuning des lm_head als auch embed_tokens Matrizen
lm_head als auch embed_tokens MatrizenZuletzt aktualisiert
War das hilfreich?

