♻️継続的事前学習
継続ファインチューニングとも呼ばれます。Unsloth はモデルが新しい言語を学習できるよう継続的に事前学習することを可能にします。
継続的事前学習とは?
高度な機能:
継続的微調整のための LoRA アダプターの読み込み
from unsloth import FastLanguageModel
model, tokenizer = FastLanguageModel.from_pretrained(
model_name = "LORA_MODEL_NAME",
max_seq_length = max_seq_length,
dtype = dtype,
load_in_4bit = load_in_4bit,
)
trainer = Trainer(...)
trainer.train()継続的事前学習と微調整では lm_head と embed_tokens 行列
lm_head と embed_tokens 行列最終更新
役に立ちましたか?

