♻️持续预训练
也称为持续微调。Unsloth 允许您持续预训练,使模型能够学习新语言。
什么是继续预训练?
高级功能:
为继续微调加载 LoRA 适配器
from unsloth import FastLanguageModel
model, tokenizer = FastLanguageModel.from_pretrained(
model_name = "LORA_MODEL_NAME",
max_seq_length = max_seq_length,
dtype = dtype,
load_in_4bit = load_in_4bit,
)
trainer = Trainer(...)
trainer.train()继续预训练与微调 lm_head 和 embed_tokens 矩阵
lm_head 和 embed_tokens 矩阵最后更新于
这有帮助吗?

