♻️継続的事前学習

継続ファインチューニングとも呼ばれます。Unsloth はモデルが新しい言語を学習できるよう継続的に事前学習することを可能にします。

継続的事前学習と私たちのリリースの詳細は、私たちの ブログ記事arrow-up-right.

継続的事前学習とは?

継続的または連続的事前学習(CPT)は、言語モデルを新しい知識領域や分布外の領域を理解するよう“誘導”するために必要です。Llama-3 8b や Mistral 7b のようなベースモデルは、最初に何兆ものトークン(たとえば Llama-3 は 15 兆)という巨大なデータセットで事前学習されています。

しかし、これらのモデルは他の言語や法務、医療などの特定ドメインのテキストで十分に学習されていないことがあります。したがって、言語モデルに新しいトークンやデータセットを学習させるために継続的事前学習(CPT)が必要です。

高度な機能:

継続的微調整のための LoRA アダプターの読み込み

Unsloth を通じて LoRA アダプターを保存している場合、その LoRA 重みを使ってトレーニングを継続することもできます。オプティマイザの状態はリセットされます。オプティマイザの状態も読み込んで微調整を続ける方法は、次のセクションを参照してください。

from unsloth import FastLanguageModel
model, tokenizer = FastLanguageModel.from_pretrained(
    model_name = "LORA_MODEL_NAME",
    max_seq_length = max_seq_length,
    dtype = dtype,
    load_in_4bit = load_in_4bit,
)
trainer = Trainer(...)
trainer.train()

継続的事前学習と微調整では lm_headembed_tokens 行列

追加する lm_headembed_tokens。Colab の場合、Llama-3 8b ではメモリ不足になることがあります。その場合は、単に lm_head.

次に 2 つの異なる学習率を使用します — lm_head または embed_tokens 次のように:

最終更新

役に立ちましたか?