# LoRA ファインチューニングのハイパーパラメータガイド

LoRAのハイパーパラメータは、Low-Rank Adaptationがどのように調整されるかを決める調整可能な設定です。 [ファインチューニングする](https://unsloth.ai/docs/jp/meru/fine-tuning-llms-guide) 大規模言語モデル（LLM）を。学習率やエポック数など多くの選択肢と無数の組み合わせがあるため、適切な値を選ぶことが精度、安定性、品質、そして幻覚の少なさにとって重要です。適切に行えば、 **LoRAは完全なファインチューニングの性能に匹敵できます** 同時にVRAMを4倍少なく使用します。

ここでは何百もの研究論文と実験からの知見に基づいてこれらのパラメータのベストプラクティスを学び、それらがモデルにどのように影響するかを確認します。 **Unslothのデフォルトの使用を推奨しますが**これらの概念を理解することで完全なコントロールが得られます。\
\
目標はハイパーパラメータの数値を変更して精度を向上させつつ、 [**過学習や未学習（アンダーフィッティング）**](#overfitting-poor-generalization-too-specialized)過学習はモデルが訓練データを記憶してしまい、新しく見たことのない入力に対して一般化する能力を損なう場合に発生します。目標は単に記憶するのではなく、よく一般化するモデルです。

{% columns %}
{% column %}

#### :question:では、LoRAとは何でしょうか？

LLMではモデルの重みがあります。Llama 70Bには700億の数値があります。すべての700億の数値を変更する代わりに、各重みに薄い行列AとBを追加してそれらを最適化します。これにより重みの約1%だけを最適化することになります。
{% endcolumn %}

{% column %}

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2Fgit-blob-715b6260aae497f160d7f9a1019bcfa472675dcf%2Fimage%20(7)%20(1)%20(1).png?alt=media" alt=""><figcaption><p>モデル重み（黄色）を最適化する代わりに、2つの薄い行列AとBを最適化します。</p></figcaption></figure>
{% endcolumn %}
{% endcolumns %}

## :1234: 重要なファインチューニングのハイパーパラメータ

### **学習率（Learning Rate）**

各トレーニングステップでモデルの重みがどれだけ調整されるかを定義します。

* **高い学習率**： 初期収束は速くなりますが、設定が高すぎるとトレーニングが不安定になったり最適な最小値を見つけられなくなったりします。
* **低い学習率**： より安定で精密なトレーニングにつながりますが、収束により多くのエポックが必要になり全体のトレーニング時間が増える場合があります。低い学習率はしばしば未学習を引き起こすと考えられますが、実際には **過学習** を招いたり、モデルが学習するのを妨げたりすることさえあります。
* **典型的な範囲**: `2e-4` （0.0002）から `5e-6` (0.000005).\
  :green\_square: ***通常のLoRA/QLoRAファインチューニングの場合***, *開始点として以下を推奨します* **`2e-4`** *。*\
  :blue\_square: ***強化学習の場合** （DPO、GRPOなど）、我々は以下を推奨します* **`5e-6` .**\
  :white\_large\_square: ***完全なファインチューニングの場合、** 一般的により低い学習率が適切です。*

### **エポック（Epochs）**

モデルがトレーニングデータセット全体を見る回数です。

* **エポックを増やすと：** モデルの学習を助けることができますが、エポック数が多すぎると **トレーニングデータを記憶してしまう**ことで新しいタスクでの性能が低下します。
* **エポックを減らすと：** トレーニング時間を短縮でき、過学習を防げますが、モデルがデータセットの基礎となるパターンを学習するのに十分なエポック数がない場合は未学習モデルになる可能性があります。
* **推奨：** 1〜3エポック。ほとんどの指示ベースのデータセットでは、3エポックを超えてトレーニングしても得られる効果は限定的で、過学習のリスクが高まります。

### **LoRAまたはQLoRA**

LoRAは16ビット精度を使用し、QLoRAは4ビットのファインチューニング方式です。

* **LoRA：** 16ビットのファインチューニング。やや高速でやや精度が高いですが、VRAMを大幅に多く消費します（QLoRAの4倍）。16ビット環境や最大精度が求められるシナリオに推奨されます。
* **QLoRA：** 4ビットのファインチューニング。やや遅くわずかに精度が低くなる傾向がありますが、はるかに少ないVRAMを使用します（4分の1）。\
  :sloth: *70B LLaMAはUnslothのQLoRAで<48GBのVRAMに収まります -* [*詳細はこちら*](https://unsloth.ai/blog/llama3-3)*.*

### ハイパーパラメータと推奨事項：

<table><thead><tr><th width="154.39678955078125">ハイパーパラメータ</th><th width="383.6192626953125">機能</th><th>推奨設定</th></tr></thead><tbody><tr><td><strong>LoRAランク</strong> (<code>r</code>)</td><td>LoRAアダプタ行列内の学習可能パラメータ数を制御します。ランクが高いほどモデルの容量は増えますが、メモリ使用量も増加します。</td><td>8、16、32、64、128<br><br>16または32を選択</td></tr><tr><td><strong>LoRAアルファ</strong> (<code>lora_alpha</code>)</td><td>ランクに対する微調整の強さをスケーリングします（<code>r</code>).</td><td><code>r</code> （標準）または <code>r * 2</code> （一般的なヒューリスティック）。 <a href="#lora-alpha-and-rank-relationship">詳細はこちら</a>.</td></tr><tr><td><strong>LoRAドロップアウト</strong></td><td>トレーニング中にLoRAアクティベーションの一部をランダムにゼロにする正則化手法で、過学習を防ぎます。 <strong>あまり有用ではない</strong>ため、デフォルトで0に設定します。</td><td>0（デフォルト）〜0.1</td></tr><tr><td><strong>重み減衰</strong></td><td>大きな重みにペナルティを与えて過学習を防ぎ、汎化性能を向上させる正則化項です。大きすぎる値は避けてください！</td><td>0.01（推奨） - 0.1</td></tr><tr><td><strong>ウォームアップステップ</strong></td><td>トレーニング開始時に学習率を徐々に増加させます。</td><td>総ステップ数の5〜10％</td></tr><tr><td><strong>スケジューラタイプ</strong></td><td>トレーニング中に学習率を動的に調整します。</td><td><code>linear</code> または <code>cosine</code></td></tr><tr><td><strong>シード（<code>random_state</code>)</strong></td><td>結果の再現性を確保するための固定された数値です。</td><td>任意の整数（例： <code>42</code>, <code>3407</code>)</td></tr><tr><td><strong>対象モジュール</strong></td><td><p>LoRAアダプタを適用するモデルの部分を指定します — 注意機構（attention）、MLP、またはその両方。</p><p><br>Attention： <code>q_proj、k_proj、v_proj、o_proj</code><br><br>MLP： <code>gate_proj、up_proj、down_proj</code></p></td><td>主要なすべての線形層を対象にすることを推奨します： <code>q_proj、k_proj、v_proj、o_proj、gate_proj、up_proj、down_proj</code>.</td></tr></tbody></table>

## :deciduous\_tree: 勾配蓄積とバッチサイズの同等性

### 実効バッチサイズ

バッチサイズを正しく設定することは、トレーニングの安定性とGPUのVRAM制限のバランスに重要です。これは、2つのパラメータの積によって管理されます： **実効バッチサイズ**.\
\
**実効バッチサイズ** = `batch_size * gradient_accumulation_steps`

* 大きい **実効バッチサイズ** 一般的に、より滑らかで安定したトレーニングにつながります。
* 大きい **より小さい有効バッチサイズ** より多くの分散（バラつき）をもたらす可能性があります。

すべてのタスクは異なりますが、以下の構成は安定した開始点を提供します。 **実効バッチサイズ** 16 の有効バッチサイズは、最新のGPUでの多くのファインチューニングタスクに適しています。

| パラメータ                                                           | 説明                                                                                                                                                             | 推奨設定                            |
| --------------------------------------------------------------- | -------------------------------------------------------------------------------------------------------------------------------------------------------------- | ------------------------------- |
| **バッチサイズ** (`batch_size`)                                       | <p>単一のGPUでの1回の順伝播／逆伝播で処理されるサンプル数。<br><br><strong>VRAM使用量の主な要因</strong>。値を大きくするとハードウェア利用率が向上しトレーニングが高速化することがありますが、メモリに収まる場合に限ります。</p>                           | 2                               |
| **勾配蓄積（Gradient Accumulation）** (`gradient_accumulation_steps`) | <p>モデルの重みを1回更新する前に処理するマイクロバッチの数。<br><br><strong>トレーニング時間の主な要因。</strong> より大きな <code>batch\_size</code> をシミュレートしてVRAMを節約できます。値が大きいほどエポックあたりのトレーニング時間が増加します。</p> | 8                               |
| **実効バッチサイズ** （計算済み）                                             | 各勾配更新で使用される実際のバッチサイズ。トレーニングの安定性、品質、および最終的なモデル性能に直接影響します。                                                                                                       | <p>4〜16<br>推奨: 16（2 \* 8から）</p> |

### VRAMとパフォーマンスのトレードオフ

各トレーニングステップで32サンプルを使いたいと仮定します。すると、次のいずれかの構成が使えます：

* `batch_size = 32, gradient_accumulation_steps = 1`
* `batch_size = 16, gradient_accumulation_steps = 2`
* `batch_size = 8, gradient_accumulation_steps = 4`
* `batch_size = 4, gradient_accumulation_steps = 8`
* `batch_size = 2, gradient_accumulation_steps = 16`
* `batch_size = 1, gradient_accumulation_steps = 32`

これらはいずれもモデルの重み更新に対しては同等ですが、ハードウェア要件は大きく異なります。

最初の構成（`batch_size = 32`）は **最も多くのVRAMを使用し、** 最後の構成（`batch_size = 1`）は **）は最も少ないVRAMを使用します、** しかしトレーニングが若干遅くなるという代償を伴います。**.** OOM（メモリ不足）エラーを避けるため、常により小さい `batch_size` を設定し、 `gradient_accumulation_steps` を増やして目標の **実効バッチサイズ**.

### :sloth: Unslothの勾配蓄積修正（Gradient Accumulation Fix）

勾配蓄積とバッチサイズ <mark style="color:緑;">**は現在Unslothでは完全に等価です**</mark> 勾配蓄積に関するバグ修正によりです。私たちは勾配蓄積が同じ結果を生まないという一般的な問題を解決する特定のバグ修正を実装しました。これはコミュニティ全体で知られている課題でしたが、Unslothユーザーにとっては、これら二つの方法は現在交換可能になっています。

[私たちのブログ記事をお読みください](https://unsloth.ai/blog/gradient) 詳細については。

私たちの修正以前は、組み合わせによっては `batch_size` そして `gradient_accumulation_steps` 同じ結果をもたらしました **実効バッチサイズ** （つまり、 `batch_size × gradient_accumulation_steps = 16`）は同等の訓練挙動にはなりませんでした。例えば、次のような構成は `b1/g16`, `b2/g8`, `b4/g4`, `b8/g2`、および `b16/g1` はすべて **実効バッチサイズ** が16ですが、グラフが示すように、標準的な勾配蓄積を使用した場合に損失曲線は一致しませんでした：

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2Fgit-blob-66eb907fd9ce38ab29dacef82794d0525057aeb4%2FBefore_-_Standard_gradient_accumulation_UQOFkUggudXuV9dzrh8MA.svg?alt=media" alt=""><figcaption><p>（適用前 - 標準的な勾配蓄積）</p></figcaption></figure>

我々の修正を適用した後、損失曲線は、どのようにして16が達成されたかに関わらず、正しく一致するようになりました： **実効バッチサイズ** が16であるかの

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2Fgit-blob-61f7c60412a2a39584f75cce5dca41e3e35eb7f2%2FAfter_-_Unsloth_gradient_accumulation_6Y4pJdJF0vruzradUpymY.svg?alt=media" alt=""><figcaption><p>（適用後 - 🦥 <mark style="color:緑;">Unsloth の勾配蓄積（Unsloth Gradient Accumulation）</mark>)</p></figcaption></figure>

## 🦥 **Unsloth における LoRA ハイパーパラメータ**

以下は標準的な構成の例です。 **Unsloth は最適化されたデフォルトを提供しますが**、これらのパラメータを理解することは手動で調整する上で重要です。

<div data-full-width="false"><figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2Fgit-blob-9843f8cc26aac6445236250f5c32394186eace59%2Fnotebook_parameter_screenshott.png?alt=media" alt=""><figcaption></figcaption></figure></div>

1. ```python
   r = 16, # 0 より大きい任意の数を選択してください！推奨：8, 16, 32, 64, 128
   ```

   ファインチューニングプロセスのランク（`r`）。大きなランクはより多くのメモリを使用し遅くなりますが、複雑なタスクで精度を高めることができます。高速なファインチューニングには 8 や 16 のようなランクを、最大で 128 までを推奨します。ランクが大きすぎると過学習を引き起こし、モデルの品質を損なう可能性があります。\\
2. ```python
   target_modules = ["q_proj", "k_proj", "v_proj", "o_proj",
                     "gate_proj", "up_proj", "down_proj",],
   ```

   最適なパフォーマンスのために、 <mark style="background-color:blue;">**LoRA はすべての主要な線形層に適用するべきです**</mark>. [研究は示しています](#lora-target-modules-and-qlora-vs-lora) 主要なすべての層を対象にすることが、完全なファインチューニングの性能に匹敵するために重要であると。メモリ使用量を減らすためにモジュールを削除することは可能ですが、節約効果は最小限であるため最大限の品質を保つために強く推奨しません。\\
3. ```python
   lora_alpha = 16,
   ```

   微調整の強さを制御するスケーリング係数。ランク（`r`）と等しく設定することは信頼できる基準です。人気かつ効果的なヒューリスティックはランクの2倍（`r * 2`）に設定することで、LoRA の更新により大きな重みを与え、モデルがより積極的に学習するようになります。 [詳細はこちら](#lora-alpha-and-rank-relationship).\\
4. ```python
   lora_dropout = 0, # 任意の値をサポートしますが、= 0 が最適化されています
   ```

   正則化手法で、 [過学習を防ぐ](#overfitting-poor-generalization-too-specialized) ために、各トレーニングステップで LoRA 活性化の一部をランダムにゼロにします。 [最近の研究は示唆しています](https://arxiv.org/abs/2410.09692) ことを **短いトレーニング実行に対して** ファインチューニングで一般的に行われる、 `lora_dropout` は信頼できる正則化手段ではないかもしれません。\
   🦥 *Unsloth の内部コードは、* `lora_dropout = 0`*の場合に訓練を最適化できるため、わずかに高速になりますが、過学習が疑われる場合は非ゼロの値を推奨します。*\\
5. ```python
   bias = "none",    # どれでもサポートしますが、"none" が最適化されています
   ```

   これを `"none"` のままにして、トレーニングを高速化しメモリ使用量を削減します。この設定は線形層のバイアス項の学習を避けます。バイアスを学習可能パラメータとして追加しても実用的な利得はほとんどありません。\\
6. ```python
   use_gradient_checkpointing = "unsloth", # 非常に長いコンテキストの場合は True または "unsloth"
   ```

   選択肢は `True`, `False`、および `"unsloth"`.\
   🦥 *私たちは* `"unsloth"` *を推奨します。これによりメモリ使用量がさらに約30%削減され、非常に長いコンテキストのファインチューニングをサポートします。詳細は* [*長いコンテキストトレーニングに関する当社のブログ記事*](https://unsloth.ai/blog/long-context)*.*\\
7. ```python
   random_state = 3407,
   ```

   決定論的で再現可能な実行を保証するためのシードです。トレーニングには乱数が関与するため、実験の一貫性を保つには固定シードの設定が不可欠です。\\
8. ```python
   use_rslora = False,  # ランク安定化LoRAをサポートします
   ```

   高度な機能で、 [**ランク安定化LoRA**](https://arxiv.org/abs/2312.03732)を実装します。もし `True`に設定すると、有効なスケーリングは `lora_alpha / sqrt(r)` の代わりに `lora_alpha / r`になります。これは特に高いランクで安定性を改善する場合があります。 [詳細はこちら](#lora-alpha-and-rank-relationship).\\
9. ```python
   loftq_config = None, # と LoftQ
   ```

   高度な手法で、 [**LoftQ**](https://arxiv.org/abs/2310.08659)では、事前学習済み重みから上位'r'の特異ベクトルでLoRA行列を初期化します。これにより精度が向上する可能性がありますが、トレーニング開始時に大きなメモリ増加を引き起こすことがあります。

### **LoRA 重みの更新の確認：**

次を検証する際、 **LoRA** アダプタ重みがファインチューニング後に更新されたかどうかを確認する際には、 **np.allclose()** を比較に使用するのは避けてください。この方法は、特に **LoRA A**のように小さなガウス値で初期化されるものにおいて、微妙だが意味のある変化を見逃すことがあります。これらの変化は緩い数値許容範囲では重要と見なされない場合があります。このセクションに関する情報提供に感謝します。 [寄稿者](https://github.com/unslothai/unsloth/issues/3035) に感謝します。

重みの更新を確実に確認するには、次を推奨します：

* 使用すること **チェックサムまたはハッシュ比較** （例：MD5）
* 計算すること **テンソル間の絶対差の合計** を比較すること
* テンソルの**統計情報** （例：平均、分散）を手動で検査すること
* または使用すること **np.array\_equal()** 厳密な等価性が期待される場合

## :triangular\_ruler:LoRA の Alpha とランクの関係

{% hint style="success" %}
設定するのが最良です `lora_alpha = 2 * lora_rank` または `lora_alpha = lora_rank`
{% endhint %}

{% columns %}
{% column width="50%" %}
$$
\hat{W} = W + \frac{\alpha}{\text{rank}} \times AB
$$

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2Fgit-blob-8e4f60c002f22e8ca9c534b48323e9e77e4b5ea6%2Fimage.png?alt=media" alt=""><figcaption><p>rsLoRA の他のスケーリングオプション。sqrt(r) が最良です。</p></figcaption></figure>

$$
\hat{W}\_{\text{rslora}} = W + \frac{\alpha}{\sqrt{\text{rank}}} \times AB
$$
{% endcolumn %}

{% column %}
左側に LoRA の式があります。薄い行列 A と B を alpha をランクで割った値でスケーリングする必要があります。 <mark style="background-color:blue;">**つまり alpha/rank を少なくとも = 1 に保つべきです**</mark>.

に従うと [rsLoRA（rank stabilized lora）論文](https://arxiv.org/abs/2312.03732)、代わりに alpha をランクの平方根でスケーリングすべきだとしています。他の選択肢も存在しますが、理論的にはこれが最適です。左のプロットは他のランクとそのパープレキシティ（小さいほど良い）を示しています。これを有効にするには、次を設定します `use_rslora = True` を Unsloth に設定します。

私たちの推奨は <mark style="background-color:green;">**alpha をランクと等しく、または少なくともランクの 2 倍に設定することです。**</mark> つまり alpha/rank = 1 または 2 です。
{% endcolumn %}
{% endcolumns %}

## :dart: LoRA ターゲットモジュールと QLoRA 対 LoRA

{% hint style="success" %}
使用:\
`target_modules = ["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj",]` の両方をターゲットにするには **MLP** そして **アテンション** 精度を高めるためのレイヤー。

**QLoRA は 4 ビット精度を使用し**VRAM 使用量を 75% 以上削減します。

**LoRA（16 ビット）** はわずかに精度が高く、より高速です。
{% endhint %}

経験的実験や元のような研究論文によると [QLoRA 論文](https://arxiv.org/pdf/2305.14314)、アテンションと MLP レイヤーの両方に LoRA を適用するのが最良です。

{% columns %}
{% column %}

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2Fgit-blob-16bef8165ccace21d0533f1941b8268a165c6a37%2Fimage.png?alt=media" alt=""><figcaption></figcaption></figure>
{% endcolumn %}

{% column %}
この図は、異なるターゲットモジュール構成に対する RougeL スコア（高いほど良い）を示し、LoRA と QLoRA を比較しています。

最初の 3 つの点は次を示しています:

1. **QLoRA-All:** すべての FFN/MLP と Attention レイヤーに LoRA を適用。\
   :fire: *これが全体的に最も優れた性能を示します。*
2. **QLoRA-FFN**：FFN のみに LoRA。\
   等価: `gate_proj`, `up_proj`, `down_proj。`
3. **QLoRA-Attention**：Attention レイヤーのみに LoRA を適用。\
   等価: `q_proj`, `k_proj`, `v_proj`, `o_proj`.
   {% endcolumn %}
   {% endcolumns %}

## :sunglasses: 入力をマスクして完成文のみでトレーニングすること

その [QLoRA 論文](https://arxiv.org/pdf/2305.14314) は入力をマスクし **完成のみでの訓練** （出力またはアシスタントメッセージ）はさらに **精度を向上させることができます** 数パーセントポイント（*1%*）。以下は Unsloth での実装例です：

{% columns %}
{% column %}
**ではない** 完成のみでの訓練：

**ユーザー：** <mark style="background-color:green;">こんにちは、2+2 はいくつですか？</mark>\
**アシスタント：** <mark style="background-color:green;">答えは 4 です。</mark>\
**ユーザー：** <mark style="background-color:green;">こんにちは、3+3 はいくつですか？</mark>\
**アシスタント：** <mark style="background-color:green;">答えは 6 です。</mark>
{% endcolumn %}

{% column %}
**訓練** 完成のみで：

**ユーザー：** ~~こんにちは、2+2 はいくつですか？~~\
**アシスタント：** <mark style="background-color:green;">答えは 4 です。</mark>\
**ユーザー：** ~~こんにちは、3+3 はいくつですか？~~\
**アシスタント：** <mark style="background-color:green;">答えは 6</mark><mark style="background-color:green;">**.**</mark>
{% endcolumn %}
{% endcolumns %}

QLoRA 論文では、 **完成のみでの訓練が** 精度をかなり向上させると述べられており、特にマルチターンの会話ファインチューンで効果的です！これを私たちは [こちらの会話ノートブックで行っています](https://colab.research.google.com/github/unslothai/notebooks/blob/main/nb/Llama3.2_\(1B_and_3B\)-Conversational.ipynb).

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2Fgit-blob-7e73b480d1db1dd3d52dd0d4a7e24caff6a54be0%2Fimage.png?alt=media" alt=""><figcaption></figcaption></figure>

有効にするには **完成での訓練を** Unsloth では、instruction と assistant の部分を定義する必要があります。 :sloth: *今後これをさらに自動化する予定です！*

Llama 3、3.1、3.2、3.3 および 4 モデルでは、部分は次のように定義します：

```python
from unsloth.chat_templates import train_on_responses_only
trainer = train_on_responses_only(
    trainer,
    instruction_part = "<|start_header_id|>user<|end_header_id|>\n\n",
    response_part = "<|start_header_id|>assistant<|end_header_id|>\n\n",
)
```

Gemma 2、3、3n モデルでは、部分は次のように定義します：

```python
from unsloth.chat_templates import train_on_responses_only
trainer = train_on_responses_only(
    trainer,
    instruction_part = "<start_of_turn>user\n",
    response_part = "<start_of_turn>model\n",
)
```

## &#x20;:mag\_right:視覚モデル、VLM 向けのアシスタント応答のみでの訓練

言語モデルの場合、前述のように `from unsloth.chat_templates import train_on_responses_only` を使用できます。視覚モデルでは、追加の引数を `UnslothVisionDataCollator` の一部として使用してください、前と同様です！

{% code overflow="wrap" %}

```python
class UnslothVisionDataCollator:
def __init__(
    self,
    ...
    # from unsloth.chat_templates import train_on_responses_only
    # trainer = train_on_responses_only(
    #     trainer,
    #     instruction_part = "<|start_header_id|>user<|end_header_id|>\n\n",
    #     response_part = "<|start_header_id|>assistant<|end_header_id|>\n\n",
    # )
    train_on_responses_only = False, # LLM に対する train_on_responses_only と同等
    instruction_part = None, # train_on_responses_only(instruction_part = ...) と同等
    response_part    = None, # train_on_responses_only(response_part = ...) と同等
    force_match      = True, # 改行もマッチさせます！
)
```

{% endcode %}

例えば Llama 3.2 Vision の場合：

```python
UnslothVisionDataCollator(
    model, tokenizer,
    ...
    train_on_responses_only = True,
    instruction_part = "<|start_header_id|>user<|end_header_id|>\n\n",
    response_part = "<|start_header_id|>assistant<|end_header_id|>\n\n",
    ...
)
```

## :key: **過学習と過少学習の回避**

### **過学習** （一般化が poor/特化しすぎ）

モデルが訓練データを記憶し、その統計的ノイズまで学んでしまうため、未見のデータに対して一般化できなくなる。

{% hint style="success" %}
訓練損失が0.2未満に下がった場合、モデルはおそらく **過学習** — つまり未見のタスクでの性能が低下する可能性がある。

簡単な対策の一つは LoRA のアルファスケーリングです — 各 LoRA 行列のアルファ値を 0.5 倍するだけでよい。これによりファインチューニングの影響が実質的に小さくなる。

**これは重みのマージ／平均化と密接に関連している。**\
元のベース（または instruct）モデルに LoRA 重みを加え、その結果を2で割ることができる。これにより平均化されたモデルが得られ — これは機能的に `alpha` を半分にすることと同等である。
{% endhint %}

**解決策：**

* **学習率を調整する：** 高い学習率は短い訓練で特に過学習を招きやすい。長時間の訓練では高い学習率の方がうまくいく場合もある。どちらが良いかは実験して確認するのが最良。
* **訓練エポック数を減らす**。1、2、または3エポックで訓練を停止する。
* **増やす** `weight_decay`。値としては `0.01` または `0.1` が出発点として良い。
* **増やす** `lora_dropout`。正則化を追加するには、例えば `0.1` のような値を使う。
* **バッチサイズまたは勾配蓄積ステップを増やす**.
* **データセットの拡張** — オープンソースのデータセットを組み合わせたり連結して自分のデータセットを大きくする。品質の高いものを選ぶこと。
* **評価による早期停止** — 評価を有効にして、評価損失が数ステップ増加したら停止する。
* **LoRA アルファスケーリング** — 訓練後や推論時にアルファを下げると、ファインチューニングの効果が目立たなくなる。
* **重みの平均化** — 文字通り元の instruct モデルとファインチューニング後のモデルの重みを足して2で割る。

### **過少学習** （一般的すぎる）

モデルが訓練データの基礎的なパターンを捉えられず、しばしばモデルの複雑さ不足や訓練時間の不足が原因となる。

**解決策：**

* **学習率を調整する：** 現在の学習率が低すぎる場合、学習率を上げることで収束が速くなることがある（特に短期の訓練では）。長期の訓練では代わりに学習率を下げてみる。どちらが有効か両方試して確認すること。
* **訓練エポック数を増やす：** エポック数を増やして訓練するが、過学習を避けるために検証損失を監視すること。
* **LoRA のランクを増やす** (`r`）とアルファ：ランクは少なくともアルファの数と同等であるべきで、より小さいモデルやより複雑なデータセットではランクを大きくするべき；一般的には4から64の間であることが多い。
* **よりドメインに関連したデータセットを使う**：訓練データが高品質でターゲットタスクに直接関連していることを確認する。
* **バッチサイズを1に減らす**。これによりモデルの更新がより活発になる。

{% hint style="success" %}
ファインチューニングに「唯一の最良の方法」はなく、最良の実践があるだけです。実験が特定のニーズに合う方法を見つける鍵です。当社のノートブックは多くの論文や実験に基づいて最適なパラメータを自動で設定し、良い出発点を提供します。ファインチューニングを楽しんでください！
{% endhint %}

***謝辞：** 心からの感謝を* [*Eyera*](https://huggingface.co/Orenguteng) *このガイドに寄稿してくれて！*


---

# Agent Instructions: Querying This Documentation

If you need additional information that is not directly available in this page, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on the current page URL with the `ask` query parameter:

```
GET https://unsloth.ai/docs/jp/meru/fine-tuning-llms-guide/lora-hyperparameters-guide.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
