# Unsloth を使った NVIDIA DGX Station での LLM ファインチューニング

これでNVIDIA DGX Station上でUnslothを使ってローカルにLLMをトレーニングできるようになります [Unsloth](https://github.com/unslothai/unsloth)。DGX Stationは次の以上の容量を備えています **約200GBのVRAM** と **700GBを超える統合GPU/CPUメモリ** を備え、大規模AIワークロード向けに設計された緊密に接続されたシステムでGrace CPUとBlackwell GPUを組み合わせています。NVLink-C2Cで接続されることで、CPUとGPUは別個のままですが、従来のCPU-GPU構成よりもはるかに効率的に連携します。

このガイドでは、Unslothノートブックを使用してトレーニングします [Qwen3.5](#qwen3.5-35b-a3b-fine-tuning) と [gpt-oss-120b](#gpt-oss-120b-fine-tuning) をDGX Stationで実行します。Unslothのテスト用に早期アクセスのDGX Stationハードウェアを提供してくれたNVIDIAに感謝します！

### クイックスタート

必要なもの `python3` がインストールされている必要があり、特に開発用ヘッダが必要です。私たちのシステムでは `python 3.12` を使用しているため、3.12の開発用ヘッダをインストールします。

```bash
sudo apt update
sudo apt install python3.12-dev
```

次に、Unslothをインストールするために新しい仮想環境を作成します。 [Unsloth](https://github.com/unslothai/unsloth)。この方法で依存関係の競合を最小限に抑え、現在の作業環境の状態を保持します。&#x20;

{% code overflow="wrap" %}

```bash
python3 -m venv .unsloth
source .unsloth/bin/activate
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu130
```

{% endcode %}

{% hint style="warning" %}
まずは `torch` をインストールします `cuda 13` インデックスからでないと、CPU版やアーキテクチャや機能が一致しないものが入る可能性があります！
{% endhint %}

<div><figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2Fw04Su0JZriUaQxD31wf0%2Funknown.png?alt=media&#x26;token=83e61cdb-74c3-42c4-a1ff-18cec3752c9e" alt=""><figcaption></figcaption></figure> <figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2F9bs6h6YxI2hqnqOz1bU0%2Funknown.png?alt=media&#x26;token=e3e261b5-be18-4d49-9f38-526012add332" alt=""><figcaption></figcaption></figure></div>

ではUnslothをインストールできます：

```bash
pip install unsloth
```

<div><figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FhQZznPQ8O9Wh3At6FclO%2Funknown.png?alt=media&#x26;token=34c8de6e-bef8-414c-8e1b-2913589c4b10" alt=""><figcaption></figcaption></figure> <figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FdLZCFmln5LaUWtO6eC4A%2Funknown.png?alt=media&#x26;token=ce04e025-32c7-4847-ac35-bee1baf6259f" alt=""><figcaption></figcaption></figure></div>

次にインストールしましょう `xformers` と、必要に応じてソースからビルドする `flash-attention` の両方を。どちらのパッケージも構築に時間がかかるので、ビルド中はしばらくお待ちください。

{% code overflow="wrap" expandable="true" %}

```bash
pip install --no-deps --no-build-isolation xformers==0.0.33.post1
# オプション：flash-attn
# クローンしてビルド（B300向けにsm_100をターゲット） 
git clone https://github.com/Dao-AILab/flash-attention
cd flash-attention 
# B300 = sm_100、アーキテクチャを明示的に設定 
TORCH_CUDA_ARCH_LIST="10.0" MAX_JOBS=8 pip install . --no-build-isolation
cd ..
```

{% endcode %}

<div><figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FnyczIn3YvXAPx5oIfZQQ%2Funknown.png?alt=media&#x26;token=1a2c5f7b-13c5-4f5e-b4c4-61df8d5fc653" alt=""><figcaption></figcaption></figure> <figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FoupUFzx2pOG6l5B91Pw4%2Funknown.png?alt=media&#x26;token=009d2c73-5992-4593-8fd0-e7d813eda3ff" alt=""><figcaption></figcaption></figure></div>

{% columns %}
{% column %}
Qwen 3.5 MoEでは、高速化のために2つのカーネルパッケージをダウンロードする必要があります `flash-linear-attention` と `causal-conv1d` 。

{% code overflow="wrap" expandable="true" %}

```bash
pip install --no-build-isolation flash-linear-attention causal_conv1d==1.6.0
```

{% endcode %}
{% endcolumn %}

{% column %}

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2F4xEY8k3jzxfOgMWAgJD7%2Funknown.png?alt=media&#x26;token=2b8bd62e-23cd-4bcf-a0af-6d161d1ec1a1" alt="" width="375"><figcaption></figcaption></figure>
{% endcolumn %}
{% endcolumns %}

まだノートブッククライアントをお持ちでない場合は、インストールしてください。このガイドではJupyter Notebookを使用します：

{% code overflow="wrap" expandable="true" %}

```bash
cd ..
pip install notebook
pip install ipywidgets
```

{% endcode %}

最後に、実際に実行するUnslothノートブックをダウンロードします。LLMトレーニング用のノートブックとPythonスクリプトが250以上あります。

{% code overflow="wrap" expandable="true" %}

```bash
git clone https://github.com/unslothai/notebooks.git
cd notebooks
```

{% endcode %}

### トレーニングチュートリアル

{% columns %}
{% column %}
これでJupyter Notebookを起動して、ブラウザでUIにアクセスできます。

{% code overflow="wrap" expandable="true" %}

```bash
jupyter notebook
```

{% endcode %}
{% endcolumn %}

{% column %}

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FP2seywdWvLHHQkdP8DGy%2Funknown.png?alt=media&#x26;token=ca1b5390-5eb8-416b-a3e9-d9df9b27fb0b" alt="" width="375"><figcaption></figcaption></figure>
{% endcolumn %}
{% endcolumns %}

{% columns %}
{% column %}
次に、コピーして貼り付ける `localhost` のサイト（トークン付き）をブラウザに貼り付けてください。次のような画面が表示されるはずです：

その `nb` フォルダに実行するノートブックがすべて入っています。
{% endcolumn %}

{% column %}

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FSxN976oDM4WaG5EtpSc9%2Funknown.png?alt=media&#x26;token=7113ba12-5bcc-4bc6-9777-b9d4c440d0bf" alt="" width="375"><figcaption></figcaption></figure>
{% endcolumn %}
{% endcolumns %}

#### Qwen3.5-35B-A3B トレーニング

{% columns %}
{% column %}
ファイルを開いてください `nb/Qwen3_5_MoE.ipynb`。インストールセクションは既に必要なものを事前にインストールしているのでスキップしてください。Unslothセクションに移動してそこからセルを実行し始めます。

{% endcolumn %}

{% column %}

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2Fif8mAvc1au9Hl83IZzNm%2FDGX%20Station.png?alt=media&#x26;token=1011c8a9-c6ba-48df-a726-d3bc3bc8e947" alt=""><figcaption></figcaption></figure>
{% endcolumn %}
{% endcolumns %}

{% columns %}
{% column %}
ノートブックはモデルのセットアップ、データセット準備、トレーナーの構成を扱います。非常に大きなモデルをダウンロードし、数十億の重みを初期化し、さらに高速化のための最適化を行うため、各ステップには時間がかかることがあります。&#x20;
{% endcolumn %}

{% column %}

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2F4v0NmHdhiYCHFll8U8OD%2Funknown.png?alt=media&#x26;token=69e3d279-4d59-4439-802f-11bd02fe39d3" alt="" width="375"><figcaption></figcaption></figure>
{% endcolumn %}
{% endcolumns %}

デフォルト設定ではトレーニングは非常に高速です。DGX Stationはメモリが十分にあるため、デフォルトのトレーニングハイパーパラメータを変更してメモリと計算を本格的に試すことができます。トレーニングが終わったら、モデルを保存して後で使用したり、他の人と共有するためにHugging Face Hubへアップロードしたり、量子化フォーマットにエクスポートしたりできます。

#### gpt-oss-120b トレーニング

{% columns %}
{% column %}
ファイルを開いてください `nb/gpt-oss-(120B)_A100-Fine-tuning.ipynb`。インストールセクションは既に前提条件をインストールしているのでスキップし、Unslothセクションに移動してください。そこからノートブックの実行を開始できます。ノートブックは約72GBのGPUメモリを使用し、実行に約10分かかります。
{% endcolumn %}

{% column %}

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2F8jYYievlemxDJBatevNV%2FDGX%20Station%202.png?alt=media&#x26;token=efef1a26-a170-4690-972f-1a7cde67e9ea" alt=""><figcaption></figcaption></figure>
{% endcolumn %}
{% endcolumns %}

{% columns %}
{% column %}
モデルのダウンロード、重みの初期化、および高速化のための最適化が必要なため、各セルの実行には時間がかかる場合があります。ノートブックはデータセットの前処理とトレーナーの設定を順に説明します。次に `trainer.train()` セルに到達して実行するとトレーニングが開始されます。
{% endcolumn %}

{% column %}

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FOxuma3ZZeEbxZrAWIgnq%2FDGX%20Station%203.png?alt=media&#x26;token=17beb84e-eb56-4357-aee2-078c4db3eb84" alt=""><figcaption></figcaption></figure>
{% endcolumn %}
{% endcolumns %}

完了したら、後で使用するためにモデルを保存したり、Hugging Face Hubに公開して世界と共有したり、GGUF形式にエクスポートしたりできます。

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2Fy1UxtQ01avFK5BIkofwt%2Fimage.png?alt=media&#x26;token=8d137818-a3a6-4d00-a9fd-1e41ed0483a5" alt=""><figcaption></figcaption></figure>

NVIDIAのDGX Stationについて詳しくは次をご覧ください <https://www.nvidia.com/en-us/products/workstations/dgx-station/>
