# Blackwell、RTX 50 シリーズと Unsloth を使った LLM のファインチューニング

Unslothは現在、RTX 50シリーズGPU（5060–5090）、RTX PRO 6000、およびB200、B40、GB100、GB102などのGPUを含むNVIDIAのBlackwellアーキテクチャGPUをサポートしています！公式の [NVIDIAブログ投稿はこちら](https://developer.nvidia.com/blog/train-an-llm-on-an-nvidia-blackwell-desktop-with-unsloth-and-scale-it/).

Unslothは2018年以降のすべてのNVIDIA GPU（以下を含む）と互換性があります [DGX Spark](https://unsloth.ai/docs/jp/burogu/fine-tuning-llms-with-nvidia-dgx-spark-and-unsloth).

> **私たちの新しい** [**を使って Unsloth をインストールすることもできます。**](#docker) **はBlackwellをサポートします。Dockerイメージを実行してトレーニングを開始してください！** [**ガイド**](https://unsloth.ai/docs/jp/burogu/fine-tuning-llms-with-blackwell-rtx-50-series-and-unsloth)

### Pipインストール

Unslothを簡単にインストール：

```bash
pip install unsloth
```

問題が発生する場合、別のオプションとして分離された環境を作成する方法があります：

```bash
python -m venv unsloth
source unsloth/bin/activate
pip install unsloth
```

注意：それは `pip3` または `pip3.13` また `python3` または `python3.13`

Xformersに関する問題が発生する可能性があり、その場合はソースからビルドするべきです：

{% code overflow="wrap" %}

```bash
# まず以前のライブラリによってインストールされた xformers をアンインストール
pip uninstall xformers -y

# クローンしてビルド
pip install ninja
export TORCH_CUDA_ARCH_LIST="12.0"
git clone --depth=1 https://github.com/facebookresearch/xformers --recursive
cd xformers && python setup.py install && cd ..
```

{% endcode %}

### Docker

[**`unsloth/unsloth`**](https://hub.docker.com/r/unsloth/unsloth) はUnslothの唯一のDockerイメージです。Blackwellおよび50シリーズGPUについては、この同じイメージを使用してください—別途イメージは不要です。

インストール手順については、以下に従ってください [Unsloth Dockerガイド](https://unsloth.ai/docs/jp/burogu/how-to-fine-tune-llms-with-unsloth-and-docker).

### uv

```bash
uv pip install unsloth
```

#### uv（上級者向け）

インストールの順序は重要です。バンドルされた依存関係を特定のバージョンで上書きしたいため（具体的には `xformers` および `triton`).

1. 私は次を使うのが好みです： `uv` よりも `pip` はより高速で依存関係の解決に優れており、特に `torch` に依存するライブラリに対して有利ですが、 `CUDA` 特定のバージョンがこのシナリオでは必要になる場合があります。

   インストールしてください `uv`

   ```bash
   curl -LsSf https://astral.sh/uv/install.sh | sh && source $HOME/.local/bin/env
   ```

   プロジェクトディレクトリと仮想環境を作成：

   ```bash
   mkdir 'unsloth-blackwell' && cd 'unsloth-blackwell'
   uv venv .venv --python=3.12 --seed
   source .venv/bin/activate
   ```
2. インストールしてください `vllm`

   ```bash
   uv pip install -U vllm --torch-backend=cu128
   ```

   注意：指定する必要があります `cu128`、そうしないと `vllm` がインストールされます `torch==2.7.0` しかし `cu126`.
3. インストールしてください `unsloth` の依存関係で

   ```bash
   uv pip install unsloth unsloth_zoo bitsandbytes
   ```

   Xformersによる解決の問題に気づいた場合、XformersなしでソースからUnslothをインストールすることもできます：

   ```bash
   uv pip install -qqq \
   "unsloth_zoo[base] @ git+https://github.com/unslothai/unsloth-zoo" \
   "unsloth[base] @ git+https://github.com/unslothai/unsloth"
   ```
4. ダウンロードしてビルド `xformers` （オプション）

   Xformersはオプションですが、確かに高速でメモリ使用量が少なくなります。Xformersを使用したくない場合はPyTorchのネイティブなSDPAを使用します。Xformersをソースからビルドするのは遅くなる可能性があるので注意してください！

   ```bash
   # まず以前のライブラリによってインストールされた xformers をアンインストール
   pip uninstall xformers -y

   # クローンしてビルド
   pip install ninja
   export TORCH_CUDA_ARCH_LIST="12.0"
   git clone --depth=1 https://github.com/facebookresearch/xformers --recursive
   cd xformers && python setup.py install && cd ..
   ```

   明示的に設定する必要があることに注意してください： `TORCH_CUDA_ARCH_LIST=12.0`.
5. `transformers` 任意のtransformersバージョンをインストールできますが、最新を取得するのが最良です。

   ```bash
   uv pip install -U transformers
   ```

### Condaまたはmamba（上級者向け）

1. インストールしてください `conda/mamba`

   ```bash
   curl -L -O "https://github.com/conda-forge/miniforge/releases/latest/download/Miniforge3-$(uname)-$(uname -m).sh"
   ```

   インストールスクリプトを実行

   ```bash
   bash Miniforge3-$(uname)-$(uname -m).sh
   ```

   condaまたはmamba環境を作成

   ```bash
   conda create --name unsloth-blackwell python==3.12 -y
   ```

   新しく作成した環境を有効化

   ```bash
   conda activate unsloth-blackwell
   ```
2. インストールしてください `vllm`

   有効化されたconda/mamba環境の中にいることを確認してください。ターミナルのプロンプトに環境名が接頭辞として表示されるはずです（例えば） `(unsloth-blackwell)user@machine:`

   ```bash
   pip install -U vllm --extra-index-url https://download.pytorch.org/whl/cu128
   ```

   注意：指定する必要があります `cu128`、そうしないと `vllm` がインストールされます `torch==2.7.0` しかし `cu126`.
3. インストールしてください `unsloth` の依存関係で

   有効化されたconda/mamba環境の中にいることを確認してください。ターミナルのプロンプトに環境名が接頭辞として表示されるはずです（例えば） `(unsloth-blackwell)user@machine:`

   ```bash
   pip install unsloth unsloth_zoo bitsandbytes
   ```
4. ダウンロードしてビルド `xformers` （オプション）

   Xformersはオプションですが、確かに高速でメモリ使用量が少なくなります。Xformersを使用したくない場合はPyTorchのネイティブなSDPAを使用します。Xformersをソースからビルドするのは遅くなる可能性があるので注意してください！

   ターミナルのプロンプトに環境名が接頭辞として表示されるはずです（例えば） `(unsloth-blackwell)user@machine:`

   ```bash
   # まず以前のライブラリによってインストールされた xformers をアンインストール
   pip uninstall xformers -y

   # クローンしてビルド
   pip install ninja
   export TORCH_CUDA_ARCH_LIST="12.0"
   git clone --depth=1 https://github.com/facebookresearch/xformers --recursive
   cd xformers && python setup.py install && cd ..
   ```

   明示的に設定する必要があることに注意してください： `TORCH_CUDA_ARCH_LIST=12.0`.
5. 更新 `triton`

   有効化されたconda/mamba環境の中にいることを確認してください。ターミナルのプロンプトに環境名が接頭辞として表示されるはずです（例えば） `(unsloth-blackwell)user@machine:`

   ```bash
   pip install -U triton>=3.3.1
   ```

   `triton>=3.3.1` はサポートに必要です。 `Blackwell` サポート。
6. `Transformers` 任意のtransformersバージョンをインストールできますが、最新を取得するのが最良です。

   ```bash
   uv pip install -U transformers
   ```

パッケージマネージャとしてmambaを使用している場合は、上記のすべてのコマンドでcondaをmambaに置き換えてください。

### WSL固有の注意点

WSL（Windows Subsystem for Linux）を使用していてxformersのコンパイル中に問題が発生した場合（補足：Xformersはオプションですがトレーニングが速くなります）、以下の追加手順に従ってください：

1. **WSLのメモリ上限を増やす** WSLの設定ファイルを作成または編集：

   ```bash
   # Windowsのユーザーディレクトリに .wslconfig を作成または編集
   # （通常は C:\Users\YourUsername\.wslconfig）

   # 次の行をファイルに追加
   [wsl2]
   memory=16GB  # xformersのコンパイルには最低16GBを推奨
   processors=4  # CPUコアに応じて調整
   swap=2GB
   localhostForwarding=true
   ```

   これらの変更を行った後、WSLを再起動：

   ```powershell
   wsl --shutdown
   ```
2. **xformersをインストール** WSL向けに最適化されたコンパイルでxformersをインストールするには、次のコマンドを使用：

   ```bash
   # Blackwell GPU用のCUDAアーキテクチャを設定
   export TORCH_CUDA_ARCH_LIST="12.0"

   # 最適化されたビルドフラグでソースからxformersをインストール
   pip install -v --no-build-isolation -U git+https://github.com/facebookresearch/xformers.git@main#egg=xformers
   ```

   その `--no-build-isolation` フラグはWSL環境での潜在的なビルド問題を回避するのに役立ちます。


---

# Agent Instructions: Querying This Documentation

If you need additional information that is not directly available in this page, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on the current page URL with the `ask` query parameter:

```
GET https://unsloth.ai/docs/jp/burogu/fine-tuning-llms-with-blackwell-rtx-50-series-and-unsloth.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
