# Unsloth を使って Windows で LLM をファインチューニングする方法（ステップバイステップガイド）

これで、WSL なしでも、以下を使用してローカルの Windows デバイス上で直接モデルをファインチューニングできるようになりました [Unsloth](https://github.com/unslothai/unsloth)。このガイドでは、使用できる主な方法が 3 つあります（[Conda](#method-1-windows-via-conda), [Docker](#method-2-docker) と [WSL](#method-3-wsl)）。\
すでに Windows に PyTorch がインストールされている場合、 `pip install unsloth` で動作するはずです。それ以外の場合は、以下のガイドに従ってください：

<a href="#method-1-windows-via-conda" class="button secondary">Conda チュートリアル</a><a href="#method-2-docker" class="button secondary">Docker チュートリアル</a><a href="#method-3-wsl" class="button secondary">WSL チュートリアル</a>

### Unsloth Studio

私たちは新しい Web UI を公開しました。名前は [Unsloth Studio](https://unsloth.ai/docs/jp/xin-zhe/studio/install) で、Windows ですぐにそのまま動作します：

```bash
irm https://unsloth.ai/install.ps1 | iex
```

更新する場合も、以下を使用する場合も同じコマンドを使ってください `unsloth studio update`.

その後、毎回起動するには：

```bash
unsloth studio -H 0.0.0.0 -p 8888
```

Unsloth Studio の詳細なインストール手順と要件については、 [ガイドを見る](https://unsloth.ai/docs/jp/xin-zhe/studio/install).

以下は元の **Unsloth Core**:

### 方法 #1 - Conda 経由の Windows：

{% stepper %}
{% step %}
**Miniconda（または Anaconda）をインストール**

Anaconda をダウンロード [こちら](https://www.anaconda.com/download)。私たちのおすすめは [Miniconda](https://www.anaconda.com/docs/getting-started/miniconda/install#quickstart-install-instructions)です。使用するには、まず Powershell を開きます - スタートで「Windows Powershell」を検索してください：

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FvCgJ3hTR5ChVmCR1ndAh%2Fimage.png?alt=media&#x26;token=bcabe210-793f-40ae-944a-a349dddc8c35" alt="" width="375"><figcaption></figcaption></figure>

すると Powershell が開きます：

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2Fm7J0b8Qz5W2aGktt3KA9%2Fimage.png?alt=media&#x26;token=f84327e4-408f-492c-a909-982ed458f393" alt="" width="375"><figcaption></figcaption></figure>

次に、以下をコピーします：CTRL+C でコピーし、Powershell で CTRL+V で貼り付けます：

{% code overflow="wrap" %}

```ps
Invoke-WebRequest -Uri "https://repo.anaconda.com/miniconda/Miniconda3-latest-Windows-x86_64.exe" -OutFile ".\miniconda.exe"
Start-Process -FilePath ".\miniconda.exe" -ArgumentList "/S" -Wait
del .\miniconda.exe
```

{% endcode %}

警告を受け入れて「Paste anyway」を押し、待ってください。

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FZCFxO1FrYGk7sV7AmCe8%2Fimage.png?alt=media&#x26;token=f753dbdb-efa9-462c-875b-0a18509a10cf" alt="" width="375"><figcaption></figcaption></figure>

以下のようにインストーラーがダウンロードされています：

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2F2TzsqlGZyUI4wBT0hXW9%2Fimage.png?alt=media&#x26;token=a680690a-3179-4525-bf83-0163424b5ddc" alt="" width="375"><figcaption></figcaption></figure>

インストール後、開いてください **Anaconda Powershell Prompt** スタート -> 検索 から Miniconda を使うには：

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FWoQSFFfmB26WT6BdzrvJ%2Fimage.png?alt=media&#x26;token=747c6c4e-f676-4927-abad-cb667e757309" alt="" width="375"><figcaption></figcaption></figure>

すると、次のように表示されます：

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FNTTeflwW9Gw7lxJdCUcy%2Fimage.png?alt=media&#x26;token=77f093b7-9fd5-47f2-856d-18f238f5a95e" alt="" width="375"><figcaption></figcaption></figure>
{% endstep %}

{% step %}
**conda 環境を作成**

```bash
conda create --name unsloth_env python==3.12 -y
conda activate unsloth_env
```

**次のように表示されます：**

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FEFYV6IhOeXIDbzxYHzEJ%2Fimage.png?alt=media&#x26;token=e3452b73-cfd2-4148-a735-cfe400369c17" alt="" width="375"><figcaption></figcaption></figure>
{% endstep %}

{% step %}
**確認してください `nvidia-smi` GPU があることを確認し、CUDA バージョンを確認します**

入力後 `nvidia-smi` を Powershell で実行すると、以下のようなものが表示されるはずです。もし `nvidia-smi` がない、または以下が表示されない場合は、 [NVIDIA ドライバー](https://www.nvidia.com/en-us/drivers/).

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2F1CMAzx7LX8LEc8GHy1I9%2Fimage.png?alt=media&#x26;token=a0ad52e3-be17-4dc4-ae97-ba400a639098" alt="" width="375"><figcaption></figcaption></figure>
{% endstep %}

{% step %}
**PyTorch をインストール**

実行すると `nvidia-smi` の右上に「CUDA Version: 13.0」と表示されます。PowerShell で PyTorch をインストールしてください。 `130` をあなたの CUDA バージョンに変更してください -  [そのバージョンが存在すること](https://pytorch.org/) 、そして CUDA ドライバーのバージョンと一致していることを確認してください。

{% code overflow="wrap" %}

```bash
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu130
```

{% endcode %}

次のように表示されます：

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2Fo4aNeIbILGYvfpjYa1X2%2Fimage.png?alt=media&#x26;token=444d6907-04e0-4d5e-8de5-d8cdcaf85364" alt="" width="563"><figcaption></figcaption></figure>

PyTorch のインストール後、Python でこれを試してください： `python` の後：

{% code overflow="wrap" %}

```python
import torch
print(torch.cuda.is_available())
A = torch.ones((10, 10), device = "cuda")
B = torch.ones((10, 10), device = "cuda")
A @ B
```

{% endcode %}

10 が並んだ行列が表示されるはずです。また、最初の結果が True であることも確認してください。

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FJkf39Nyfgyt4QmTLGhOx%2Fimage.png?alt=media&#x26;token=2d1a16a6-e524-461a-ac75-a24b6bda333f" alt="" width="375"><figcaption></figcaption></figure>
{% endstep %}

{% step %}
**Unsloth をインストール（PyTorch が動作する場合のみ！）**

{% hint style="danger" %}
**PyTorch が正常に動作して実行できることを確認してください - そうでない場合、PyTorch は壊れており、残念ながらお使いの Windows マシンでは CUDA ドライバーの再インストールが必要かもしれません。**
{% endhint %}

Powershell で（Python を `exit()` で終了した後）、以下を実行して待ってください：

```bash
pip install unsloth
```

{% endstep %}

{% step %}
**Unsloth が動作することを確認**

次に、 [unsloth-notebooks](https://unsloth.ai/docs/jp/meru/unsloth-notebooks "mention") 内の任意のスクリプト（.py ファイルとして保存）を使うか、以下の基本スクリプトを使用してください：

{% code expandable="true" %}

```python
from unsloth import FastLanguageModel, FastModel
import torch
from trl import SFTTrainer, SFTConfig
from datasets import load_dataset
max_seq_length = 512
url = "https://huggingface.co/datasets/laion/OIG/resolve/main/unified_chip2.jsonl"
dataset = load_dataset("json", data_files = {"train" : url}, split = "train")

model, tokenizer = FastLanguageModel.from_pretrained(
    model_name = "unsloth/gemma-3-270m-it",
    max_seq_length = max_seq_length, # 長いコンテキスト用に任意の値を選択！
    load_in_4bit = True,  # 4 ビット量子化。False = 16 ビット LoRA。
    load_in_8bit = False, # 8 ビット量子化
    load_in_16bit = False, # 16 ビット LoRA
    full_finetuning = False, # 完全なファインチューニングに使用。
    trust_remote_code = False, # 新しいモデルをサポートするには有効化
    # token = "hf_...", # gated モデルを使う場合は 1 つ使用
)

# モデルパッチを行い、高速 LoRA 重みを追加
model = FastLanguageModel.get_peft_model(
    model,
    r = 16,
    target_modules = ["q_proj", "k_proj", "v_proj", "o_proj",
                      "gate_proj", "up_proj", "down_proj",],
    lora_alpha = 16,
    lora_dropout = 0, # 任意の値をサポートしますが、= 0 が最適化されています
    bias = "none",    # 任意の値をサポートしますが、= "none" が最適化されています
    # [新機能] "unsloth" は VRAM を 30% 少なく使用し、2 倍大きいバッチサイズに対応します！
    use_gradient_checkpointing = "unsloth", # 非常に長いコンテキストには True または "unsloth"
    random_state = 3407,
    max_seq_length = max_seq_length,
    use_rslora = False,  # rank stabilized LoRA をサポートしています
    loftq_config = None, # LoftQ もサポート
)

trainer = SFTTrainer(
    model = model,
    train_dataset = dataset,
    tokenizer = tokenizer,
    args = SFTConfig(
        max_seq_length = max_seq_length,
        per_device_train_batch_size = 2,
        gradient_accumulation_steps = 4,
        warmup_steps = 10,
        max_steps = 60,
        logging_steps = 1,
        output_dir = "outputs",
        optim = "adamw_8bit",
        seed = 3407,
        dataset_num_proc = 1,
    ),
)
trainer.train()
```

{% endcode %}

次のように表示されるはずです：

```bash
🦥 Unsloth: 無料ファインチューニングを 2 倍高速化できるように、あなたのコンピューターにパッチを適用します。
🦥 Unsloth Zoo が、学習を高速化するためにすべてにパッチを適用します！
==((====))==  Unsloth 2026.1.4: 高速 Gemma3 パッチ適用。Transformers: 4.57.6。
   \\   /|    NVIDIA GeForce RTX 3060。GPU 数 = 1。最大メモリ: 12.0 GB。プラットフォーム: Windows。
O^O/ \_/ \    Torch: 2.10.0+cu130。CUDA: 8.6。CUDA Toolkit: 13.0。Triton: 3.6.0
\        /    Bfloat16 = TRUE。FA [Xformers = 0.0.34。FA2 = False]
 "-____-"     無料ライセンス: http://github.com/unslothai/unsloth
Unsloth: 高速ダウンロードが有効です - 赤色のダウンロードバーは無視してください！
Unsloth: Gemma3 は SDPA をサポートしていません - 高速 eager に切り替えます。
Unsloth: `model.base_model.model.model` に勾配を必要とするよう設定しています
Unsloth: ["text"] をトークナイズ中 (num_proc=1):   0%|                 | 0/210289 [00:00<?, ? examples/s]�  Unsloth: 無料ファインチューニングを 2 倍高速化できるように、あなたのコンピューターにパッチを適用します。
🦥 Unsloth: 無料ファインチューニングを 2 倍高速化できるように、あなたのコンピューターにパッチを適用します。
```

そして学習：

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FfJalYwpN7ffC88J2dsOQ%2Fimage.png?alt=media&#x26;token=e2129773-9255-4983-b52e-51de5729a7ab" alt="" width="375"><figcaption></figcaption></figure>
{% endstep %}
{% endstepper %}

### 方法 #2 - Docker：

Windows ユーザーが Unsloth を始めるには、セットアップや依存関係の問題が不要なため、Docker が最も簡単な方法かもしれません。 [**`unsloth/unsloth`**](https://hub.docker.com/r/unsloth/unsloth) は Unsloth 唯一の Docker イメージです。 [Blackwell](https://unsloth.ai/docs/jp/burogu/fine-tuning-llms-with-blackwell-rtx-50-series-and-unsloth) および 50 シリーズ GPU でも、この同じイメージを使用してください - 別のイメージは不要です。

インストール手順については、 [Docker ガイド](https://unsloth.ai/docs/jp/burogu/how-to-fine-tune-llms-with-unsloth-and-docker)に従ってください。あるいは、以下はクイックスタートガイドです：

{% stepper %}
{% step %}
**Docker と NVIDIA Container Toolkit をインストールします。**

Docker を次の方法でインストールします： [Linux](https://docs.docker.com/engine/install/) または [Desktop](https://docs.docker.com/desktop/) （その他）。その後、 [NVIDIA Container Toolkit](https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html#installation):

```bash
export NVIDIA_CONTAINER_TOOLKIT_VERSION=1.17.8-1
sudo apt-get update && sudo apt-get install -y \
  nvidia-container-toolkit=${NVIDIA_CONTAINER_TOOLKIT_VERSION} \
  nvidia-container-toolkit-base=${NVIDIA_CONTAINER_TOOLKIT_VERSION} \
  libnvidia-container-tools=${NVIDIA_CONTAINER_TOOLKIT_VERSION} \
  libnvidia-container1=${NVIDIA_CONTAINER_TOOLKIT_VERSION}
```

{% endstep %}

{% step %}
**コンテナを実行します。**

[**`unsloth/unsloth`**](https://hub.docker.com/r/unsloth/unsloth) は Unsloth 唯一の Docker イメージです。

```bash
docker run -d -e JUPYTER_PASSWORD="mypassword" \
  -p 8888:8888 -p 2222:22 \
  -v $(pwd)/work:/workspace/work \
  --gpus all \
  unsloth/unsloth
```

{% endstep %}

{% step %}
**Jupyter Lab にアクセス**

次へアクセスしてください [http://localhost:8888](http://localhost:8888/) そして Unsloth を開きます。 `unsloth-notebooks` タブを開くと、Unsloth ノートブックが表示されます。
{% endstep %}

{% step %}
**Unsloth で学習を開始**

初めての場合は、ステップバイステップの [ファインチューニングガイド](https://unsloth.ai/docs/jp/meru/fine-tuning-llms-guide), [RL ガイド](https://unsloth.ai/docs/jp/meru/reinforcement-learning-rl-guide) に従うか、あらかじめ用意された [ノートブック](https://unsloth.ai/docs/jp/meru/unsloth-notebooks).
{% endstep %}

{% step %}
**Docker の問題 - GPU が検出されない？**

WSL を試してください： [#method-2-wsl](#method-2-wsl "mention")
{% endstep %}
{% endstepper %}

### 方法 #3 - WSL：

{% stepper %}
{% step %}
**WSL をインストール**

コマンド プロンプトまたはターミナルを開いて Ubuntu をインストールします。求められた場合はパスワードを設定してください。

```bash
wsl.exe --install Ubuntu-24.04
wsl.exe -d Ubuntu-24.04
```

{% endstep %}

{% step %} <mark style="color:$primary;background-color:orange;">**もし (1) を実行しておらず、すでに WSL をインストール済みなら**</mark>**、コマンド プロンプトで `wsl` と入力して ENTER を押して WSL に入ってください**

```bash
wsl
```

{% endstep %}

{% step %}
**Python をインストール**

{% code overflow="wrap" %}

```bash
sudo apt update
sudo apt install python3 python3-full python3-pip python3-venv -y
```

{% endcode %}
{% endstep %}

{% step %}
**PyTorch をインストール**

{% code overflow="wrap" %}

```bash
pip install torch torchvision --force-reinstall --index-url https://download.pytorch.org/whl/cu130
```

{% endcode %}

権限の問題が発生した場合は、 `–break-system-packages` を使ってください。つまり、 `pip install torch torchvision --force-reinstall --index-url https://download.pytorch.org/whl/cu130 –break-system-packages`
{% endstep %}

{% step %}
**Unsloth と Jupyter Notebook をインストール**

{% code overflow="wrap" %}

```bash
pip install unsloth jupyter
```

{% endcode %}

権限の問題が発生した場合は、 `–-break-system-packages` を使ってください。つまり、 `pip install unsloth jupyter –-break-system-packages`
{% endstep %}

{% step %}
**Jupyter Notebook 経由で Unsloth を起動**

{% code overflow="wrap" %}

```bash
jupyter notebook
```

{% endcode %}

その後、 [unsloth-notebooks](https://unsloth.ai/docs/jp/meru/unsloth-notebooks "mention")内で私たちのノートブックを開いて読み込んでください！ また、Colab ノートブックに行き、download > download .ipynb でダウンロードして読み込むこともできます。

![](https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FVbqNWsG2CCHKJJjrnU4s%2Funknown.png?alt=media\&token=854a6d0e-fc84-4e44-bf8e-4bf254801692)
{% endstep %}
{% endstepper %}

{% hint style="warning" %}
GRPO を使用している場合、または vLLM を使用する予定がある場合、現在 vLLM は Windows を直接サポートしておらず、WSL または Linux 経由でのみ利用できます。
{% endhint %}

### **トラブルシューティング /** 高度

もし **高度なインストール手順** が必要な場合、またはインストール中に奇妙なエラーが表示される場合：

1. インストールしてください `torch` と `triton`。インストールするには <https://pytorch.org> にアクセスしてください。例えば `pip install torch torchvision torchaudio triton`
2. CUDA が正しくインストールされているか確認してください。 `nvcc`を試してください。失敗する場合は、 `cudatoolkit` または CUDA ドライバーをインストールする必要があります。
3. Intel GPU を使用している場合は、 [Intel Windows ガイド](https://unsloth.ai/docs/jp/meru/intel#windows-only-runtime-configurations)
4. インストールしてください `xformers` を手動で行う必要があります。 `vllm` をインストールして、 `vllm` が成功するか確認してみてください。 `xformers` が成功したかどうかは、 `python -m xformers.info` で確認してください。<https://github.com/facebookresearch/xformers> にアクセスしてください。別の方法として、 `flash-attn` を Ampere GPU 用にインストールすることもできます。
5. Python、CUDA、CUDNN、 `torch`, `triton`、および `xformers` のバージョンが互いに互換性があることを再確認してください。 [PyTorch 互換性マトリクス](https://github.com/pytorch/pytorch/blob/main/RELEASE.md#release-compatibility-matrix) が役立つかもしれません。
6. 最後に、 `bitsandbytes` をインストールし、 `python -m bitsandbytes`
7. で確認してください。Unsloth が GPU を検出または使用しておらず、Windows 上で私たちの Docker コンテナを使用している場合、あなたの CUDA toolkit バージョン `nvcc --version` は、ホスト GPU 上で nvidia-smi によって表示される CUDA のバージョンと一致している必要があります。Windows 上の Docker コンテナに対する GPU サポートは自動ではありません。 [Docker のガイドに従う必要があります](https://docs.docker.com/desktop/features/gpu/).

### Unsloth Studio をアンインストール

Windows で Unsloth Studio をアンインストールするには、以下の 4 つの手順に従ってください：

#### **1. アプリケーションを削除**

* Windows（PowerShell）： `Remove-Item -Recurse -Force "$HOME\.unsloth\studio\unsloth", "$HOME\.unsloth\studio\studio"`&#x20;

これによりアプリケーションは削除されますが、モデルのチェックポイント、エクスポート、履歴、キャッシュ、チャットは保持されます。

#### **2. ショートカットとシンボリックリンクを削除**

**WSL / Windows（PowerShell）：**

```bash
Remove-Item -Force "$HOME\Desktop\Unsloth Studio.lnk"
Remove-Item -Force "$env:APPDATA\Microsoft\Windows\Start Menu\Programs\Unsloth Studio.lnk"
```

#### **3. CLI コマンドを削除**

**WSL：**

```bash
rm -f ~/.local/bin/unsloth
```

**Windows（PowerShell）：** インストーラーは venv の `Scripts` ディレクトリをあなたのユーザー PATH に追加しました。削除するには、設定 → システム → バージョン情報 → システムの詳細設定 → 環境変数 を開き、 `Path` をユーザー環境変数の下で見つけ、次を指しているエントリを削除してください： `.unsloth\studio\...\Scripts`.

#### **4. すべて削除（任意）**

履歴、キャッシュ、チャット、モデルのチェックポイント、モデルのエクスポートも削除するには、Unsloth フォルダー全体を削除してください：

* WSL、Linux： `rm -rf ~/.unsloth`
* Windows（PowerShell）： `Remove-Item -Recurse -Force "$HOME\.unsloth"`&#x20;

ダウンロード済みの HF モデルファイルは Hugging Face のキャッシュに別途保存されている点に注意してください - 上記の手順ではそれらは削除されません。 **モデルファイルの削除** ディスク容量を回復したい場合は、以下を参照してください。


---

# Agent Instructions: Querying This Documentation

If you need additional information that is not directly available in this page, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on the current page URL with the `ask` query parameter:

```
GET https://unsloth.ai/docs/jp/meru/install/windows-installation.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
