# Unslothを使ってWindowsでLLMをファインチューニングする方法（ステップバイステップガイド）

これで、WSLを使わずにローカルのWindowsデバイス上で直接モデルをファインチューニングできるようになりました。 [Unsloth](https://github.com/unslothai/unsloth)。このガイドでは、使用できる主な方法が3つあります（[Conda](#method-1-windows-via-conda), [Docker](#method-2-docker) と [WSL](#method-3-wsl)）。\
すでにWindowsにPyTorchがインストールされている場合は、 `pip install unsloth` で動作するはずです。そうでない場合は、以下のガイドに従ってください：

<a href="/pages/3f25ebdeb2b687d90421588e1b9a97b6f91995fe#method-1-windows-via-conda" class="button secondary">Condaチュートリアル</a><a href="/pages/3f25ebdeb2b687d90421588e1b9a97b6f91995fe#method-2-docker" class="button secondary">Dockerチュートリアル</a><a href="/pages/3f25ebdeb2b687d90421588e1b9a97b6f91995fe#method-3-wsl" class="button secondary">WSLチュートリアル</a>

### Unsloth Studio

新しいWeb UIをリリースしました。 [Unsloth Studio](/docs/jp/xin-zhe/studio/install.md) これはWindowsでそのまま動作します：

```bash
irm https://unsloth.ai/install.ps1 | iex
```

同じコマンドで更新するか、 `unsloth studio update`.

を使用してください。その後、起動するたびに：

```bash
unsloth studio -H 0.0.0.0 -p 8888
```

Unsloth Studioの詳細なインストール手順と要件については、 [ガイドをご覧ください](/docs/jp/xin-zhe/studio/install.md).

以下は、元の **Unsloth Core**:

### のインストール手順です。方法 #1 - Conda経由のWindows：

{% stepper %}
{% step %}
**Miniconda（またはAnaconda）をインストール**

Anacondaをダウンロード [こちら](https://www.anaconda.com/download)。推奨は [Miniconda](https://www.anaconda.com/docs/getting-started/miniconda/install#quickstart-install-instructions)です。使うには、まずPowershellを開きます。スタートで「Windows Powershell」を検索してください：

<figure><img src="/files/f266ce5047701dfefd0399244a429d5c410708fb" alt="" width="375"><figcaption></figcaption></figure>

するとPowershellが開きます：

<figure><img src="/files/5d697b5f88d4ce1468d4da72235b8e7740bba2e7" alt="" width="375"><figcaption></figcaption></figure>

次に以下をコピー＆ペーストします：CTRL+Cでコピーし、PowershellにCTRL+Vで貼り付けます：

{% code overflow="wrap" %}

```ps
Invoke-WebRequest -Uri "https://repo.anaconda.com/miniconda/Miniconda3-latest-Windows-x86_64.exe" -OutFile ".\miniconda.exe"
Start-Process -FilePath ".\miniconda.exe" -ArgumentList "/S" -Wait
del .\miniconda.exe
```

{% endcode %}

警告を स्वीकारして「Paste anyway」を押し、待ちます。

<figure><img src="/files/be592cd680239e9b31ac2ba5cb350ec1a136034f" alt="" width="375"><figcaption></figcaption></figure>

以下のようにインストーラーをダウンロードしています：

<figure><img src="/files/60748784763d2da74a39d3beea2a063d8b794600" alt="" width="375"><figcaption></figcaption></figure>

インストール後、開いて **Anaconda Powershell Prompt** を使ってMinicondaを起動します。スタート→検索で見つけてください：

<figure><img src="/files/d6e580dd8a84ca85ccbdbb340869f72aaf3a8869" alt="" width="375"><figcaption></figcaption></figure>

すると次が表示されます：

<figure><img src="/files/6679435ac5d4d3d083bda6e8f13af380d996bbd3" alt="" width="375"><figcaption></figcaption></figure>
{% endstep %}

{% step %}
**conda環境を作成**

```bash
conda create --name unsloth_env python==3.12 -y
conda activate unsloth_env
```

**次のように表示されます：**

<figure><img src="/files/8e2b8ffebae361c84e18168678f062a2dd20bb4e" alt="" width="375"><figcaption></figcaption></figure>
{% endstep %}

{% step %}
**確認 `nvidia-smi` を実行してGPUがあることを確認し、CUDAのバージョンを確認します**

と入力した後 `nvidia-smi` 、Powershellで次のような表示が出るはずです。もし `nvidia-smi` がない、または下記が表示されない場合は、再インストールが必要です [NVIDIAドライバー](https://www.nvidia.com/en-us/drivers/).

<figure><img src="/files/5359da653b1f00d893b2552a562f483eeb29355f" alt="" width="375"><figcaption></figcaption></figure>
{% endstep %}

{% step %}
**PyTorchをインストール**

を実行するとき `nvidia-smi` 、右上に「CUDA Version: 13.0」と表示されます。PowerShellでPyTorchをインストールします。を変更してください `130` をCUDAバージョンに合わせてください - [バージョンが存在する](https://pytorch.org/) ことと、CUDAドライバーのバージョンと一致していることを確認してください。

{% code overflow="wrap" %}

```bash
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu130
```

{% endcode %}

次のように表示されます：

<figure><img src="/files/ed003f4daf6cf594acabc11882d176f9da055270" alt="" width="563"><figcaption></figcaption></figure>

PyTorchをインストールした後、Pythonでこれを実行してみてください： `python` ：

{% code overflow="wrap" %}

```python
import torch
print(torch.cuda.is_available())
A = torch.ones((10, 10), device = "cuda")
B = torch.ones((10, 10), device = "cuda")
A @ B
```

{% endcode %}

10の行列が表示されるはずです。また、最初の項目がTrueであることも確認してください。

<figure><img src="/files/a9c49eced5f68ef5a2729a4f6e6dc15cc2fdf6bc" alt="" width="375"><figcaption></figcaption></figure>
{% endstep %}

{% step %}
**Unslothをインストール（PyTorchが動作する場合のみ！）**

{% hint style="danger" %}
**PyTorchが正常に動作していることを確認してください。もし動作しないならPyTorchに問題があり、お使いのWindowsマシンではCUDAドライバーの再インストールが必要かもしれません。**
{% endhint %}

Powershellで（Pythonを終了して `exit()` 、実行して待ちます：

```bash
pip install unsloth
```

{% endstep %}

{% step %}
**Unslothが動作することを確認**

今度は [Unslothノートブック](/docs/jp/meru/unsloth-notebooks.md) 内の任意のスクリプトを使用するか（.pyファイルとして保存）、以下の基本スクリプトを使用してください：

{% code expandable="true" %}

```python
from unsloth import FastLanguageModel, FastModel
import torch
from trl import SFTTrainer, SFTConfig
from datasets import load_dataset
max_seq_length = 512
url = "https://huggingface.co/datasets/laion/OIG/resolve/main/unified_chip2.jsonl"
dataset = load_dataset("json", data_files = {"train" : url}, split = "train")

model, tokenizer = FastLanguageModel.from_pretrained(
    model_name = "unsloth/gemma-3-270m-it",
    max_seq_length = max_seq_length, # 長いコンテキストには任意の値を選択！
    load_in_4bit = True,  # 4ビット量子化。False = 16ビットLoRA。
    load_in_8bit = False, # 8ビット量子化
    load_in_16bit = False, # 16ビットLoRA
    full_finetuning = False, # 完全ファインチューニングに使用します。
    trust_remote_code = False, # 新しいモデルのサポートを有効にする
    # token = "hf_...", # ゲート付きモデルを使う場合は使用
)

# モデルのパッチ適用と高速LoRA重みの追加
model = FastLanguageModel.get_peft_model(
    model,
    r = 16,
    target_modules = ["q_proj", "k_proj", "v_proj", "o_proj",
                      "gate_proj", "up_proj", "down_proj",],
    lora_alpha = 16,
    lora_dropout = 0, # 何でも対応しますが、= 0 が最適化されています
    bias = "none",    # 何でも対応しますが、= "none" が最適化されています
    # [NEW] "unsloth" はVRAMを30%少なく使い、2倍大きいバッチサイズに対応！
    use_gradient_checkpointing = "unsloth", # 非常に長いコンテキストでは True または "unsloth"
    random_state = 3407,
    max_seq_length = max_seq_length,
    use_rslora = False,  # rank stabilized LoRA をサポートしています
    loftq_config = None, # そしてLoftQ
)

trainer = SFTTrainer(
    model = model,
    train_dataset = dataset,
    tokenizer = tokenizer,
    args = SFTConfig(
        max_seq_length = max_seq_length,
        per_device_train_batch_size = 2,
        gradient_accumulation_steps = 4,
        warmup_steps = 10,
        max_steps = 60,
        logging_steps = 1,
        output_dir = "outputs",
        optim = "adamw_8bit",
        seed = 3407,
        dataset_num_proc = 1,
    ),
)
trainer.train()
```

{% endcode %}

次のように表示されるはずです：

```bash
🦥 Unsloth: 2倍高速な無料ファインチューニングを有効にするため、お使いのコンピュータにパッチを適用します。
🦥 Unsloth Zooが、トレーニングを高速化するためにすべてにパッチを適用します！
==((====))==  Unsloth 2026.1.4: Fast Gemma3 patching. Transformers: 4.57.6.
   \\   /|    NVIDIA GeForce RTX 3060. GPU数 = 1。最大メモリ: 12.0 GB。プラットフォーム: Windows。
O^O/ \_/ \    Torch: 2.10.0+cu130. CUDA: 8.6. CUDA Toolkit: 13.0. Triton: 3.6.0
\        /    Bfloat16 = TRUE. FA [Xformers = 0.0.34. FA2 = False]
 "-____-"     無料ライセンス: http://github.com/unslothai/unsloth
Unsloth: 高速ダウンロードが有効です - 赤色のダウンロードバーは無視してください！
Unsloth: Gemma3 は SDPA をサポートしていません - fast eager に切り替えます。
Unsloth: `model.base_model.model.model` に勾配を必要とさせています
Unsloth: Tokenizing ["text"] (num_proc=1):   0%|                 | 0/210289 [00:00<?, ? examples/s]�  Unsloth: 2倍高速な無料ファインチューニングを有効にするため、お使いのコンピュータにパッチを適用します。
🦥 Unsloth: 2倍高速な無料ファインチューニングを有効にするため、お使いのコンピュータにパッチを適用します。
```

そしてトレーニング：

<figure><img src="/files/3cf862cdaba8ce9e831e6dc413187501c52b0210" alt="" width="375"><figcaption></figcaption></figure>
{% endstep %}
{% endstepper %}

### 方法 #2 - Docker：

Dockerは、セットアップ不要で依存関係の問題もないため、WindowsユーザーがUnslothを始める最も簡単な方法かもしれません。 [**`unsloth/unsloth`**](https://hub.docker.com/r/unsloth/unsloth) はUnslothの唯一のDockerイメージです。 [Blackwell](/docs/jp/burogu/fine-tuning-llms-with-blackwell-rtx-50-series-and-unsloth.md) および50シリーズGPUでは、同じイメージを使用してください - 別のイメージは不要です。

インストール手順については、 [Dockerガイド](/docs/jp/burogu/how-to-fine-tune-llms-with-unsloth-and-docker.md)に従ってください。そうでなければ、以下はクイックスタートガイドです：

{% stepper %}
{% step %}
**DockerとNVIDIA Container Toolkitをインストールします。**

Dockerを [Linux](https://docs.docker.com/engine/install/) または [Desktop](https://docs.docker.com/desktop/) （その他）経由でインストールします。次に [NVIDIA Container Toolkit](https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html#installation):

```bash
export NVIDIA_CONTAINER_TOOLKIT_VERSION=1.17.8-1
sudo apt-get update && sudo apt-get install -y \
  nvidia-container-toolkit=${NVIDIA_CONTAINER_TOOLKIT_VERSION} \
  nvidia-container-toolkit-base=${NVIDIA_CONTAINER_TOOLKIT_VERSION} \
  libnvidia-container-tools=${NVIDIA_CONTAINER_TOOLKIT_VERSION} \
  libnvidia-container1=${NVIDIA_CONTAINER_TOOLKIT_VERSION}
```

{% endstep %}

{% step %}
**コンテナを実行します。**

[**`unsloth/unsloth`**](https://hub.docker.com/r/unsloth/unsloth) はUnslothの唯一のDockerイメージです。

```bash
docker run -d -e JUPYTER_PASSWORD="mypassword" \
  -p 8888:8888 -p 2222:22 \
  -v $(pwd)/work:/workspace/work \
  --gpus all \
  unsloth/unsloth
```

{% endstep %}

{% step %}
**Jupyter Labにアクセス**

へ移動して [http://localhost:8888](http://localhost:8888/) を開いてUnslothを開きます。 `unsloth-notebooks` タブにアクセスして、Unslothノートブックを表示します。
{% endstep %}

{% step %}
**Unslothでトレーニングを開始**

初めての方は、ステップごとの [ファインチューニングガイド](/docs/jp/meru/fine-tuning-llms-guide.md), [RLガイド](/docs/jp/meru/reinforcement-learning-rl-guide.md) に従うか、用意済みの [ノートブック](/docs/jp/meru/unsloth-notebooks.md).
{% endstep %}

{% step %}
**Dockerの問題 - GPUが検出されない？**

次の方法でWSLを試してください [#method-2-wsl](#method-2-wsl "mention")
{% endstep %}
{% endstepper %}

### 方法 #3 - WSL：

{% stepper %}
{% step %}
**WSLをインストール**

コマンドプロンプトまたはターミナルを開いてUbuntuをインストールします。求められたらパスワードを設定してください。

```bash
wsl.exe --install Ubuntu-24.04
wsl.exe -d Ubuntu-24.04
```

{% endstep %}

{% step %} <mark style="color:$primary;background-color:orange;">**(1)を実行していない、つまりすでにWSLをインストール済みの場合は**</mark>**、と入力してWSLに入ります `wsl` そしてコマンドプロンプトでENTERを押します**

```bash
wsl
```

{% endstep %}

{% step %}
**Pythonをインストール**

{% code overflow="wrap" %}

```bash
sudo apt update
sudo apt install python3 python3-full python3-pip python3-venv -y
```

{% endcode %}
{% endstep %}

{% step %}
**PyTorchをインストール**

{% code overflow="wrap" %}

```bash
pip install torch torchvision --force-reinstall --index-url https://download.pytorch.org/whl/cu130
```

{% endcode %}

権限の問題に遭遇した場合は、 `–break-system-packages` を使用して `pip install torch torchvision --force-reinstall --index-url https://download.pytorch.org/whl/cu130 –break-system-packages`
{% endstep %}

{% step %}
**UnslothとJupyter Notebookをインストール**

{% code overflow="wrap" %}

```bash
pip install unsloth jupyter
```

{% endcode %}

権限の問題に遭遇した場合は、 `–-break-system-packages` を使用して `pip install unsloth jupyter –-break-system-packages`
{% endstep %}

{% step %}
**Jupyter Notebook経由でUnslothを起動**

{% code overflow="wrap" %}

```bash
jupyter notebook
```

{% endcode %}

その後、 [Unslothノートブック](/docs/jp/meru/unsloth-notebooks.md)内でノートブックを開いて読み込みます！Colabノートブックに行って download > download .ipynb でダウンロードし、それらを読み込むこともできます。

![](/files/a03a99e13160070b28fbbc74eb2bab3b334a5e7e)
{% endstep %}
{% endstepper %}

{% hint style="warning" %}
GRPOを使用している、またはvLLMを使用する予定がある場合、現在vLLMはWindowsを直接サポートしておらず、WSLまたはLinux経由のみです。
{% endhint %}

### **トラブルシューティング /** 詳細設定

について **詳細なインストール手順** や、インストール中に変なエラーが出る場合：

1. インストール `torch` と `triton`。インストールするには <https://pytorch.org> にアクセスしてください。たとえば `pip install torch torchvision torchaudio triton`
2. CUDAが正しくインストールされているか確認します。試しに `nvcc`を使ってください。失敗する場合は、 `cudatoolkit` またはCUDAドライバーをインストールする必要があります。
3. Intel GPUを使用している場合は、 [Intel Windowsガイド](/docs/jp/meru/install/intel.md#windows-only-runtime-configurations)
4. インストール `xformers` を手動で従う必要があります。 `vllm` をインストールして、 `vllm` が成功するか試してください。 `xformers` が `python -m xformers.info` で成功したか確認してください。<https://github.com/facebookresearch/xformers> にアクセスしてください。別の方法として `flash-attn` をAmpere GPU向けにインストールすることもできます。
5. Python、CUDA、CUDNN、 `torch`, `triton`、および `xformers` のバージョンが互いに互換性があることを再確認してください。 [PyTorch互換性マトリックス](https://github.com/pytorch/pytorch/blob/main/RELEASE.md#release-compatibility-matrix) が役立つかもしれません。
6. 最後に、 `bitsandbytes` をインストールし、 `python -m bitsandbytes`
7. で確認してください。UnslothがGPUを検出または使用しておらず、Windows上のDockerコンテナで当社のDockerコンテナを使用している場合、CUDAツールキットのバージョン `nvcc --version` はホスト上でnvidia-smiに表示されるCUDAのバージョンと一致している必要があります。Windows上のDockerコンテナでのGPUサポートは自動ではありません。 [Dockerのガイドに従う必要があります](https://docs.docker.com/desktop/features/gpu/).

### Unsloth Studioをアンインストール

WindowsでUnsloth Studioをアンインストールするには、次の4つの手順に従ってください：

#### **1. アプリケーションを削除**

* WSL: `rm -rf ~/.unsloth/studio/unsloth_studio`
* Windows（PowerShell）： `Remove-Item -Recurse -Force "$HOME\.unsloth\studio\unsloth_studio"`&#x20;

これによりアプリケーションは削除されますが、モデルのチェックポイント、エクスポート、履歴、キャッシュ、チャットはそのまま残ります。

#### **2. ショートカットとシンボリックリンクを削除**

**WSL / Windows（PowerShell）：**

```bash
Remove-Item -Force "$HOME\Desktop\Unsloth Studio.lnk"
Remove-Item -Force "$env:APPDATA\Microsoft\Windows\Start Menu\Programs\Unsloth Studio.lnk"
```

#### **3. CLIコマンドを削除**

**WSL:**

```bash
rm -f ~/.local/bin/unsloth
```

**Windows（PowerShell）：** インストーラーはvenvの `Scripts` ディレクトリをユーザーのPATHに追加しました。削除するには、設定 → システム → 詳細情報 → システムの詳細設定 → 環境変数 を開き、 `Path` をユーザー変数の下で見つけ、 `。unsloth\studio\...\Scripts`.

#### **4. すべて削除（任意）**

履歴、キャッシュ、チャット、モデルのチェックポイント、モデルのエクスポートも削除したい場合は、Unslothフォルダ全体を削除してください：

* WSL、Linux： `rm -rf ~/.unsloth`
* Windows（PowerShell）： `Remove-Item -Recurse -Force "$HOME\.unsloth"`&#x20;

ダウンロードされたHFモデルファイルはHugging Faceのキャッシュに別途保存されることに注意してください。上記の手順ではそれらは削除されません。 **モデルファイルの削除** そのディスク容量を回収したい場合は、以下を参照してください。


---

# Agent Instructions: Querying This Documentation

If you need additional information that is not directly available in this page, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on the current page URL with the `ask` query parameter:

```
GET https://unsloth.ai/docs/jp/meru/install/windows-installation.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
