windowsWindows に Unsloth をインストール

Windows に Unsloth をインストールしてローカルで LLM をファインチューニングする方法を確認してください。

WSL を使わずに Unsloth を使用して Windows デバイス上で直接 LLM をファインチューニングする方法を学びましょう。Windows の場合、 pip install unsloth は動作しますが、事前に PyTorch をインストールしている必要があります。そうでない場合は、以下のガイドに従ってください:

Conda チュートリアルDocker チュートリアルWSL チュートリアル

方法 #1 - Conda 経由の Windows:

1

Miniconda(または Anaconda)をインストールする

Anaconda をダウンロード こちらarrow-up-right。私たちの提案は Minicondaarrow-up-rightを使用することです。使用するには、まず PowerShell を開きます - スタートで「Windows Powershell」を検索してください:

すると PowerShell が開きます:

次に以下をコピー&ペーストします:CTRL+C でコピーし、PowerShell に CTRL+V で貼り付けます:

Invoke-WebRequest -Uri "https://repo.anaconda.com/miniconda/Miniconda3-latest-Windows-x86_64.exe" -OutFile ".\miniconda.exe"
Start-Process -FilePath ".\miniconda.exe" -ArgumentList "/S" -Wait
del .\miniconda.exe

警告を受け入れて「Paste anyway(それでも貼り付け)」を押し、しばらく待ちます。

インストーラーが以下のようにダウンロードされています:

インストール後、開いてください Anaconda Powershell Prompt Miniconda を使用するにはスタート -> 検索で開きます:

すると次のように表示されます:

2

conda 環境を作成する

conda create --name unsloth_env python==3.12 -y
conda activate unsloth_env

次のように表示されます:

3

確認する nvidia-smi で GPU があるか確認し、CUDA バージョンを確認します

入力後 nvidia-smi PowerShell では以下のように表示されるはずです。もし nvidia-smi がなく、以下が表示されない場合は、 NVIDIA ドライバarrow-up-right.

4

を再インストールする必要があります

PyTorch をインストールする nvidia-smi を実行すると、右上に「CUDA Version: 13.0」が表示されます。PowerShell で PyTorch をインストールします。 130 をあなたの CUDA バージョンに変更し、 バージョンが存在することを確認しarrow-up-right CUDA ドライバのバージョンと一致するようにしてください。

pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu130

次のように表示されます:

PyTorch をインストールした後、Python で次を実行してみてください: python PyTorch をインストールした後に:

import torch
print(torch.cuda.is_available())
A = torch.ones((10, 10), device = "cuda")
B = torch.ones((10, 10), device = "cuda")
A @ B

10 の行列が表示されるはずです。また最初は True が表示されることも確認してください。

5

Unsloth をインストールする(PyTorch が動作する場合のみ!)

triangle-exclamation

PowerShell で(Python から exit() で退出した後)、以下を実行して待ちます:

pip install unsloth
6

Unsloth が動作することを確認する

今、任意のスクリプトを Unsloth ノートブック (.py ファイルとして保存)、または以下の基本スクリプトを使用してください:

次のように表示されるはずです:

🦥 Unsloth: あなたのコンピュータをパッチして、2x 高速の無料ファインチューニングを可能にします。
🦥 Unsloth Zoo はトレーニングを高速化するためにすべてをパッチします!
==((====))==  Unsloth 2026.1.4: Fast Gemma3 patching. Transformers: 4.57.6.
   \\   /|    NVIDIA GeForce RTX 3060。GPU  = 1。最大メモリ: 12.0 GB。プラットフォーム: Windows.
O^O/ \_/ \    Torch: 2.10.0+cu130。CUDA: 8.6。CUDA Toolkit: 13.0。Triton: 3.6.0
\        /    Bfloat16 = TRUE。FA [Xformers = 0.0.34。FA2 = False]
 "-____-"     フリーライセンス: http://github.com/unslothai/unsloth
Unsloth: 高速ダウンロードが有効です - 赤いダウンロードバーは無視してください!
Unsloth: Gemma3  SDPA をサポートしていないため、速い eager に切り替えています。
Unsloth: `model.base_model.model.model` を勾配計算可能にしています
Unsloth: Tokenizing ["text"] (num_proc=1):   0%|                 | 0/210289 [00:00<?, ? examples/s]�  Unsloth: あなたのコンピュータをパッチして 2x 高速の無料ファインチューニングを可能にします。
🦥 Unsloth: あなたのコンピュータをパッチして、2x 高速の無料ファインチューニングを可能にします。

そしてトレーニング:

方法 #2 - Docker:

Docker はセットアップや依存関係の問題が不要なため、Windows ユーザーが Unsloth を始めるのに最も簡単な方法かもしれません。 unsloth/unslotharrow-up-right は Unsloth の唯一の Docker イメージです。 Blackwell および 50 シリーズ GPU の場合も、同じイメージを使用してください - 別のイメージは必要ありません。

インストール手順については、以下に従ってください: Docker ガイド、それ以外はここにクイックスタートガイドがあります:

1

Docker と NVIDIA Container Toolkit をインストールします。

Docker をインストールするには Linuxarrow-up-right または Desktoparrow-up-right (その他)。その後、次をインストールします NVIDIA Container Toolkitarrow-up-right:

export NVIDIA_CONTAINER_TOOLKIT_VERSION=1.17.8-1
sudo apt-get update && sudo apt-get install -y \
  nvidia-container-toolkit=${NVIDIA_CONTAINER_TOOLKIT_VERSION} \
  nvidia-container-toolkit-base=${NVIDIA_CONTAINER_TOOLKIT_VERSION} \
  libnvidia-container-tools=${NVIDIA_CONTAINER_TOOLKIT_VERSION} \
  libnvidia-container1=${NVIDIA_CONTAINER_TOOLKIT_VERSION}
2

コンテナを実行します。

unsloth/unslotharrow-up-right は Unsloth の唯一の Docker イメージです。

docker run -d -e JUPYTER_PASSWORD="mypassword" \
  -p 8888:8888 -p 2222:22 \
  -v $(pwd)/work:/workspace/work \
  --gpus all \
  unsloth/unsloth
3

Jupyter Lab にアクセスする

に移動します http://localhost:8888arrow-up-right そして Unsloth を開きます。アクセスして unsloth-notebooks タブで Unsloth のノートブックを確認してください。

4

Unsloth でトレーニングを開始する

初めての場合は、ステップバイステップの ファインチューニングガイド, RL ガイド に従うか、単に私たちのあらかじめ用意された ノートブック.

5

を保存/コピーして使用してください。

Docker の問題 - GPU が検出されない? Windows

WSL を試してみてください(方法 #3 参照):

1

方法 #3 - WSL:

WSL をインストールする

コマンドプロンプトまたはターミナルを開き、Ubuntu をインストールします。パスワードを求められたら設定してください。
wsl.exe --install Ubuntu-24.04
2

wsl.exe -d Ubuntu-24.04$primary 、コマンドプロンプトで次を入力して WSL に入ります wsl

、コマンドプロンプトで次を入力して WSL に入ります
3

そして ENTER を押します

Python をインストールする
sudo apt update
4

を再インストールする必要があります

sudo apt install python3 python3-full python3-pip python3-venv -y

pip install torch torchvision --force-reinstall --index-url https://download.pytorch.org/whl/cu130 権限の問題が発生した場合は、次を使用してください –break-system-packages したがって、

5

pip install torch torchvision --force-reinstall --index-url https://download.pytorch.org/whl/cu130 –break-system-packages

Unsloth  Jupyter Notebook をインストールする

pip install torch torchvision --force-reinstall --index-url https://download.pytorch.org/whl/cu130 pip install unsloth jupyter –break-system-packages –-break-system-packages

6

pip install unsloth jupyter –-break-system-packages

Jupyter Notebook  Unsloth を起動する

jupyter notebook Unsloth ノートブックその後、私たちのノートブックを開いて読み込みます!また Colab ノートブックに行き、.ipynb をダウンロードして読み込むこともできます。

circle-exclamation

トラブルシューティング / 上級

次のための 高度なインストール手順 またはインストール中に奇妙なエラーが発生した場合:

  1. をインストールする torch および tritonをインストールするには https://pytorch.org にアクセスしてください。例えば pip install torch torchvision torchaudio triton

  2. CUDA が正しくインストールされているか確認してください。次を試してください nvcc。もしそれが失敗するなら、 cudatoolkit または CUDA ドライバをインストールする必要があります。

  3. Intel GPU を使用している場合は、私たちの Intel Windows ガイド

  4. をインストールする に従う必要があります xformers を手動でインストールしてください。試しに vllm を手動でインストールしてください。試しに をインストールして、 に従う必要があります が成功するか確認してください。次で成功したか確認します python -m xformers.info https://github.com/facebookresearch/xformers にアクセスしてください。もう一つの選択肢は flash-attn を Ampere GPU 向けにインストールすることです。

  5. Python、CUDA、CUDNN、 torch, triton、および に従う必要があります のバージョンが互いに互換性があることを再確認してください。 PyTorch 互換性マトリックスarrow-up-right が役に立つかもしれません。

  6. 最後に、 bitsandbytes をインストールし、次で確認してください python -m bitsandbytes

最終更新

役に立ちましたか?