Unsloth Studio インストール
ローカルデバイスにUnsloth Studioをインストールする方法を学びます。
Unsloth Studio は Windows、Linux、WSL、MacOS で動作します。デバイスごとにシステム要件は異なる場合がありますが、インストール手順はすべてのデバイスで同じ方法を使用してください。
トレーニング: NVIDIA GPU(RTX 3090、Blackwell 50 シリーズ、DGX Spark 等)をサポートしています。
Mac: CPU と同様 - 現時点ではチャットのみ動作します。 MLX トレーニングは近日公開予定です。
CPU:Unsloth は GPU が無くても動作します、ただし チャット 推論に限られます。
近日対応予定: サポート: Apple MLX, AMD、および Intel.
インストール手順
インストール手順はすべてのデバイスで同じであることを忘れないでください:
Unsloth Studio をセットアップする
unsloth studio setupセットアップは自動的に Node.js(nvm 経由)をインストールし、フロントエンドをビルドし、すべての Python 依存関係をインストールし、CUDA サポート付きで llama.cpp をビルドします。

初回インストールは 5〜10 分かかる場合があります。これは llama.cpp がバイナリをコンパイルする必要があるためで、中止しないでください。 次回はそれほど時間がかからないように、事前コンパイル済バイナリを用意する作業を進めています。
WSL ユーザー: ビルド依存関係をインストールするために sudo のパスワードを求められます(cmake, git, libcurl4-openssl-dev).
トレーニングと実行を開始する
起動後すぐにファインチューニングやデータセットの作成を開始できます。Unsloth Studio の開始方法についてはステップごとのガイドをご覧ください:
Get Startedシステム要件
Windows
Unsloth Studio は WSL を使わずに Windows 上で直接動作します。モデルをトレーニングするには、システムが次の要件を満たしていることを確認してください:
要件
Windows 10 または Windows 11(64 ビット)
ドライバがインストールされた NVIDIA GPU
App Installer (含む
winget): ここGit:
winget install --id Git.Git -e --source wingetPython:バージョン 3.11 以上 ただし 3.14 未満
次のような Python 環境内で作業してください: uv, venv、または conda/mamba
MacOS
Unsloth Studio は Mac デバイスで動作します( チャット GGUF モデル用。MLX トレーニングは近日対応予定!)
macOS 12 Monterey 以降(Intel または Apple Silicon)
Homebrew をインストール: ここ
Git:
brew install gitcmake:
brew install cmakeopenssl:
brew install opensslPython:バージョン 3.11 以上 ただし 3.14 未満
次のような Python 環境内で作業してください: uv, venv、または conda/mamba
Linux と WSL
Ubuntu 20.04 以上または同等のディストロ(64 ビット)
ドライバがインストールされた NVIDIA GPU
CUDA ツールキット(12.4 以上推奨、Blackwell の場合は 12.8 以上)
Git:
sudo apt install gitPython:バージョン 3.11 以上 ただし 3.14 未満
次のような Python 環境内で作業してください: uv, venv、または conda/mamba
Docker
当社の Docker イメージはまだ作業中で、本日中に利用可能になる予定です:
最新の Unsloth コンテナイメージをプル:
docker pull unsloth/unslothコンテナを次のコマンドで実行:
詳細については、 こちらを参照してください.
スタジオインスタンスへアクセス:
http://localhost:8000または外部 IP アドレス:http://external_ip_address:8000/
CPU のみ
Unsloth Studio は GGUF モデルに関しては CPU デバイスのみをサポートします。 チャット GGUF モデル用です。
Linux(NVIDIA GPU ドライバを除く)および MacOS に記載されたものと同じ要件です。
Google Colab
私たちは 無料の Google Colab ノートブック を作成しました。これにより Colab の T4 GPU 上で Unsloth の機能をすべて試すことができます。ほとんどのモデル(最大 22B パラメータまで)をトレーニングおよび実行でき、より大きなモデルにはより大きな GPU に切り替えることができます。単に「すべて実行」をクリックすれば、インストール後に UI が表示されます。
T4 GPU 上で llama.cpp をコンパイルするには 40 分以上かかるため、より高速化するにはより大きな GPU の使用を推奨します。
インストールが完了したら、次までスクロールしてください: Unsloth Studio を起動 そしてクリック: Unsloth Studio を開く 左側に表示される白いボックス内で:

トラブルシューティング
Python バージョンエラー
sudo apt install python3.12 python3.12-venv バージョン 3.11 以上 ただし 3.14 未満
nvidia-smi が見つからない
https://www.nvidia.com/Download/index.aspx から NVIDIA ドライバをインストールしてください
nvcc が見つからない (CUDA)
sudo apt install nvidia-cuda-toolkit または次を PATH に追加してください: /usr/local/cuda/bin に PATH を追加
llama-server のビルドに失敗しました
致命的ではありません。Studio は引き続き動作しますが、GGUF 推論は利用できません。修正するには cmake をインストールしてセットアップを再実行してください。
cmake が見つからない
sudo apt install cmake
git が見つからない
sudo apt install git
ビルドに失敗しました
を削除してください ~/.unsloth/llama.cpp そしてセットアップを再実行してください

最終更新
役に立ちましたか?




