Unsloth Studioのインストール
ローカル端末にUnsloth Studioをインストールする方法を学びましょう。
Unsloth Studio は Windows、Linux、WSL、MacOS で動作します。デバイスごとにシステム要件は異なる場合がありますが、どのデバイスでも同じインストール手順を使用してください。
CPU: Unsloth は GPU なしでも動作します、ただしチャット + データレシピ向けです。
トレーニング: で動作します NVIDIA: RTX 30、40、50、Blackwell、DGX Spark/Station など + Intel GPU
近日対応: サポート対象 Apple MLX および AMD.
インストール手順
インストール手順はすべてのデバイスで同じであることを覚えておいてください:
Unsloth をインストール
MacOS、Linux、WSL:
curl -fsSL https://unsloth.ai/install.sh | shWindows PowerShell:
irm https://unsloth.ai/install.ps1 | iex最初のインストールには 5〜10 分かかることがあります。 llama.cpp バイナリをコンパイルする必要があるため、これは正常です。キャンセルしないでください。 事前コンパイル済みバイナリに取り組んでいるので、次回はそれほど時間がかからなくなります。
WSL ユーザー: 入力を求められます sudo ビルド依存関係をインストールするためのパスワード(cmake, git, libcurl4-openssl-dev).
システム要件
Windowss
Unsloth Studio は WSL なしで Windows 上で直接動作します。モデルをトレーニングするには、システムが次の要件を満たしていることを確認してください:
要件
Windows 10 または Windows 11(64 ビット)
ドライバーがインストールされた NVIDIA GPU
App Installer (含む
winget): こちらGit:
winget install --id Git.Git -e --source wingetPython: バージョン 3.11 以上 3.14 未満
次のような Python 環境内で作業してください uv, venv、または conda/mamba
MacOS
Unsloth Studio は Mac デバイスで チャット GGUF モデル向けおよび データレシピ (エクスポート は近日公開予定です)。 MLX トレーニングはまもなく登場!
macOS 12 Monterey 以降(Intel または Apple Silicon)
Homebrew をインストール: こちら
Git:
brew install gitcmake:
brew install cmakeopenssl:
brew install opensslPython: バージョン 3.11 以上 3.14 未満
次のような Python 環境内で作業してください uv, venv、または conda/mamba
Linux & WSL
Ubuntu 20.04 以降、または同等のディストリビューション(64 ビット)
ドライバーがインストールされた NVIDIA GPU
CUDA ツールキット(12.4 以上推奨、blackwell には 12.8 以上)
Git:
sudo apt install gitPython: バージョン 3.11 以上 3.14 未満
次のような Python 環境内で作業してください uv, venv、または conda/mamba
Docker
Docker イメージが Studio で動作するようになりました!Mac 互換性に取り組んでいます。
最新の Unsloth コンテナイメージを取得:
docker pull unsloth/unsloth次のコマンドでコンテナを実行:
詳細については、 こちらをご覧ください.
Studio インスタンスにアクセス:
http://localhost:8000または外部 IP アドレスhttp://external_ip_address:8000/
CPU のみ
Unsloth Studio は CPU デバイスで チャット GGUF モデル向けおよび データレシピ (エクスポート は近日公開予定)
NVIDIA GPU ドライバーを除き、Linux の上記内容および MacOS と同じです。
Google Colab
私たちは 無料の Google Colab ノートブック を作成しました。これにより、Colab の T4 GPU 上で Unsloth のすべての機能を試せます。最大 22B パラメータまでのほとんどのモデルをトレーニングおよび実行でき、より大きなモデルにはより大きい GPU に切り替えられます。『Run all』をクリックするだけで、インストール後に UI が表示されるはずです。
T4 GPU で llama.cpp をコンパイルするには 30 分以上かかるため、より高速にするには大きい GPU の使用を推奨します。
インストールが完了したら、 Start Unsloth Studio までスクロールし、 Open Unsloth Studio を左側に表示されている白いボックス内でクリックしてください:

場合によっては Studio リンクがエラーを返すことがあります。これは Google Colab が Colab ページに留まることを期待しているためです。非アクティブと検出されると、GPU セッションを終了することがあります。
トラブルシューティング
Python バージョンエラー
sudo apt install python3.12 python3.12-venv バージョン 3.11 以上 3.14 未満
nvidia-smi が見つかりません
https://www.nvidia.com/Download/index.aspx から NVIDIA ドライバーをインストールしてください
nvcc が見つかりません (CUDA)
sudo apt install nvidia-cuda-toolkit または /usr/local/cuda/bin を PATH に追加してください
llama-server のビルドに失敗しました
致命的ではありません。Studio は引き続き動作しますが、GGUF 推論は利用できません。 cmake をインストールしてセットアップを再実行すると修正できます。
cmake が見つかりません
sudo apt install cmake
git が見つかりません
sudo apt install git
ビルドに失敗しました
削除 ~/.unsloth/llama.cpp し、セットアップを再実行してください
最終更新
役に立ちましたか?


