desktop-arrow-downpip と uv で Unsloth をインストール

Pipを使ってUnslothをローカルにインストールするには、以下の手順に従ってください:

Unslothは2つの方法で使用できます: Unsloth Studio、Web UI、または Unsloth Core、コードベース版です。

Unsloth Studio

MacOS、Linux、WSL:

curl -fsSL https://unsloth.ai/install.sh | sh

更新するには同じコマンドを使ってください。

Windows PowerShell:

irm https://unsloth.ai/install.ps1 | iex

更新するには同じコマンドを使ってください。

Unsloth Studioを起動:

unsloth studio -H 0.0.0.0 -p 8888

Unsloth Studioの詳細なインストール手順と要件については、 ガイドをご覧ください.

Unsloth Studioのアンインストール

Unsloth Studioは、通常次の場所にあるインストールフォルダを削除することでアンインストールできます。 $HOME/.unsloth/studio Mac/Linux/WSLでは、 %USERPROFILE%\.unsloth\studio Windowsでは、または次を実行してください:

  • MacOS、WSL、Linux: rm -rf ~/.unsloth/studio

  • Windows(PowerShell): Remove-Item -Recurse -Force "$HOME\.unsloth\studio"

  • オプション: 削除する $HOME\.unsloth Windowsでは、または ~/.unsloth MacOS/Linux/WSLで、Unslothのファイルをすべて削除したい場合

circle-exclamation

モデルファイルの削除

古いモデルファイルは、モデル検索のゴミ箱アイコンから削除するか、デフォルトのHugging Faceキャッシュディレクトリから該当するキャッシュ済みモデルフォルダを削除して消去できます。デフォルトでは、Hugging Faceは次を使用します。 ~/.cache/huggingface/hub/ macOS/Linux/WSLでは、 C:\Users\<username>\.cache\huggingface\hub\ Windowsでは。

  • MacOS、Linux、WSL: ~/.cache/huggingface/hub/

  • Windows: %USERPROFILE%\.cache\huggingface\hub\

もし HF_HUB_CACHE または HF_HOME が設定されている場合は、代わりにその場所を使用してください。LinuxとWSLでは、 XDG_CACHE_HOME でもデフォルトのキャッシュルートを変更できます。

トラブルシューティング

それでもUnslothの依存関係の問題が発生する場合、多くのユーザーはUnslothを強制的にアンインストールして再インストールすることで解決しています:

Unsloth Core

最新のpipリリースでは、uv pip(推奨)でインストールしてください:

または通常のpip:

インストールするには vLLMとUnslothを 一緒に、次を実行してください:

Unslothの 最新のmainブランチ をインストールするには、次を実行してください:

次の場合は、 venvと仮想環境のインストール を使ってインストールを分離し、システムパッケージを壊さないようにし、システムへの修復不能な損害を減らしてください:

Jupyter、Colab、または他のノートブックでUnslothをインストールする場合は、コマンドの前に !を付けてください。ターミナルを使う場合は必要ありません

circle-info

Python 3.13が現在サポートされています!

Unsloth Coreのアンインストール

それでもUnslothの依存関係の問題が発生する場合、多くのユーザーはUnslothを強制的にアンインストールして再インストールすることで解決しています:

高度なPipインストール

circle-exclamation

依存関係の問題があるため、pipは少し複雑です。pipコマンドは次の条件で異なります。 torch 2.2,2.3,2.4,2.5 およびCUDAのバージョン。

その他のtorchバージョンでは、次をサポートしています。 torch211, torch212, torch220, torch230, torch240 また、CUDAバージョンでは次をサポートしています。 cu118 および cu121 および cu124。Ampereデバイス(A100、H100、RTX3090)以上では、次を使用してください。 cu118-ampere または cu121-ampere または cu124-ampere.

たとえば、 torch 2.4 および CUDA 12.1を使っている場合は、次を使用してください:

別の例として、 torch 2.5 および CUDA 12.4を使っている場合は、次を使用してください:

その他の例:

または、以下をターミナルで実行して、 最適な pipインストールコマンドを取得してください:

または、以下をPython REPLで手動実行してください:

最終更新

役に立ちましたか?