desktop-arrow-downUnsloth via pip und uv installieren

Um Unsloth lokal über Pip zu installieren, befolge die folgenden Schritte:

Unsloth Studio

MacOS, Linux, WSL:

curl -fsSL https://unsloth.ai/install.sh | sh

Windows PowerShell:

irm https://unsloth.ai/install.ps1 | iex

Unsloth starten

MacOS, Linux, WSL:

source unsloth_studio/bin/activate
unsloth studio -H 0.0.0.0 -p 8888

Windows:

& .\unsloth_studio\Scripts\unsloth.exe studio -H 0.0.0.0 -p 8888

Für detaillierte Installationsanweisungen und Anforderungen für Unsloth Studio, siehe unseren Leitfaden.

Unsloth Core

Mit uv pip installieren (empfohlen) für die neueste pip-Version:

curl -LsSf https://astral.sh/uv/install.sh | sh
uv venv unsloth_env --python 3.13
source unsloth_env/bin/activate
uv pip install unsloth --torch-backend=auto

Oder einfach pip:

Zur Installation vLLM und Unsloth zusammen, machen Sie:

Um die neueste Hauptverzweigung von Unsloth zu installieren, machen Sie:

Für Installationen mit venv und virtuellen Umgebungen um Ihre Installation zu isolieren, damit Systempakete nicht beschädigt werden, und um irreparablen Schaden an Ihrem System zu reduzieren, verwenden Sie venv:

Wenn Sie Unsloth in Jupyter, Colab oder anderen Notebooks installieren, achten Sie darauf, dem Befehl !voranzustellen. Das ist bei Verwendung eines Terminals nicht nötig

circle-info

Python 3.13 wird jetzt unterstützt!

Deinstallieren oder neu installieren

Wenn weiterhin Abhängigkeitsprobleme mit Unsloth auftreten, haben viele Nutzer sie behoben, indem sie Unsloth zwangsweise deinstalliert und neu installiert haben:


Erweiterte Pip-Installation

circle-exclamation

Pip ist etwas komplexer, da es Abhängigkeitsprobleme gibt. Der pip-Befehl ist unterschiedlich für torch 2.2,2.3,2.4,2.5 und CUDA-Versionen.

Für andere torch-Versionen unterstützen wir torch211, torch212, torch220, torch230, torch240 und für CUDA-Versionen unterstützen wir cu118 und cu121 und cu124. Für Ampere-Geräte (A100, H100, RTX3090) und höher verwenden Sie cu118-ampere oder cu121-ampere oder cu124-ampere.

Zum Beispiel, wenn Sie torch 2.4 und CUDA 12.1haben, verwenden Sie:

Ein weiteres Beispiel: Wenn Sie torch 2.5 und CUDA 12.4haben, verwenden Sie:

Weitere Beispiele:

Oder führen Sie unten in einem Terminal aus, um den optimalen pip-Installationsbefehl zu erhalten:

Oder führen Sie das Folgende manuell in einer Python-REPL aus:

Zuletzt aktualisiert

War das hilfreich?