desktop-arrow-downUnsloth per pip und uv installieren

Um Unsloth lokal per Pip zu installieren, befolge die folgenden Schritte:

Unsloth Studio

MacOS, Linux, WSL:

curl -fsSL https://raw.githubusercontent.com/unslothai/unsloth/main/install.sh | sh

Windows PowerShell:

irm https://raw.githubusercontent.com/unslothai/unsloth/main/install.ps1 | iex

Unsloth starten

MacOS, Linux, WSL:

source unsloth_studio/bin/activate
unsloth studio -H 0.0.0.0 -p 8888

Windows:

& .\unsloth_studio\Scripts\unsloth.exe studio -H 0.0.0.0 -p 8888

Für detaillierte Installationsanweisungen und Anforderungen für Unsloth Studio sehen Sie sich unseren Leitfaden an.

Unsloth Core

Installieren Sie mit uv pip (empfohlen) für die neueste pip-Version:

curl -LsSf https://astral.sh/uv/install.sh | sh
uv venv unsloth_env --python 3.13
source unsloth_env/bin/activate
uv pip install unsloth --torch-backend=auto

Oder einfach mit pip:

Um zu installieren vLLM und Unsloth zusammen, führen Sie Folgendes aus:

Um die neueste Hauptbranch von Unsloth zu installieren, führen Sie Folgendes aus:

Für venv- und virtuelle-Umgebungen-Installationen um Ihre Installation zu isolieren, damit Systempakete nicht beschädigt werden, und um irreparable Schäden an Ihrem System zu reduzieren, verwenden Sie venv:

Wenn Sie Unsloth in Jupyter, Colab oder anderen Notebooks installieren, achten Sie darauf, den Befehl mit !zu beginnen. Das ist bei der Verwendung eines Terminals nicht notwendig

circle-info

Python 3.13 wird jetzt unterstützt!

Deinstallieren oder Neuinstallieren

Wenn Sie weiterhin auf Abhängigkeitsprobleme mit Unsloth stoßen, haben viele Benutzer diese gelöst, indem sie Unsloth zwangsweise deinstalliert und neu installiert haben:


Erweiterte Pip-Installation

circle-exclamation

Pip ist etwas komplexer, da es Abhängigkeitsprobleme gibt. Der pip-Befehl ist unterschiedlich für torch 2.2,2.3,2.4,2.5 und CUDA-Versionen.

Für andere torch-Versionen unterstützen wir torch211, torch212, torch220, torch230, torch240 und für CUDA-Versionen unterstützen wir cu118 und cu121 und cu124. Für Ampere-Geräte (A100, H100, RTX3090) und höher verwenden Sie cu118-ampere oder cu121-ampere oder cu124-ampere.

Zum Beispiel, wenn Sie torch 2.4 und CUDA 12.1haben, verwenden Sie:

Ein weiteres Beispiel: Wenn Sie torch 2.5 und CUDA 12.4haben, verwenden Sie:

Und weitere Beispiele:

Oder führen Sie das Folgende in einem Terminal aus, um den optimalen pip-Installationsbefehl zu erhalten:

Oder führen Sie das Folgende manuell in einer Python-REPL aus:

Zuletzt aktualisiert

War das hilfreich?