🦥Unsloth-Dokumentation
Unsloth ist ein Open-Source-Framework zum Ausführen und Trainieren von Modellen.
Unsloth ermöglicht es Ihnen, KI-Modelle auf Ihrer eigenen lokalen Hardware auszuführen und zu trainieren.
Unsere Dokumentation führt Sie durch das lokale Ausführen und Trainieren Ihres eigenen Modells.
🦥 Warum Unsloth?
Unsloth vereinfacht lokales Training, Inferenz, Daten und Bereitstellung
⭐ Funktionen
Unsloth ermöglicht es Ihnen, Modelle für Text, Audio, Embedding, Vision und mehr auszuführen und zu trainieren. Unsloth bietet viele wichtige Funktionen sowohl für Inferenz als auch für Training:
Inferenz
Suchen + herunterladen + jedes Modell ausführen, z. B. GGUFs, LoRA-Adapter, Safetensors.
Selbstheilende Tool-Aufrufe und Websuche / sowie Aufrufe von OpenAI-kompatiblen APIs.
Automatische Inferenz-Parameter optimieren und Chatvorlagen bearbeiten.
Exportieren oder speichern Sie Ihr Modell als GGUF, 16-Bit-Safetensor usw.
Ausgaben vergleichen mit zwei verschiedenen Modellen nebeneinander.
Training
Trainieren Sie über 500 Modelle etwa 2-mal schneller mit etwa 70 % weniger VRAM (kein Genauigkeitsverlust)
Unterstützt vollständiges Fine-Tuning, Pre-Training sowie 4-Bit-, 16-Bit- und FP8-Training.
Datensätze automatisch erstellen aus PDF-, CSV- und DOCX-Dateien. Daten in einem visuellen Node-Workflow bearbeiten.
Beobachtbarkeit: Training live überwachen, Loss und GPU-Auslastung verfolgen, Diagramme anpassen
Am effizientesten Reinforcement Learning -Bibliothek, die 80 % weniger VRAM für GRPO verwendet, FP8 usw.
Multi-GPU funktioniert, aber eine viel bessere Version kommt noch!
Schnellstart
Unsloth unterstützt MacOS, Linux, Windows, NVIDIA und CPU-Setups. Siehe: Unsloth-Anforderungen
MacOS, Linux, WSL:
Windows PowerShell:
Docker
Verwenden Sie unser offizielles Docker-Image: unsloth/unsloth das derzeit für Windows, WSL und Linux funktioniert. MacOS-Unterstützung kommt bald.
Unsloth starten
MacOS, Linux, WSL:
Windows:
Neue Modelle
Was ist Fine-Tuning und RL? Warum?
Fine-Tuning eines LLMs passt sein Verhalten an, erweitert das Fachwissen und optimiert die Leistung für bestimmte Aufgaben. Durch das Fine-Tuning eines vortrainierten Modells (z. B. Llama-3.1-8B) auf einem Datensatz können Sie:
Wissen aktualisieren: Neue domänenspezifische Informationen einführen.
Verhalten anpassen: Den Ton, die Persönlichkeit oder den Antwortstil des Modells anpassen.
Für Aufgaben optimieren: Die Genauigkeit und Relevanz für bestimmte Anwendungsfälle verbessern.
Reinforcement Learning (RL) ist der Prozess, bei dem ein „Agent“ durch Interaktion mit einer Umgebung lernt, Entscheidungen zu treffen und Feedback in Form von Belohnungen oder Strafen.
Aktion: Was das Modell erzeugt (z. B. einen Satz).
Belohnung: Ein Signal, das anzeigt, wie gut oder schlecht die Aktion des Modells war (z. B. ob die Antwort den Anweisungen gefolgt ist? ob sie hilfreich war?).
Umgebung: Die Situation oder Aufgabe, an der das Modell arbeitet (z. B. die Frage eines Nutzers beantworten).
Beispielhafte Anwendungsfälle für Fine-Tuning oder RL:
Ermöglicht LLMs vorherzusagen, ob eine Überschrift ein Unternehmen positiv oder negativ beeinflusst.
Kann historische Kundeninteraktionen für genauere und individuellere Antworten nutzen.
LLM auf juristischen Texten feinabstimmen für Vertragsanalyse, Rechtsprechungsrecherche und Compliance.
Man kann sich ein feinabgestimmtes Modell als einen spezialisierten Agenten vorstellen, der darauf ausgelegt ist, bestimmte Aufgaben effektiver und effizienter auszuführen. Fine-Tuning kann alle Fähigkeiten von RAG replizieren, aber nicht umgekehrt.

Zuletzt aktualisiert
War das hilfreich?












