🦥Unsloth-Dokumentation

Unsloth ist ein Open-Source-Framework zum Ausführen und Trainieren von Modellen.

Unsloth ermöglicht es dir, KI-Modelle auf deiner eigenen lokalen Hardware auszuführen und zu trainieren.

Unsere Dokus führen dich durch das lokale Ausführen und Trainieren deines eigenen Modells.

Loslegen Unser GitHub

🦥 Warum Unsloth?

⭐ Funktionen

Unsloth ermöglicht es dir, Modelle für Text Audioarrow-up-right, Embeddingarrow-up-right, Visionarrow-up-right und mehr auszuführen und zu trainieren. Unsloth bietet viele wichtige Funktionen sowohl für Inferenz als auch für Training:

Inferenz

Training

  • Trainiere über 500 Modelle etwa 2x schneller mit etwa 70 % weniger VRAM (kein Genauigkeitsverlust)

  • Unterstützt Full Fine-Tuning, Pre-Training, 4-Bit-, 16-Bit- und FP8-Training.

  • Datensätze automatisch erstellen aus PDF-, CSV-, DOCX-Dateien. Bearbeite Daten in einem visuellen Node-Workflow.

  • Beobachtbarkeit: Training live überwachen, Loss und GPU-Auslastung verfolgen, Diagramme anpassen

  • Am effizientesten Bestärkendes Lernen Bibliothek, die 80 % weniger VRAM für GRPO nutzt, FP8 usw.

  • Multi-GPU funktioniert, aber eine viel bessere Version kommt bald!

Schnellstart

Unsloth unterstützt MacOS, Linux, Windows, NVIDIA, Intel und CPU-Setups. Siehe: Unsloth-Anforderungen

MacOS, Linux, WSL:

Windows PowerShell:

Docker

Nutze unser offizielles Docker-Image: unsloth/unslotharrow-up-right das derzeit für Windows, WSL und Linux funktioniert. MacOS-Unterstützung kommt bald.

Unsloth starten

MacOS, Linux, WSL:

Windows:

Neue Modelle

Was ist Fine-Tuning und RL? Warum?

Fine-Tuning eines LLMs passt sein Verhalten an, erweitert Fachwissen und optimiert die Leistung für bestimmte Aufgaben. Durch das Fine-Tuning eines vortrainierten Modells (z. B. Llama-3.1-8B) auf einem Datensatz kannst du:

  • Wissen aktualisieren: Neue fachspezifische Informationen einbringen.

  • Verhalten anpassen: Den Ton, die Persönlichkeit oder den Antwortstil des Modells anpassen.

  • Für Aufgaben optimieren: Genauigkeit und Relevanz für bestimmte Anwendungsfälle verbessern.

Bestärkendes Lernen (RL) ist der Prozess, bei dem ein „Agent“ lernt, Entscheidungen zu treffen, indem er mit einer Umgebung interagiert und Feedback in Form von Belohnungen oder Strafen.

  • Aktion: Was das Modell erzeugt (z. B. einen Satz).

  • Belohnung: Ein Signal, das anzeigt, wie gut oder schlecht die Aktion des Modells war (z. B. ob die Antwort den Anweisungen gefolgt ist? war sie hilfreich?).

  • Umgebung: Das Szenario oder die Aufgabe, an der das Modell arbeitet (z. B. die Beantwortung einer Nutzerfrage).

Beispielhafte Anwendungsfälle für Fine-Tuning oder RL:

  • Ermöglicht es LLMs vorherzusagen, ob eine Überschrift ein Unternehmen positiv oder negativ beeinflusst.

  • Kann historische Kundeninteraktionen für genauere und maßgeschneiderte Antworten nutzen.

  • LLM auf Rechtstexte feinabstimmen für Vertragsanalyse, Rechtsprechungsrecherche und Compliance.

Du kannst dir ein feinabgestimmtes Modell als einen spezialisierten Agenten vorstellen, der dafür entwickelt wurde, bestimmte Aufgaben effektiver und effizienter zu erledigen. Fine-Tuning kann alle Fähigkeiten von RAG nachbilden, aber nicht umgekehrt.

Zuletzt aktualisiert

War das hilfreich?