🦥Vorstellung von Unsloth Studio

Führe und trainiere KI-Modelle lokal mit Unsloth Studio.

Heute starten wir Unsloth Studio (Beta): eine Open-Source, No-Code Web-Oberfläche zum Trainieren, Ausführen und Exportieren offener Modelle in einer einheitlichen lokalen Schnittstelle.

boltSchnellstartstarFunktionengithubGithub

  • GGUF ausführen und safetensor-Modelle lokal auf Mac, Windows, Linux.

  • Trainiere 500+ Modelle 2x schneller mit 70% weniger VRAM (ohne Genauigkeitsverlust)

  • Führe und trainiere Text-, Vision-, TTS-Audio- und Embedding-Modelle

⭐ Funktionen

Modelle lokal ausführen

GGUF suchen und ausführen und safetensor-Modelle mit selbstheilendem Tool- Aufrufen / Web-Suche, automatischer Inferenz- Parameterabstimmung, Code-Ausführung und APIs. Lade Bilder, Dokumente, Audio-, Code-Dateien hoch.

Modelle nebeneinander antreten lassen. Angetrieben von llama.cpp + Hugging Face unterstützen wir Multi-GPU-Inferenz und die meisten Modelle.

No-Code-Training

PDF, CSV, JSON hochladen Dokumente oder YAML-Konfigurationen und beginne sofort mit dem Training auf NVIDIA. Unsloths Kernel optimieren LoRA, FP8, FFT, PT über 500+ Text-, Vision-, TTS/Audio- und Embedding-Modelle.

Feinabstimmung der neuesten LLMs wie Qwen3.5 und NVIDIA Nemotron 3. Multi-GPU funktioniert automatisch, mit einer neuen Version in Arbeit.

Datenrezepte

Datenrezepte verwandeln deine Dokumente in nutzbare / synthetische Datensätze über einen Graph-Knoten-Workflow. Lade unstrukturierte oder strukturierte Dateien wie PDFs, CSV und JSON hoch. Unsloth Data Recipes, angetrieben von NVIDIA DataDesignerarrow-up-right, wandelt Dokumente automatisch in deine gewünschten Formate um.

Beobachtbarkeit

Erhalte vollständige Sichtbarkeit in und Kontrolle über deine Trainingsläufe. Verfolge Trainingsverlust, Gradientennormen und GPU-Auslastung in Echtzeit und passe alles nach Wunsch an.

Du kannst den Trainingsfortschritt sogar auf anderen Geräten wie deinem Telefon einsehen.

Modelle exportieren / speichern

Jedes Modell exportieren, einschließlich deiner feinabgestimmten Modelle, zu safetensors oder GGUF für die Nutzung mit llama.cpp, vLLM, Ollama, LM Studio und mehr.

Speichert deine Training-Historie, sodass du Läufe erneut aufrufen, erneut exportieren und experimentieren kannst.

Model Arena

Chatte mit und vergleiche 2 verschiedene Modelle, zum Beispiel ein Basismodell und ein feinabgestimmtes, um zu sehen, wie sich ihre Ausgaben unterscheiden.

Lade einfach dein erstes GGUF/Modell, dann das zweite, und voilà! Die Inferenz wird zuerst für ein Modell geladen, dann für das zweite.

Privatsphäre zuerst + Sicher

Unsloth Studio kann 100% offline und lokal auf deinem Computer verwendet werden.

Seine tokenbasierte Authentifizierung, einschließlich Passwort- und JWT-Zugriffs-/Refresh-Flows, hält deine Daten sicher und unter deiner Kontrolle.

circle-exclamation

⚡ Schnellstart

Unsloth Studio funktioniert unter Windows, Linux, WSL und MacOS (derzeit nur Chat).

  • CPU: Unsloth funktioniert weiterhin ohne GPU, aber nur für Chat Inferenz.

  • Training: Funktioniert auf NVIDIA-GPUs: RTX 30, 40, 50, Blackwell, DGX Spark/Station usw.

  • Mac: Wie bei der CPU - Chat funktioniert vorerst nur. MLX Training kommt sehr bald.

  • Demnächst verfügbar: Unterstützung für Apple MLX, AMD, und Intel.

  • Multi-GPU: Funktioniert bereits, mit einem größeren Upgrade unterwegs.

Windows, MacOS, Linux, WSL:

Oder verwende unser Docker-Image: unsloth/unsloth. Lies unseren Docker-Leitfaden.

circle-exclamation

Git aus dem Quellcode:

Für weitere Details zur Installation besuche bitte den Unsloth Studio Install Abschnitt. Du kannst dir auch NVIDIAs Video-Tutorial hier.

arrow-down-to-squareInstallationchevron-right

google Google Colab-Notebook

Wir haben ein kostenloses Google Colab-Notebookarrow-up-right erstellt, damit du alle Funktionen von Unsloth auf Colabs T4-GPUs erkunden kannst. Du kannst die meisten Modelle bis zu 22B Parametern trainieren und ausführen und für größere Modelle auf eine größere GPU wechseln. Klicke einfach auf 'Run all' und die UI sollte nach der Installation erscheinen.

circle-exclamation

Sobald die Installation abgeschlossen ist, scrolle zu Unsloth Studio starten und klicke Unsloth Studio öffnen in dem weißen Feld, das links angezeigt wird:

seedling Workflow

Hier ist ein typischer Workflow von Unsloth Studio, um dir den Einstieg zu erleichtern:

  1. Starte Studio anhand der Installationsanweisungen.

  2. Lade ein Modell aus lokalen Dateien oder einer unterstützten Integration.

  3. Importiere Trainingsdaten aus PDFs, CSVs oder JSONL-Dateien oder erstelle einen Datensatz von Grund auf.

  4. Bereinige, verfeinere und erweitere deinen Datensatz in Datenrezepte.

  5. Beginne das Training mit empfohlenen Voreinstellungen oder passe die Konfiguration selbst an.

  6. Chatte mit dem trainierten Modell und vergleiche seine Ausgaben mit dem Basismodell.

  7. Speichere oder exportiere lokal in den Stack, den du bereits verwendest.

Du kannst unsere einzelnen Deep Dives zu jedem Abschnitt von Unsloth Studio lesen:

video Video-Tutorials

Hier ist ein von NVIDIA erstelltes Video-Tutorial, das dir den Einstieg in Studio erleichtert:

comments-question FAQ

Sammelt oder speichert Unsloth Daten? Wir sammeln keine Nutzungs-Telemetrie. Wir erfassen nur die minimalen Hardwareinformationen, die für die Kompatibilität erforderlich sind, wie GPU-Typ und Gerät (z. B. Mac). Unsloth Studio läuft 100% offline und lokal.

Ist Unsloth jetzt unter AGPL-3.0 lizenziert? Nein. Das Hauptpaket Unsloth ist weiterhin unter Apache 2.0. Nur bestimmte optionale Komponenten, wie die Unsloth Studio UI, stehen unter der AGPL-3.0 Open-Source-Lizenz. Unsloth verwendet jetzt eine Doppellizenzierung, wobei einige Teile des Code-Basis unter Apache 2.0 lizenziert sind, während andere unter AGPL-3.0 stehen. Diese Struktur hilft, die fortlaufende Unsloth-Entwicklung zu unterstützen, während das Projekt Open Source bleibt und das Ökosystem wachsen kann.

Unterstützt Studio nur LLMs? Nein. Studio unterstützt eine Reihe von Transformers kompatiblen Modellfamilien, einschließlich Text-, multimodaler Modelle, Text-zu-Sprache, Audio, Embeddings, und BERT-ähnliche Modelle.

Kann ich meine eigene Trainingskonfiguration verwenden? Ja. Importiere eine YAML-Konfiguration und Studio füllt die relevanten Einstellungen vor.

Muss ich Modelle trainieren, um die UI zu verwenden? Nein, du kannst einfach jedes GGUF oder Modell herunterladen, ohne ein Modell feinzuabstimmen.

Zukunft von Unsloth

Wir arbeiten hart daran, Open-Source-KI so zugänglich wie möglich zu machen. Als Nächstes für Unsloth und Unsloth Studio veröffentlichen wir offizielle Unterstützung für: Multi-GPU, Apple Silicon/MLX, AMD und Intel. Zur Erinnerung: Dies ist die BETA-Version von Unsloth Studio, also erwarte viele Ankündigungen und Verbesserungen in den kommenden Wochen. Wir arbeiten auch eng mit NVIDIA an der Multi-GPU-Unterstützung, um die bestmögliche und einfachste Erfahrung zu liefern.

Danksagungen

Ein großer Dank geht an NVIDIA und Hugging Face für die Unterstützung unseres Launches. Ebenfalls Dank an alle unsere frühen Beta-Tester von Unsloth Studio; wir schätzen eure Zeit und euer Feedback sehr. Wir möchten auch llama.cpp, PyTorch und Open Model Labs dafür danken, dass sie die Infrastruktur bereitgestellt haben, die Unsloth Studio möglich gemacht hat.

Zuletzt aktualisiert

War das hilfreich?