Commencer avec Unsloth Studio
Un guide pour démarrer avec le studio de fine-tuning, les recettes de données, l'exportation de modèles et le chat.
Unsloth Studio est une interface graphique locale basée sur le navigateur pour l'ajustement fin des LLMs sans écrire de code. Elle encapsule le pipeline d'entraînement dans une interface propre qui gère le chargement du modèle, le formatage des ensembles de données, la configuration des hyperparamètres et la surveillance de l'entraînement en direct.
StudioRecette de donnéesExporterChatVidéo
Configurer Unsloth Studio
Tout d'abord, lancez Unsloth Studio en utilisant soit une installation locale soit une option cloud. Suivez les instructions d'installation pour votre configuration, ou utilisez notre Colab gratuit carnet. Pour une configuration locale, exécutez :
uunsloth studio -H 0.0.0.0 -p 8888Puis ouvrez http://localhost:8888 dans votre navigateur.
Au premier lancement, vous devrez créer un mot de passe pour sécuriser votre compte et vous reconnecter ensuite.
Vous verrez ensuite un bref assistant de démarrage pour choisir un modèle, un ensemble de données et des paramètres de base. Vous pouvez le sauter à tout moment et tout configurer manuellement.

Studio - Démarrage rapide
La page d'accueil d'Unsloth Studio comporte 4 zones principales : Modèle, Jeu de données, Paramètres, et Entraînement/Configuration
Configuration facile pour les modèles et les données depuis Hugging Face ou des fichiers locaux
Choix d'entraînement flexibles comme QLoRA, LoRA ou l'ajustement complet, avec des valeurs par défaut remplies
Outils de configuration utiles pour les divisions, le mappage des colonnes, les hyperparamètres et les configurations YAML
Excellente visibilité de l'entraînement avec progression en direct, statistiques GPU, graphiques, état de démarrage

1. Sélectionnez le modèle et la méthode
Type de modèle
Sélectionnez la modalité qui correspond à votre cas d'utilisation :
Texte
Chat, suivi d'instructions, complétion
Vision
Image + texte (VLMs)
Audio
Compréhension de la parole / audio
Embeddings
Embeddings de phrases, recherche
Méthode d'entraînement
Trois méthodes sont disponibles, activées avec un sélecteur en onglets :
QLoRA
Modèle de base quantifié 4 bits + adaptateur LoRA
Plus bas
LoRA
Modèle de base en pleine précision + adaptateur LoRA
Moyen
Ajustement fin complet
Tous les poids sont entraînés
Plus élevé
Tapez le nom de n'importe quel modèle Hugging Face ou recherchez directement sur le Hub depuis la zone de sélection. Les modèles locaux stockés dans ~/.unsloth/studio/models et votre cache Hugging Face apparaissent également dans la liste.
Les modèles au format GGUF sont exclus de l'entraînement - ils sont uniquement pour l'inférence.
Lorsque vous choisissez un modèle, le Studio récupère automatiquement sa configuration depuis le backend et pré-remplit des valeurs par défaut sensées pour tous les hyperparamètres.
Jeton HuggingFace
Collez votre token d'accès Hugging Face ici si le modèle est restreint (par ex. Llama, Gemma). Le token est validé en temps réel et une erreur est affichée en ligne s'il est invalide.
2. Jeu de données
Source
Basculez entre deux onglets pour choisir d'où proviennent vos données :
Hub HuggingFace - recherche en direct contre le Hub. La date de dernière mise à jour est affichée pour chaque résultat.
Local - glisser-déposer ou cliquer pour télécharger un fichier non structuré ou des fichiers structurés comme :
PDF,DOCX,JSONL,JSON,CSV, ouParquetformat. Les jeux de données précédemment téléchargés apparaissent dans une liste qui se rafraîchit automatiquement.
Indiquez au Studio comment interpréter et formater vos données :
auto
Laissez Unsloth détecter automatiquement le format
alpaca
instruction / entrée / sortie colonnes
chatml
Style OpenAI messages array
sharegpt
Conversations au format ShareGPT
Divisions et découpage
Sous-ensemble - rempli automatiquement à partir de la fiche du jeu de données.
Split d'entraînement / Split d'évaluation - choisissez quels splits utiliser. Définir un split d'évaluation active le Perte d'éval graphique pendant l'entraînement.
Tranche de jeu de données - restreindre optionnellement l'entraînement à une plage de lignes (index de début / index de fin) pour des expériences rapides.
Mappage des colonnes
Si le Studio ne peut pas mapper automatiquement les colonnes de votre jeu de données aux rôles corrects, une boîte de dialogue d'aperçu du jeu de données s'ouvre. Elle montre des lignes d'exemple et vous permet d'assigner chaque colonne à instruction, entrée, sortie, image, etc. Des mappages suggérés sont pré-remplis lorsque c'est possible.
3. Hyperparamètres
Les paramètres sont regroupés en sections repliables. Vous pouvez consulter notre guide détaillé des hyperparamètres LoRA ici :
🧠Hyperparameters GuideÉtapes max
0
0 signifie utiliser plutôt des Époques
Longueur du contexte
2048
Options : 512 → 32768
Taux d'apprentissage
2e-4
Paramètres LoRA
(Masqué lorsque l'ajustement fin complet est sélectionné)
Rang
16
Curseur 4–128
Alpha
32
Curseur 4–256
Dropout
0.05
Variante LoRA
LoRA
LoRA / RS-LoRA / LoftQ
Modules cibles
Tout activé
q_proj, k_proj, v_proj, o_proj, gate_proj, up_proj, down_proj
Pour Vision les modèles avec un jeu de données d'images, quatre cases supplémentaires apparaissent :
Affiner les couches de vision
Affiner les couches linguistiques
Affiner les modules d'attention
Affiner les modules MLP
Hyperparamètres d'entraînement
Organisé en trois onglets :
| Paramètre | Par défaut | |---|---| | Époques | 3 | | Taille de lot | 4 | | Accumulation de gradient | 8 | | Décroissance de poids | 0.01 | | Optimiseur | AdamW 8-bit |
| Paramètre | Par défaut | |---|---| | Planificateur LR | linéaire | | Étapes de warmup | 5 | | Checkpointing de gradient | unsloth | | Graine aléatoire | 3407 | | Étapes de sauvegarde | 0 | | Étapes d'évaluation | 0 | | Packing | false | | Entraîner sur les complétions | false |
| Paramètre | Par défaut | |---|---| | Activer W&B | false | | Projet W&B | llm-finetuning | | Activer TensorBoard | false | | Répertoire TensorBoard | runs | | Fréquence de journalisation | 10 |
Le checkpointing de gradient d'Unsloth: unsloth utilise l'implémentation personnalisée d'Unsloth, économe en mémoire, qui peut réduire significativement l'utilisation de VRAM par rapport à l'option PyTorch standard. C'est la valeur par défaut recommandée.
4. Entraînement et configuration
La carte en bas à droite a trois boutons de gestion de configuration et le Démarrer l'entraînement bouton.
Téléverser
Charger un .yaml fichier de configuration
Enregistrer
Exporter la configuration actuelle en YAML
Réinitialiser
Revenir à tous les paramètres par défaut du modèle
Le bouton Démarrer l'entraînement reste désactivé jusqu'à ce qu'un modèle et un jeu de données soient tous deux configurés. Les erreurs de validation apparaissent en ligne - par exemple, définir des étapes d'évaluation sans choisir un split d'évaluation, ou associer un modèle texte uniquement à un jeu de données vision.
Écran de chargement
Après avoir cliqué sur Démarrer l'entraînement, une superposition pleine page apparaît pendant que le backend prépare tout.

La superposition affiche un terminal animé avec des mises à jour de phase en direct :
Bleu : Téléchargement du modèle / jeu de données
Ambre : Chargement du modèle / jeu de données
Bleu : Configuration
Vert : Entraînement
Vous pouvez annuler à tout moment en utilisant le × bouton dans le coin. Une boîte de confirmation apparaîtra avant que quoi que ce soit ne soit arrêté.
Progression et observabilité de l'entraînement
Une fois la première étape d'entraînement arrivée, la superposition se ferme et la vue d'entraînement en direct est révélée. Le processus de réglage est terminé lorsque les étapes atteignent 100 % sur la barre de progression. Vous pouvez voir le temps écoulé et les tokens.

Panneau d'état
La colonne de gauche affiche :
Époque - époque fractionnaire actuelle (par ex.
Époque 1.23)Barre de progression - basée sur les étapes, avec pourcentage
Indicateurs clés:
Perte - perte d'entraînement avec 4 décimales
LR - taux d'apprentissage actuel en notation scientifique
Norme du gradient - norme du gradient
Modèle - le modèle en cours d'entraînement
Méthode -
QLoRA/LoRA/Complet
Ligne de chronométrage - temps écoulé, ETA, étapes par seconde, et total des tokens traités
Moniteur GPU
La colonne de droite affiche des statistiques GPU en direct relevées toutes les quelques secondes :
Utilisation - barre en pourcentage
Température - barre en °C
VRAM - utilisé / total Go
Puissance - consommation / limite en watts
Arrêter l'entraînement
Utilisez le Arrêter l'entraînement bouton en haut à droite de la carte de progression. Une boîte de dialogue vous propose deux choix :
Arrêter et sauvegarder - enregistre un checkpoint avant d'arrêter
Annuler - arrête immédiatement sans checkpoint
Graphiques
Quatre graphiques en direct se mettent à jour au fur et à mesure de l'entraînement :
Perte d'entraînement - valeurs brutes plus une ligne lissée EMA et une ligne de référence de moyenne mobile
Taux d'apprentissage - la courbe du planificateur LR
Norme du gradient - norme du gradient au fil des étapes
Perte d'éval - affiché seulement lorsque vous avez configuré un split d'évaluation

Chaque graphique dispose de paramètres (icône d'engrenage) avec :
Fenêtre d'affichage
Curseur des N dernières étapes
Lissage EMA
0.6
Afficher brut
Activé
Afficher lissé
Activé
Afficher la ligne moyenne
Activé
Échelle (par série)
Linéaire / Log
Coupure des valeurs aberrantes
Pas de coupure / p99 / p95

Fichiers de configuration
Toutes les configurations d'entraînement peuvent être sauvegardées et rechargées en tant que fichiers YAML. Les fichiers sont nommés automatiquement comme :

Le YAML est structuré en trois sections :
Ceci facilite la reproduction des exécutions, le partage des configurations ou le contrôle de version de vos expériences.
Recettes de données - Démarrage rapide
Unsloth Data Recipes vous permet de téléverser des documents comme des PDF ou des fichiers CSV et de les transformer en jeux de données utilisables. Créez et modifiez des jeux de données visuellement via un flux de travail par nœuds de graphe.
La page des recettes est le point d'entrée principal. Les recettes sont stockées localement dans le navigateur, vous pouvez donc revenir à votre travail enregistré plus tard. À partir d'ici, vous pouvez créer une recette vide ou ouvrir une recette d'apprentissage guidé.

Data Recipes suit le même chemin de base. Vous ouvrez la page des recettes, créez ou choisissez une recette, construisez le flux de travail dans l'éditeur, le validez, exécutez un aperçu, puis lancez la construction complète du jeu de données une fois que la sortie semble correcte. Ajoutez des données de semence et des blocs de génération, validez le flux, prévisualisez un échantillon de sortie, puis lancez une construction complète du jeu de données. Unsloth Data Recipes est propulsé par NVIDIA DataDesigner.
En un coup d'œil un flux de travail habituel devrait ressembler à ceci :
Ouvrez la page des recettes.
Créez une nouvelle recette ou ouvrez-en une existante.
Ajoutez des blocs pour définir votre flux de travail de jeu de données.
Cliquez sur Valider pour détecter les problèmes de configuration tôt.
Exécutez un aperçu pour inspecter rapidement des lignes d'exemple.
Lancez une construction complète du jeu de données lorsque la recette est prête.
Examinez la progression et la sortie en direct dans le graphe ou dans Exécutions vue pour plus de détails.
Sélectionnez le jeu de données résultant dans Studio et affinez un modèle.
Exporter - Démarrage rapide
Utilisez 'Exporter' d'Unsloth Studio pour exporter, sauvegarder ou convertir des modèles en GGUF, Safetensors ou LoRA pour le déploiement, le partage ou l'inférence locale dans Unsloth, llama.cpp, Ollama, vLLM, et plus encore. Exports un checkpoint entraîné ou convertissez n'importe quel modèle existant.

Vous pouvez lire notre tutoriel / guide détaillé sur l'exportation de modèles avec Unsloth Studio ici :
Model Export Chat - Démarrage rapide
Unsloth Studio vous permet d'exécuter des modèles 100 % hors ligne sur votre ordinateur. Exécutez des formats de modèle comme GGUF et safetensors depuis Hugging Face ou depuis vos fichiers locaux.
Télécharger + Exécuter n'importe quel modèle comme des GGUFs, adaptateurs fine-tunés, safetensors, etc.
Comparer différents résultats de modèles côte à côte
Téléverser documents, images et audio dans vos invites
Ajuster inférence paramètres comme : température, top-p, top-k et prompt système

Vous pouvez lire notre tutoriel / guide détaillé sur l'exécution des modèles avec Unsloth Studio ici :
Studio Chat Tutoriel vidéo
Voici 2 tutoriels vidéo pour vous aider à démarrer avec Unsloth Studio !
Les versions d'Unsloth Studio montrées dans les vidéos sont anciennes et ne reflètent pas la version actuelle.
Voici un tutoriel vidéo créé par NVIDIA pour vous aider à démarrer avec Studio :
Voici notre tutoriel vidéo complet étape par étape, de l'installation à l'utilisation de Studio :
Paramètres avancés
Commandes CLI
L'interface de ligne de commande Unsloth (cli.py) fournit les commandes suivantes :
Structure du projet
Référence API
Tous les endpoints requièrent un JWT valide Authorization: Bearer <token> en-tête (sauf /api/auth/* et /api/health).
GET
/api/health
Vérification de santé
GET
/api/system
Infos système (GPU, CPU, mémoire)
POST
/api/auth/signup
Créer un compte (requiert un token d'installation au premier lancement)
POST
/api/auth/login
Se connecter et recevoir des tokens JWT
POST
/api/auth/refresh
Rafraîchir un token d'accès expiré
GET
/api/auth/status
Vérifier si l'auth est initialisée
POST
/api/train/start
Démarrer un job d'entraînement
POST
/api/train/stop
Arrêter un travail d'entraînement en cours
POST
/api/train/reset
Réinitialiser l'état de l'entraînement
GET
/api/train/status
Obtenir le statut actuel de l'entraînement
GET
/api/train/metrics
Obtenir les métriques d'entraînement (perte, LR, étapes)
GET
/api/train/stream
Flux SSE du progrès d'entraînement en temps réel
GET
/api/models/
Lister les modèles disponibles
POST
/api/inference/chat
Envoyer un message de chat pour l'inférence
GET
/api/datasets/
Lister / gérer les jeux de données
Mis à jour
Ce contenu vous a-t-il été utile ?

