boltCommencer avec Unsloth Studio

Un guide pour démarrer avec le studio de fine-tuning, les recettes de données, l'exportation de modèles et le chat.

Unsloth Studio est une interface graphique locale basée sur le navigateur pour l'ajustement fin des LLMs sans écrire de code. Elle encapsule le pipeline d'entraînement dans une interface propre qui gère le chargement du modèle, le formatage des ensembles de données, la configuration des hyperparamètres et la surveillance de l'entraînement en direct.

boltStudiohat-chefRecette de donnéesbox-isometricExportercomment-dotsChatvideoVidéo

Configurer Unsloth Studio

Tout d'abord, lancez Unsloth Studio en utilisant soit une installation locale soit une option cloud. Suivez les instructions d'installation pour votre configuration, ou utilisez notre Colab gratuit carnet. Pour une configuration locale, exécutez :

uunsloth studio -H 0.0.0.0 -p 8888

Puis ouvrez http://localhost:8888 dans votre navigateur.

Au premier lancement, vous devrez créer un mot de passe pour sécuriser votre compte et vous reconnecter ensuite.

Vous verrez ensuite un bref assistant de démarrage pour choisir un modèle, un ensemble de données et des paramètres de base. Vous pouvez le sauter à tout moment et tout configurer manuellement.

bolt Studio - Démarrage rapide

La page d'accueil d'Unsloth Studio comporte 4 zones principales : Modèle, Jeu de données, Paramètres, et Entraînement/Configuration

  • Configuration facile pour les modèles et les données depuis Hugging Face ou des fichiers locaux

  • Choix d'entraînement flexibles comme QLoRA, LoRA ou l'ajustement complet, avec des valeurs par défaut remplies

  • Outils de configuration utiles pour les divisions, le mappage des colonnes, les hyperparamètres et les configurations YAML

  • Excellente visibilité de l'entraînement avec progression en direct, statistiques GPU, graphiques, état de démarrage

1. Sélectionnez le modèle et la méthode

Type de modèle

Sélectionnez la modalité qui correspond à votre cas d'utilisation :

Type
Cas d'utilisation

Texte

Chat, suivi d'instructions, complétion

Vision

Image + texte (VLMs)

Audio

Compréhension de la parole / audio

Embeddings

Embeddings de phrases, recherche

Méthode d'entraînement

Trois méthodes sont disponibles, activées avec un sélecteur en onglets :

Méthode
Description
VRAM

QLoRA

Modèle de base quantifié 4 bits + adaptateur LoRA

Plus bas

LoRA

Modèle de base en pleine précision + adaptateur LoRA

Moyen

Ajustement fin complet

Tous les poids sont entraînés

Plus élevé

Tapez le nom de n'importe quel modèle Hugging Face ou recherchez directement sur le Hub depuis la zone de sélection. Les modèles locaux stockés dans ~/.unsloth/studio/models et votre cache Hugging Face apparaissent également dans la liste.

circle-exclamation

Lorsque vous choisissez un modèle, le Studio récupère automatiquement sa configuration depuis le backend et pré-remplit des valeurs par défaut sensées pour tous les hyperparamètres.

Jeton HuggingFace

Collez votre token d'accès Hugging Face ici si le modèle est restreint (par ex. Llama, Gemma). Le token est validé en temps réel et une erreur est affichée en ligne s'il est invalide.

2. Jeu de données

Source

Basculez entre deux onglets pour choisir d'où proviennent vos données :

  • Hub HuggingFace - recherche en direct contre le Hub. La date de dernière mise à jour est affichée pour chaque résultat.

  • Local - glisser-déposer ou cliquer pour télécharger un fichier non structuré ou des fichiers structurés comme : PDF, DOCX, JSONL, JSON, CSV, ou Parquet format. Les jeux de données précédemment téléchargés apparaissent dans une liste qui se rafraîchit automatiquement.

Indiquez au Studio comment interpréter et formater vos données :

Format
Quand utiliser

auto

Laissez Unsloth détecter automatiquement le format

alpaca

instruction / entrée / sortie colonnes

chatml

Style OpenAI messages array

sharegpt

Conversations au format ShareGPT

Divisions et découpage

  • Sous-ensemble - rempli automatiquement à partir de la fiche du jeu de données.

  • Split d'entraînement / Split d'évaluation - choisissez quels splits utiliser. Définir un split d'évaluation active le Perte d'éval graphique pendant l'entraînement.

  • Tranche de jeu de données - restreindre optionnellement l'entraînement à une plage de lignes (index de début / index de fin) pour des expériences rapides.

Mappage des colonnes

Si le Studio ne peut pas mapper automatiquement les colonnes de votre jeu de données aux rôles corrects, une boîte de dialogue d'aperçu du jeu de données s'ouvre. Elle montre des lignes d'exemple et vous permet d'assigner chaque colonne à instruction, entrée, sortie, image, etc. Des mappages suggérés sont pré-remplis lorsque c'est possible.

3. Hyperparamètres

Les paramètres sont regroupés en sections repliables. Vous pouvez consulter notre guide détaillé des hyperparamètres LoRA ici :

🧠Hyperparameters Guidechevron-right
Paramètre
Par défaut
Remarques

Étapes max

0

0 signifie utiliser plutôt des Époques

Longueur du contexte

2048

Options : 512 → 32768

Taux d'apprentissage

2e-4

Paramètres LoRA

(Masqué lorsque l'ajustement fin complet est sélectionné)

Paramètre
Par défaut
Remarques

Rang

16

Curseur 4–128

Alpha

32

Curseur 4–256

Dropout

0.05

Variante LoRA

LoRA

LoRA / RS-LoRA / LoftQ

Modules cibles

Tout activé

q_proj, k_proj, v_proj, o_proj, gate_proj, up_proj, down_proj

Pour Vision les modèles avec un jeu de données d'images, quatre cases supplémentaires apparaissent :

  • Affiner les couches de vision

  • Affiner les couches linguistiques

  • Affiner les modules d'attention

  • Affiner les modules MLP

Hyperparamètres d'entraînement

Organisé en trois onglets :

| Paramètre | Par défaut | |---|---| | Époques | 3 | | Taille de lot | 4 | | Accumulation de gradient | 8 | | Décroissance de poids | 0.01 | | Optimiseur | AdamW 8-bit |

circle-info

Le checkpointing de gradient d'Unsloth: unsloth utilise l'implémentation personnalisée d'Unsloth, économe en mémoire, qui peut réduire significativement l'utilisation de VRAM par rapport à l'option PyTorch standard. C'est la valeur par défaut recommandée.

4. Entraînement et configuration

La carte en bas à droite a trois boutons de gestion de configuration et le Démarrer l'entraînement bouton.

Bouton
Action

Téléverser

Charger un .yaml fichier de configuration

Enregistrer

Exporter la configuration actuelle en YAML

Réinitialiser

Revenir à tous les paramètres par défaut du modèle

Le bouton Démarrer l'entraînement reste désactivé jusqu'à ce qu'un modèle et un jeu de données soient tous deux configurés. Les erreurs de validation apparaissent en ligne - par exemple, définir des étapes d'évaluation sans choisir un split d'évaluation, ou associer un modèle texte uniquement à un jeu de données vision.

Écran de chargement

Après avoir cliqué sur Démarrer l'entraînement, une superposition pleine page apparaît pendant que le backend prépare tout.

La superposition affiche un terminal animé avec des mises à jour de phase en direct :

  • Bleu : Téléchargement du modèle / jeu de données

  • Ambre : Chargement du modèle / jeu de données

  • Bleu : Configuration

  • Vert : Entraînement

Vous pouvez annuler à tout moment en utilisant le × bouton dans le coin. Une boîte de confirmation apparaîtra avant que quoi que ce soit ne soit arrêté.

Progression et observabilité de l'entraînement

Une fois la première étape d'entraînement arrivée, la superposition se ferme et la vue d'entraînement en direct est révélée. Le processus de réglage est terminé lorsque les étapes atteignent 100 % sur la barre de progression. Vous pouvez voir le temps écoulé et les tokens.

Panneau d'état

La colonne de gauche affiche :

  • Époque - époque fractionnaire actuelle (par ex. Époque 1.23)

  • Barre de progression - basée sur les étapes, avec pourcentage

  • Indicateurs clés:

    • Perte - perte d'entraînement avec 4 décimales

    • LR - taux d'apprentissage actuel en notation scientifique

    • Norme du gradient - norme du gradient

    • Modèle - le modèle en cours d'entraînement

    • Méthode - QLoRA / LoRA / Complet

  • Ligne de chronométrage - temps écoulé, ETA, étapes par seconde, et total des tokens traités

Moniteur GPU

La colonne de droite affiche des statistiques GPU en direct relevées toutes les quelques secondes :

  • Utilisation - barre en pourcentage

  • Température - barre en °C

  • VRAM - utilisé / total Go

  • Puissance - consommation / limite en watts

Arrêter l'entraînement

Utilisez le Arrêter l'entraînement bouton en haut à droite de la carte de progression. Une boîte de dialogue vous propose deux choix :

  • Arrêter et sauvegarder - enregistre un checkpoint avant d'arrêter

  • Annuler - arrête immédiatement sans checkpoint

Graphiques

Quatre graphiques en direct se mettent à jour au fur et à mesure de l'entraînement :

  1. Perte d'entraînement - valeurs brutes plus une ligne lissée EMA et une ligne de référence de moyenne mobile

  2. Taux d'apprentissage - la courbe du planificateur LR

  3. Norme du gradient - norme du gradient au fil des étapes

  4. Perte d'éval - affiché seulement lorsque vous avez configuré un split d'évaluation

Chaque graphique dispose de paramètres (icône d'engrenage) avec :

Option
Par défaut

Fenêtre d'affichage

Curseur des N dernières étapes

Lissage EMA

0.6

Afficher brut

Activé

Afficher lissé

Activé

Afficher la ligne moyenne

Activé

Échelle (par série)

Linéaire / Log

Coupure des valeurs aberrantes

Pas de coupure / p99 / p95

Fichiers de configuration

Toutes les configurations d'entraînement peuvent être sauvegardées et rechargées en tant que fichiers YAML. Les fichiers sont nommés automatiquement comme :

Le YAML est structuré en trois sections :

Ceci facilite la reproduction des exécutions, le partage des configurations ou le contrôle de version de vos expériences.

hat-chef Recettes de données - Démarrage rapide

Unsloth Data Recipes vous permet de téléverser des documents comme des PDF ou des fichiers CSV et de les transformer en jeux de données utilisables. Créez et modifiez des jeux de données visuellement via un flux de travail par nœuds de graphe.

La page des recettes est le point d'entrée principal. Les recettes sont stockées localement dans le navigateur, vous pouvez donc revenir à votre travail enregistré plus tard. À partir d'ici, vous pouvez créer une recette vide ou ouvrir une recette d'apprentissage guidé.

Data Recipes suit le même chemin de base. Vous ouvrez la page des recettes, créez ou choisissez une recette, construisez le flux de travail dans l'éditeur, le validez, exécutez un aperçu, puis lancez la construction complète du jeu de données une fois que la sortie semble correcte. Ajoutez des données de semence et des blocs de génération, validez le flux, prévisualisez un échantillon de sortie, puis lancez une construction complète du jeu de données. Unsloth Data Recipes est propulsé par NVIDIA DataDesignerarrow-up-right.

En un coup d'œil un flux de travail habituel devrait ressembler à ceci :

  1. Ouvrez la page des recettes.

  2. Créez une nouvelle recette ou ouvrez-en une existante.

  3. Ajoutez des blocs pour définir votre flux de travail de jeu de données.

  4. Cliquez sur Valider pour détecter les problèmes de configuration tôt.

  5. Exécutez un aperçu pour inspecter rapidement des lignes d'exemple.

  6. Lancez une construction complète du jeu de données lorsque la recette est prête.

  7. Examinez la progression et la sortie en direct dans le graphe ou dans Exécutions vue pour plus de détails.

  8. Sélectionnez le jeu de données résultant dans Studio et affinez un modèle.

box-isometric Exporter - Démarrage rapide

Utilisez 'Exporter' d'Unsloth Studio pour exporter, sauvegarder ou convertir des modèles en GGUF, Safetensors ou LoRA pour le déploiement, le partage ou l'inférence locale dans Unsloth, llama.cpp, Ollama, vLLM, et plus encore. Exports un checkpoint entraîné ou convertissez n'importe quel modèle existant.

Vous pouvez lire notre tutoriel / guide détaillé sur l'exportation de modèles avec Unsloth Studio ici :

box-isometricModel Exportchevron-right

comment-dots Chat - Démarrage rapide

Unsloth Studio vous permet d'exécuter des modèles 100 % hors ligne sur votre ordinateur. Exécutez des formats de modèle comme GGUF et safetensors depuis Hugging Face ou depuis vos fichiers locaux.

  • Télécharger + Exécuter n'importe quel modèle comme des GGUFs, adaptateurs fine-tunés, safetensors, etc.

  • Comparer différents résultats de modèles côte à côte

  • Téléverser documents, images et audio dans vos invites

  • Ajuster inférence paramètres comme : température, top-p, top-k et prompt système

Vous pouvez lire notre tutoriel / guide détaillé sur l'exécution des modèles avec Unsloth Studio ici :

comment-dotsStudio Chatchevron-right

video Tutoriel vidéo

Voici 2 tutoriels vidéo pour vous aider à démarrer avec Unsloth Studio !

circle-exclamation

Voici un tutoriel vidéo créé par NVIDIA pour vous aider à démarrer avec Studio :

Voici notre tutoriel vidéo complet étape par étape, de l'installation à l'utilisation de Studio :

Paramètres avancés

Commandes CLI

L'interface de ligne de commande Unsloth (cli.py) fournit les commandes suivantes :

Structure du projet

Référence API

Tous les endpoints requièrent un JWT valide Authorization: Bearer <token> en-tête (sauf /api/auth/* et /api/health).

Méthode
Endpoint
Description

GET

/api/health

Vérification de santé

GET

/api/system

Infos système (GPU, CPU, mémoire)

POST

/api/auth/signup

Créer un compte (requiert un token d'installation au premier lancement)

POST

/api/auth/login

Se connecter et recevoir des tokens JWT

POST

/api/auth/refresh

Rafraîchir un token d'accès expiré

GET

/api/auth/status

Vérifier si l'auth est initialisée

POST

/api/train/start

Démarrer un job d'entraînement

POST

/api/train/stop

Arrêter un travail d'entraînement en cours

POST

/api/train/reset

Réinitialiser l'état de l'entraînement

GET

/api/train/status

Obtenir le statut actuel de l'entraînement

GET

/api/train/metrics

Obtenir les métriques d'entraînement (perte, LR, étapes)

GET

/api/train/stream

Flux SSE du progrès d'entraînement en temps réel

GET

/api/models/

Lister les modèles disponibles

POST

/api/inference/chat

Envoyer un message de chat pour l'inférence

GET

/api/datasets/

Lister / gérer les jeux de données

Mis à jour

Ce contenu vous a-t-il été utile ?