🦥Présentation d’Unsloth Studio

Exécutez et entraînez des modèles d'IA localement avec Unsloth Studio.

Aujourd’hui, nous lançons Unsloth Studio (Beta) : une interface web open source, sans code, pour entraîner, exécuter et exporter des modèles ouverts dans une seule interface locale.

boltDémarrage rapidestarFonctionnalitésgithubGithub

  • Exécuter GGUF et des modèles safetensor localement sur Mac, Windows, Linux.

  • Entraînez plus de 500 modèles 2x plus vite avec 70 % de VRAM en moins (sans perte de précision)

  • Exécutez et entraînez des modèles de texte, de vision, de TTS audio et d’embeddings

circle-check

⭐ Fonctionnalités

Exécuter des modèles localement

Rechercher et exécuter des modèles GGUF et safetensor avec appel d’outils auto-réparateur / recherche web, réglage automatique des paramètres d’inférence, exécution de code (Bash + Python), API (très bientôt). Téléversez des images, des documents, de l’audio, du code.

Comparer les modèles côte à côte. Propulsé par llama.cpp + Hugging Face, nous prenons en charge l’inférence multi-GPU et la plupart des modèles.

Exécuter du code + réparer l’appel d’outils

Unsloth Studio permet aux LLM d’exécuter Bash et Python, pas seulement JavaScript. Il met aussi les programmes en sandbox, comme Claude Artifacts, afin que les modèles puissent tester du code, générer des fichiers et vérifier les réponses avec un calcul réel.

Par ex. Qwen3.5-4B a recherché plus de 20 sites web et cité des sources, la recherche web se déroulant dans sa trace de pensée.

Entraînement sans code

Téléversez des fichiers PDF, CSV, JSON des documents ou des configurations YAML et commencez l’entraînement instantanément sur NVIDIA. Les kernels d’Unsloth optimisent LoRA, FP8, FFT, PT sur plus de 500 modèles de texte, de vision, de TTS/audio et d’embeddings.

Affinez les derniers LLM comme Qwen3.5 et NVIDIA Nemotron 3. Multi-GPU fonctionne automatiquement, avec une nouvelle version à venir.

Recettes de données

Recettes de données transforme vos documents en jeux de données utilisables / synthétiques via un workflow en graphe de nœuds. Téléversez des fichiers non structurés ou structurés comme des PDF, CSV et JSON. Les recettes de données Unsloth, propulsées par NVIDIA Nemo Concepteur de donnéesarrow-up-right, convertissent automatiquement les documents dans les formats souhaités.

Observabilité

Obtenez une visibilité complète et un contrôle total sur vos exécutions d’entraînement. Suivez en temps réel la perte d’entraînement, les normes de gradient et l’utilisation du GPU, et personnalisez selon vos préférences.

Vous pouvez même voir la progression de l’entraînement sur d’autres appareils, comme votre téléphone.

Exporter / Enregistrer les modèles

Exportez n’importe quel modèle, y compris vos modèles affinés, vers safetensors ou GGUF pour une utilisation avec llama.cpp, vLLM, Ollama, LM Studio, et plus encore.

Conserve l’historique de votre entraînement, afin que vous puissiez revoir les exécutions, exporter à nouveau et expérimenter.

Arène des modèles

Discutez avec et comparez 2 modèles différents tels qu’un modèle de base et un modèle affiné, pour voir en quoi leurs sorties diffèrent.

Chargez simplement votre premier GGUF/modèle, puis le second, et voilà ! L’inférence chargera d’abord un modèle, puis le second.

La confidentialité d’abord + Sécurisé

Unsloth Studio peut être utilisé 100 % hors ligne et localement sur votre ordinateur. Son authentification basée sur des jetons, y compris les mots de passe chiffrés et les flux d’accès / rafraîchissement JWT, garde vos données en sécurité.

Vous pouvez utiliser des modèles préexistants / anciens ou des GGUF que vous avez précédemment téléchargés depuis HF, etc. Lisez les instructions ici.

circle-exclamation

⚡ Démarrage rapide

Unsloth Studio fonctionne sur Windows, Linux, WSL et MacOS (chat uniquement pour le moment).

  • CPU : Unsloth fonctionne toujours sans GPU, mais uniquement pour Chat l’inférence et Recettes de données.

  • Entraînement : Fonctionne sur NVIDIA : RTX 30, 40, 50, Blackwell, DGX Spark/Station, etc. + Intel GPU

  • Mac : Comme CPU - Chat et Recettes de données fonctionne uniquement pour le moment. MLX l’entraînement arrive très bientôt.

  • AMD : Le chat fonctionne. Entraînez avec Unsloth Core. La prise en charge de Studio arrive bientôt.

  • Bientôt disponible : Prise en charge de l’entraînement pour Apple MLX et AMD.

  • Multi-GPU : Fonctionne déjà, avec une mise à niveau majeure à venir.

Utilisez les mêmes commandes d’installation ci-dessous pour mettre à jour :

MacOS, Linux, WSL :

Windows PowerShell :

Lancer Unsloth

Docker :

Utilisez notre image Docker: officielle unsloth/unslotharrow-up-right qui fonctionne actuellement pour Windows, WSL et Linux. La prise en charge de MacOS arrive bientôt.

circle-check

Pour plus de détails sur l’installation et la désinstallation, veuillez consulter la section Installation d’Unsloth Studio .

arrow-down-to-squareInstallationchevron-right

google Notebook Google Colab

Nous avons ստեղծé un notebook Google Colab gratuitarrow-up-right afin que vous puissiez explorer toutes les fonctionnalités d’Unsloth sur les GPU T4 de Colab. Vous pouvez entraîner et exécuter la plupart des modèles jusqu’à 22 milliards de paramètres, et passer à un GPU plus grand pour des modèles plus volumineux. Cliquez simplement sur « Run all » et l’interface devrait apparaître après l’installation.

Une fois l’installation terminée, faites défiler jusqu’à Lancer Unsloth Studio et cliquez sur Ouvrir Unsloth Studio dans la boîte blanche affichée à gauche :

Descendez encore pour voir l’interface réelle.

circle-exclamation

seedling Workflow

Voici un workflow habituel d’Unsloth Studio pour vous aider à démarrer :

  1. Lancer Studio depuis les instructions d’installation.

  2. Chargez un modèle à partir de fichiers locaux ou d’une intégration prise en charge.

  3. Importez des données d’entraînement à partir de fichiers PDF, CSV ou JSONL, ou créez un jeu de données à partir de zéro.

  4. Nettoyez, affineez et enrichissez votre jeu de données dans Recettes de données.

  5. Commencez l’entraînement avec les préréglages recommandés ou personnalisez vous-même la configuration.

  6. Discutez avec le modèle entraîné et comparez ses sorties à celles du modèle de base.

  7. Enregistrer ou exporter localement vers la pile que vous utilisez déjà.

Vous pouvez lire nos analyses détaillées de chaque section d’Unsloth Studio :

video Tutoriels vidéo

Voici un tutoriel vidéo créé par NVIDIA pour vous aider à démarrer avec Studio :

Tutoriel vidéo d’installation d’Unsloth Studio

comments-question FAQ

Unsloth collecte-t-il ou stocke-t-il des données ? Unsloth ne collecte pas de télémétrie d’utilisation. Unsloth ne collecte que les informations matérielles minimales nécessaires à la compatibilité, comme le type de GPU et l’appareil (par ex. Mac). Unsloth Studio fonctionne 100 % hors ligne et localement.

Comment puis-je utiliser un ancien modèle / un modèle existant que j’ai téléchargé précédemment depuis Hugging Face ? Oui, vous pouvez utiliser des modèles préexistants/anciens ou des GGUF que vous avez précédemment téléchargés depuis Hugging Face, etc. Ils devraient désormais être détectés automatiquement par Unsloth, sinon lisez notre les instructions ici.

Pourquoi l’inférence est-elle parfois plus lente dans Unsloth ? Unsloth, comme d’autres applications d’inférence locale, est propulsé par llama.cpp, donc les vitesses devraient être à peu près identiques. Parfois, Unsloth peut être plus lent parce que vous avez activé la recherche web, l’exécution de code ou l’appel d’outils auto-réparateur. Toutes ces fonctionnalités peuvent ralentir votre inférence. Si la différence de vitesse reste plus lente avec toutes les fonctionnalités désactivées, veuillez ouvrir un ticket GitHub !

Unsloth Studio prend-il en charge les API compatibles OpenAI ? Oui, pour nos recettes de données, c’est le cas. Pour l’inférence, nous y travaillons et espérons publier la prise en charge dès cette semaine, alors restez à l’écoute !

Unsloth est-il désormais sous licence AGPL-3.0 ? Unsloth utilise un modèle de double licence Apache 2.0 et AGPL-3.0. Le paquet principal Unsloth reste sous licence Apache 2.0arrow-up-right, tandis que certains composants optionnels, tels que l’interface Unsloth Studio, sont sous licence AGPL-3.0arrow-up-right.

Cette structure aide à soutenir le développement continu d’Unsloth tout en gardant le projet open source et en permettant à l’écosystème plus large de continuer à se développer.

Studio prend-il en charge uniquement les LLM ? Non. Studio prend en charge une gamme de familles de modèles compatibles transformers , notamment les modèles de texte et multimodaux, la synthèse vocale, l’audio, les embeddingset les modèles de type BERT.

Puis-je utiliser ma propre configuration d’entraînement ? Oui. Importez une configuration YAML et Studio préremplira les paramètres pertinents.

Comment puis-je ajuster ma longueur de contexte ? L’ajustement de la longueur de contexte n’est plus nécessaire avec le contexte automatique intelligent de llama.cpp, qui utilise uniquement le contexte dont vous avez besoin sans charger quoi que ce soit de plus. Cependant, nous ajouterons bientôt cette fonctionnalité au cas où vous souhaiteriez l’utiliser.

Faut-il entraîner des modèles pour utiliser l’interface ? Non, vous pouvez simplement télécharger n’importe quel GGUF ou modèle sans affiner un modèle.

Avenir d’Unsloth

Nous travaillons dur pour rendre l’IA open source aussi accessible que possible. Pour la suite d’Unsloth et d’Unsloth Studio, nous allons publier la prise en charge officielle de : multi-GPU, Apple Silicon/MLX et AMD. Rappel : il s’agit de la version BETA d’Unsloth Studio, donc attendez-vous à de nombreuses annonces et améliorations dans les prochaines semaines. Nous travaillons également en étroite collaboration avec NVIDIA sur la prise en charge multi-GPU afin d’offrir l’expérience la meilleure et la plus simple possible.

Remerciements

Un immense merci à NVIDIA et à Hugging Face d’avoir participé à notre lancement. Merci également à tous nos premiers bêta-testeurs d’Unsloth Studio ; nous apprécions sincèrement votre temps et vos retours. Nous aimerions aussi remercier llama.cpp, PyTorch et open model labs pour avoir fourni l’infrastructure qui a rendu Unsloth Studio possible.

Mis à jour

Ce contenu vous a-t-il été utile ?