Installation d'Unsloth Studio
Apprenez comment installer Unsloth Studio sur votre appareil local.
Unsloth Studio fonctionne sur Windows, Linux, WSL et MacOS. Vous devez utiliser le même processus d'installation sur chaque appareil, bien que les exigences système puissent varier selon l'appareil.
Entraînement : Pris en charge sur GPU NVIDIA : RTX 3090, Blackwell série 50, DGX Spark, etc.
Mac : Comme CPU - le chat fonctionne uniquement pour l'instant. MLX entraînement très bientôt disponible.
CPU : Unsloth fonctionne toujours sans GPU, mais seulement pour Chat inférence.
Bientôt disponible : Prise en charge de Apple MLX, AMD, et Intel.
Instructions d'installation
N'oubliez pas que les instructions d'installation sont les mêmes sur tous les appareils :
Configurer Unsloth Studio
unsloth studio setupL'installation configure automatiquement Node.js (via nvm), construit le frontend, installe toutes les dépendances Python et compile llama.cpp avec le support CUDA.

La première installation peut prendre 5 à 10 minutes. C'est normal car llama.cpp doit compiler des binaires. Nannulez pas le processus. Nous travaillons sur des binaires précompilés afin que la prochaine fois cela prenne moins de temps.
Utilisateurs WSL : vous serez invité à saisir votre sudo mot de passe pour installer les dépendances de compilation (cmake, git, libcurl4-openssl-dev).
Commencer l'entraînement et l'exécution
Commencez le fine-tuning et la création de jeux de données immédiatement après le lancement. Consultez notre guide pas à pas pour démarrer avec Unsloth Studio :
Get StartedExigences système
Fenetress
Unsloth Studio fonctionne directement sur Windows sans WSL. Pour entraîner des modèles, assurez-vous que votre système satisfait ces exigences :
Exigences
Windows 10 ou Windows 11 (64 bits)
GPU NVIDIA avec pilotes installés
Installateur d'applications (inclut
winget): iciGit:
winget install --id Git.Git -e --source wingetPython : version 3.11 jusqu'à, mais non incluse, 3.14
Travaillez dans un environnement Python tel que uv, venv, ou conda/mamba
MacOS
Unsloth Studio fonctionne sur les appareils Mac pour Chat pour les modèles GGUF. Entraînement MLX bientôt disponible !
macOS 12 Monterey ou version plus récente (Intel ou Apple Silicon)
Installer Homebrew : ici
Git :
brew install gitcmake :
brew install cmakeopenssl :
brew install opensslPython : version 3.11 jusqu'à, mais non incluse, 3.14
Travaillez dans un environnement Python tel que uv, venv, ou conda/mamba
Linux & WSL
Ubuntu 20.04+ ou distribution similaire (64 bits)
GPU NVIDIA avec pilotes installés
Toolkit CUDA (12.4+ recommandé, 12.8+ pour Blackwell)
Git :
sudo apt install gitPython : version 3.11 jusqu'à, mais non incluse, 3.14
Travaillez dans un environnement Python tel que uv, venv, ou conda/mamba
Docker
Notre image Docker est encore en cours de développement, elle fonctionnera plus tard aujourd'hui:
Récupérez notre dernière image container Unsloth :
docker pull unsloth/unslothExécutez le conteneur via :
Pour plus d'informations, voir ici.
Accédez à votre instance studio à
http://localhost:8000ou adresse IP externehttp://external_ip_address:8000/
CPU uniquement
Unsloth Studio ne prend en charge que les appareils CPU pour Chat pour les modèles GGUF.
Identique à ceux mentionnés ci-dessus pour Linux (sauf pour les pilotes GPU NVIDIA) et MacOS.
Google Colab
Nous avons créé un carnet Google Colab gratuit pour que vous puissiez explorer toutes les fonctionnalités d'Unsloth sur les GPU T4 de Colab. Vous pouvez entraîner et exécuter la plupart des modèles jusqu'à 22 milliards de paramètres, et passer à un GPU plus grand pour des modèles plus volumineux. Il suffit de cliquer sur "Run all" et l'interface devrait s'ouvrir après l'installation.
La compilation de llama.cpp sur un GPU T4 prendra plus de 40 minutes, nous recommandons donc d'utiliser un GPU plus puissant pour des vitesses plus rapides.
Une fois l'installation terminée, faites défiler jusqu'à Démarrer Unsloth Studio et cliquez sur Ouvrir Unsloth Studio dans la boîte blanche affichée à gauche :

Dépannage
Erreur de version de Python
sudo apt install python3.12 python3.12-venv version 3.11 jusqu'à, mais non incluse, 3.14
nvidia-smi introuvable
Installez les pilotes NVIDIA depuis https://www.nvidia.com/Download/index.aspx
nvcc introuvable (CUDA)
sudo apt install nvidia-cuda-toolkit ou ajoutez /usr/local/cuda/bin au PATH
échec de la compilation de llama-server
Non fatal, Studio fonctionne toujours, l'inférence GGUF ne sera pas disponible. Installez cmake et relancez la configuration pour corriger.
cmake introuvable
sudo apt install cmake
git introuvable
sudo apt install git
Compilation échouée
Supprimer ~/.unsloth/llama.cpp et relancer la configuration

Mis à jour
Ce contenu vous a-t-il été utile ?




