# Exporter des modèles avec Unsloth Studio

Utiliser [Unsloth Studio](https://unsloth.ai/docs/fr/nouveau/studio) pour exporter, enregistrer ou convertir des modèles en GGUF, Safetensors ou LoRA pour le déploiement, le partage ou l’inférence locale dans Unsloth, llama.cpp, Ollama, vLLM, et plus encore. Exportez un checkpoint entraîné ou convertissez n’importe quel modèle existant.

<div data-with-frame="true"><figure><img src="https://550366147-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FrrFY8YczW3dDpfYi1k9f%2FScreenshot%202026-03-15%20at%209.28.19%E2%80%AFPM.png?alt=media&#x26;token=d2729e16-799f-48f0-8b07-0248b93fa599" alt="" width="563"><figcaption></figcaption></figure></div>

{% stepper %}
{% step %}

### Sélectionner l’exécution d’entraînement

Commencez par sélectionner l’exécution d’entraînement à partir de laquelle vous souhaitez exporter. Chaque exécution représente une session d’entraînement complète et peut contenir plusieurs checkpoints.

Après avoir choisi une exécution, sélectionnez le checkpoint à exporter. Un checkpoint est une version enregistrée du modèle créée pendant l’entraînement.

<div data-with-frame="true"><figure><img src="https://550366147-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FzB12XFNP3UjoAT1l9vz3%2Fimage.png?alt=media&#x26;token=021b8864-b2c5-4a92-927e-e23350610036" alt="" width="563"><figcaption></figcaption></figure></div>
{% endstep %}

{% step %}

### Sélectionner le checkpoint

Les checkpoints plus récents représentent généralement le modèle final entraîné, mais vous pouvez exporter n’importe quel checkpoint selon vos besoins.

<div data-with-frame="true"><figure><img src="https://550366147-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2F8VfRPUcY3w6zYfNmAIDn%2Fimage.png?alt=media&#x26;token=42565a7d-e62f-4cf0-bd33-90422f1b2194" alt="" width="560"><figcaption></figcaption></figure></div>
{% endstep %}

{% step %}

### Méthodes d’exportation

Selon votre flux de travail, vous pouvez exporter un modèle fusionné, les poids de l’adaptateur LoRA ou un modèle GGUF pour l’inférence locale.

<div data-with-frame="true"><figure><img src="https://550366147-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2Fh4sPts9rJhHiGqf0UxIs%2Fimage.png?alt=media&#x26;token=4f1d6a76-bd40-4471-ab8d-0b2fe33d0410" alt=""><figcaption></figcaption></figure></div>

Chaque méthode d’exportation produit une version différente du modèle selon la façon dont vous prévoyez de l’exécuter ou de le partager. Le tableau ci-dessous explique ce que chaque option exporte.

| Type d’exportation | Description                                                                                         |
| ------------------ | --------------------------------------------------------------------------------------------------- |
| Modèle fusionné    | **modèle 16 bits** avec l’adaptateur LoRA fusionné dans les poids de base.                          |
| LoRA uniquement    | Exporte **seulement les poids de l’adaptateur**. Nécessite le modèle de base d’origine.             |
| GGUF / llama.cpp   | Convertit le modèle en **format GGUF** pour Unsloth / llama.cpp **/** Ollama / LM Studio inférence. |
| {% endstep %}      |                                                                                                     |

{% step %}

### Exporter / Enregistrer localement

Lors de l’exportation d’un modèle, vous pouvez choisir où les fichiers résultants doivent être enregistrés. Les modèles peuvent être téléchargés directement sur votre machine ou envoyés vers le Hugging Face Hub pour l’hébergement et le partage.

Enregistrez les fichiers du modèle exporté directement sur votre machine. Cette option est utile pour exécuter le modèle localement, distribuer les fichiers manuellement ou l’intégrer à des outils d’inférence locaux.

<div data-with-frame="true"><figure><img src="https://550366147-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FfsBaE8V2o69jSyCVGIz4%2Fimage.png?alt=media&#x26;token=4ef3fa06-d25b-424a-91e3-42debd3b6908" alt="" width="325"><figcaption></figcaption></figure></div>
{% endstep %}

{% step %}

### Publier sur le Hub

Téléchargez le modèle exporté sur le Hugging Face Hub. Cela vous permet d’héberger, de partager et de déployer le modèle à partir d’un dépôt central.

Vous aurez besoin d’un jeton d’écriture Hugging Face pour publier le modèle.

<div data-with-frame="true"><figure><img src="https://550366147-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FrvVnuVUYQWv2nkrgFxpK%2Fimage.png?alt=media&#x26;token=5e0b91fe-5225-4bff-9fa9-ec1fb3867b1a" alt="" width="325"><figcaption></figcaption></figure></div>

{% hint style="success" %}
Si vous êtes déjà authentifié avec l’interface CLI Hugging Face, le jeton d’écriture peut être laissé vide.
{% endhint %}
{% endstep %}
{% endstepper %}
