# Modelle mit Unsloth Studio exportieren

Verwenden [Unsloth Studio](https://unsloth.ai/docs/de/neu/studio) um Modelle für die Bereitstellung, das Teilen oder die lokale Inferenz in Unsloth, llama.cpp, Ollama, vLLM und mehr nach GGUF, Safetensors oder LoRA zu exportieren, zu speichern oder zu konvertieren. Exportieren Sie einen trainierten Checkpoint oder konvertieren Sie ein beliebiges vorhandenes Modell.

<div data-with-frame="true"><figure><img src="https://797013937-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FrrFY8YczW3dDpfYi1k9f%2FScreenshot%202026-03-15%20at%209.28.19%E2%80%AFPM.png?alt=media&#x26;token=d2729e16-799f-48f0-8b07-0248b93fa599" alt="" width="563"><figcaption></figcaption></figure></div>

{% stepper %}
{% step %}

### Training-Lauf auswählen

Beginnen Sie, indem Sie den Training-Lauf auswählen, aus dem Sie exportieren möchten. Jeder Lauf stellt eine vollständige Trainingssitzung dar und kann mehrere Checkpoints enthalten.

Nachdem Sie einen Lauf ausgewählt haben, wählen Sie den zu exportierenden Checkpoint aus. Ein Checkpoint ist eine gespeicherte Version des Modells, die während des Trainings erstellt wurde.

<div data-with-frame="true"><figure><img src="https://797013937-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FzB12XFNP3UjoAT1l9vz3%2Fimage.png?alt=media&#x26;token=021b8864-b2c5-4a92-927e-e23350610036" alt="" width="563"><figcaption></figcaption></figure></div>
{% endstep %}

{% step %}

### Checkpoint auswählen

Spätere Checkpoints stellen in der Regel das final trainierte Modell dar, aber Sie können je nach Bedarf jeden beliebigen Checkpoint exportieren.

<div data-with-frame="true"><figure><img src="https://797013937-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2F8VfRPUcY3w6zYfNmAIDn%2Fimage.png?alt=media&#x26;token=42565a7d-e62f-4cf0-bd33-90422f1b2194" alt="" width="560"><figcaption></figcaption></figure></div>
{% endstep %}

{% step %}

### Exportmethoden

Abhängig von Ihrem Workflow können Sie ein zusammengeführtes Modell, LoRA-Adaptergewichte oder ein GGUF-Modell für die lokale Inferenz exportieren.

<div data-with-frame="true"><figure><img src="https://797013937-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2Fh4sPts9rJhHiGqf0UxIs%2Fimage.png?alt=media&#x26;token=4f1d6a76-bd40-4471-ab8d-0b2fe33d0410" alt=""><figcaption></figcaption></figure></div>

Jede Exportmethode erzeugt eine andere Version des Modells, abhängig davon, wie Sie es ausführen oder teilen möchten. Die folgende Tabelle erklärt, was jede Option exportiert.

| Exporttyp                | Beschreibung                                                                                             |
| ------------------------ | -------------------------------------------------------------------------------------------------------- |
| Zusammengeführtes Modell | **16-Bit-Modell** mit dem in die Basisgewichte integrierten LoRA-Adapter.                                |
| Nur LoRA                 | Exportiert **nur die Adaptergewichte**. Erfordert das ursprüngliche Basismodell.                         |
| GGUF / llama.cpp         | Konvertiert das Modell in das **GGUF-Format** für Unsloth / llama.cpp **/** Ollama / LM Studio Inferenz. |
| {% endstep %}            |                                                                                                          |

{% step %}

### Exportieren / lokal speichern

Beim Exportieren eines Modells können Sie wählen, wo die resultierenden Dateien gespeichert werden sollen. Modelle können direkt auf Ihr Gerät heruntergeladen oder zur Bereitstellung und zum Teilen an den Hugging Face Hub übertragen werden.

Speichern Sie die exportierten Modelldateien direkt auf Ihrem Gerät. Diese Option ist nützlich, um das Modell lokal auszuführen, Dateien manuell zu verteilen oder in lokale Inferenz-Tools zu integrieren.

<div data-with-frame="true"><figure><img src="https://797013937-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FfsBaE8V2o69jSyCVGIz4%2Fimage.png?alt=media&#x26;token=4ef3fa06-d25b-424a-91e3-42debd3b6908" alt="" width="325"><figcaption></figcaption></figure></div>
{% endstep %}

{% step %}

### Zum Hub übertragen

Laden Sie das exportierte Modell auf den Hugging Face Hub hoch. Dadurch können Sie das Modell in einem zentralen Repository hosten, teilen und bereitstellen.

Sie benötigen ein Hugging-Face-Schreib-Token, um das Modell zu veröffentlichen.

<div data-with-frame="true"><figure><img src="https://797013937-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FrvVnuVUYQWv2nkrgFxpK%2Fimage.png?alt=media&#x26;token=5e0b91fe-5225-4bff-9fa9-ec1fb3867b1a" alt="" width="325"><figcaption></figcaption></figure></div>

{% hint style="success" %}
Wenn Sie bereits mit der Hugging-Face-CLI authentifiziert sind, kann das Schreib-Token leer gelassen werden.
{% endhint %}
{% endstep %}
{% endstepper %}
