# Unsloth Studio でモデルを書き出す

使用 [Unsloth Studio](https://unsloth.ai/docs/jp/xin-zhe/studio) を使って、モデルを GGUF、Safetensors、または LoRA にエクスポート、保存、変換し、Unsloth、llama.cpp、Ollama、vLLM などでのデプロイ、共有、ローカル推論に利用できます。学習済みチェックポイントをエクスポートするか、既存の任意のモデルを変換できます。

<div data-with-frame="true"><figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FrrFY8YczW3dDpfYi1k9f%2FScreenshot%202026-03-15%20at%209.28.19%E2%80%AFPM.png?alt=media&#x26;token=d2729e16-799f-48f0-8b07-0248b93fa599" alt="" width="563"><figcaption></figcaption></figure></div>

{% stepper %}
{% step %}

### 学習実行を選択

まず、エクスポート元の学習実行を選択します。各実行は完全な学習セッションを表し、複数のチェックポイントを含む場合があります。

実行を選択した後、エクスポートするチェックポイントを選択します。チェックポイントは、学習中に作成されたモデルの保存版です。

<div data-with-frame="true"><figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FzB12XFNP3UjoAT1l9vz3%2Fimage.png?alt=media&#x26;token=021b8864-b2c5-4a92-927e-e23350610036" alt="" width="563"><figcaption></figcaption></figure></div>
{% endstep %}

{% step %}

### チェックポイントを選択

後のチェックポイントは通常、最終的に学習されたモデルを表しますが、必要に応じて任意のチェックポイントをエクスポートできます。

<div data-with-frame="true"><figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2F8VfRPUcY3w6zYfNmAIDn%2Fimage.png?alt=media&#x26;token=42565a7d-e62f-4cf0-bd33-90422f1b2194" alt="" width="560"><figcaption></figcaption></figure></div>
{% endstep %}

{% step %}

### エクスポート方法

ワークフローに応じて、マージ済みモデル、LoRA アダプターの重み、またはローカル推論用の GGUF モデルをエクスポートできます。

<div data-with-frame="true"><figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2Fh4sPts9rJhHiGqf0UxIs%2Fimage.png?alt=media&#x26;token=4f1d6a76-bd40-4471-ab8d-0b2fe33d0410" alt=""><figcaption></figcaption></figure></div>

各エクスポート方法は、実行または共有の方法に応じて異なるバージョンのモデルを生成します。下の表では、各オプションが何をエクスポートするかを説明しています。

| エクスポート種類         | 説明                                                                      |
| ---------------- | ----------------------------------------------------------------------- |
| マージ済みモデル         | **16ビットモデル** に LoRA アダプターをベースの重みにマージしたもの。                               |
| LoRA のみ          | エクスポート **アダプターの重みのみ**をエクスポートします。元のベースモデルが必要です。                          |
| GGUF / llama.cpp | モデルを変換 **GGUF 形式** へ、Unsloth / llama.cpp **/** Ollama / LM Studio 推論用に。 |
| {% endstep %}    |                                                                         |

{% step %}

### エクスポート / ローカル保存

モデルをエクスポートするとき、生成されたファイルの保存先を選択できます。モデルは自分のマシンに直接ダウンロードすることも、ホスティングや共有のために Hugging Face Hub にプッシュすることもできます。

エクスポートされたモデルファイルを自分のマシンに直接保存します。このオプションは、モデルをローカルで実行したり、ファイルを手動で配布したり、ローカル推論ツールと統合したりする場合に便利です。

<div data-with-frame="true"><figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FfsBaE8V2o69jSyCVGIz4%2Fimage.png?alt=media&#x26;token=4ef3fa06-d25b-424a-91e3-42debd3b6908" alt="" width="325"><figcaption></figcaption></figure></div>
{% endstep %}

{% step %}

### Hub にプッシュ

エクスポートしたモデルを Hugging Face Hub にアップロードします。これにより、中央リポジトリからモデルをホスト、共有、デプロイできます。

モデルを公開するには、Hugging Face の書き込みトークンが必要です。

<div data-with-frame="true"><figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FrvVnuVUYQWv2nkrgFxpK%2Fimage.png?alt=media&#x26;token=5e0b91fe-5225-4bff-9fa9-ec1fb3867b1a" alt="" width="325"><figcaption></figcaption></figure></div>

{% hint style="success" %}
すでに Hugging Face CLI で認証済みの場合は、書き込みトークンを空欄のままにできます。
{% endhint %}
{% endstep %}
{% endstepper %}
