box-isometricUnsloth Studioでモデルをエクスポートする

safetensorやLoRAモデルファイルをGGUFやその他のフォーマットにエクスポートする方法を学びます。

使用 Unsloth Studio モデルをGGUF、Safetensors、またはLoRAにエクスポート、保存、変換して、Unsloth、llama.cpp、Ollama、vLLMなどでのデプロイ、共有、またはローカル推論に使用します。訓練済みチェックポイントをエクスポートするか、既存の任意のモデルを変換できます。

1

トレーニング実行を選択

まずエクスポート元として使用するトレーニング実行を選択します。各実行は1回の完全なトレーニングセッションを表し、複数のチェックポイントを含む場合があります。

実行を選択したら、エクスポートするチェックポイントを選びます。チェックポイントは訓練中に作成されたモデルの保存されたバージョンです。

2

チェックポイントを選択

後のチェックポイントは通常最終的な訓練済みモデルを表しますが、用途に応じて任意のチェックポイントをエクスポートできます。

3

エクスポート方法

ワークフローに応じて、マージ済みモデル、LoRAアダプタ重み、またはローカル推論用のGGUFモデルをエクスポートできます。

各エクスポート方法は、実行または共有の計画に応じて異なるバージョンのモデルを生成します。以下の表は各オプションが何をエクスポートするかを説明します。

エクスポートタイプ
説明

マージ済みモデル

16ビットモデル LoRAアダプタがベースの重みにマージされた状態です。

LoRAのみ

エクスポートします アダプタ重みのみ。元のベースモデルが必要です。

GGUF / llama.cpp

モデルを変換します GGUFフォーマットに Unsloth / llama.cpp用 / Ollama / LM Studio での推論。

4

エクスポート / ローカルに保存

モデルをエクスポートする際、生成されたファイルの保存先を選択できます。モデルは直接マシンにダウンロードするか、ホスティングや共有のためにHugging Face Hubにプッシュできます。

エクスポートされたモデルファイルを直接ご自身のマシンに保存します。このオプションはモデルをローカルで実行する場合、ファイルを手動で配布する場合、またはローカル推論ツールと統合する場合に便利です。

5

Hubにプッシュ

エクスポートしたモデルをHugging Face Hubにアップロードします。これにより、中央リポジトリからモデルをホスト、共有、デプロイできます。

モデルを公開するにはHugging Faceの書き込みトークンが必要です。

circle-check

最終更新

役に立ちましたか?