box-isometricUnsloth Studio でモデルをエクスポート

safetensor や LoRA のモデルファイルを GGUF や他の形式にエクスポートする方法を学びましょう。

使用 Unsloth Studio を使って、モデルを GGUF、Safetensors、または LoRA にエクスポート、保存、変換し、Unsloth、llama.cpp、Ollama、vLLM などでのデプロイ、共有、ローカル推論に利用できます。学習済みチェックポイントをエクスポートするか、既存の任意のモデルを変換できます。

1

学習実行を選択

まず、エクスポート元の学習実行を選択します。各実行は完全な学習セッションを表し、複数のチェックポイントを含む場合があります。

実行を選択した後、エクスポートするチェックポイントを選択します。チェックポイントは、学習中に作成されたモデルの保存版です。

2

チェックポイントを選択

後のチェックポイントは通常、最終的に学習されたモデルを表しますが、必要に応じて任意のチェックポイントをエクスポートできます。

3

エクスポート方法

ワークフローに応じて、マージ済みモデル、LoRA アダプターの重み、またはローカル推論用の GGUF モデルをエクスポートできます。

各エクスポート方法は、実行または共有の方法に応じて異なるバージョンのモデルを生成します。下の表では、各オプションが何をエクスポートするかを説明しています。

エクスポート種類
説明

マージ済みモデル

16ビットモデル に LoRA アダプターをベースの重みにマージしたもの。

LoRA のみ

エクスポート アダプターの重みのみをエクスポートします。元のベースモデルが必要です。

GGUF / llama.cpp

モデルを変換 GGUF 形式 へ、Unsloth / llama.cpp / Ollama / LM Studio 推論用に。

4

エクスポート / ローカル保存

モデルをエクスポートするとき、生成されたファイルの保存先を選択できます。モデルは自分のマシンに直接ダウンロードすることも、ホスティングや共有のために Hugging Face Hub にプッシュすることもできます。

エクスポートされたモデルファイルを自分のマシンに直接保存します。このオプションは、モデルをローカルで実行したり、ファイルを手動で配布したり、ローカル推論ツールと統合したりする場合に便利です。

5

Hub にプッシュ

エクスポートしたモデルを Hugging Face Hub にアップロードします。これにより、中央リポジトリからモデルをホスト、共有、デプロイできます。

モデルを公開するには、Hugging Face の書き込みトークンが必要です。

circle-check

最終更新

役に立ちましたか?