box-isometricUnsloth Studioでモデルを書き出す

safetensorやLoRAのモデルファイルをGGUFや他の形式に書き出す方法を学びましょう。

使用 Unsloth Studio を使用して、モデルを GGUF、Safetensors、または LoRA にエクスポート、保存、変換し、Unsloth、llama.cpp、Ollama、vLLM などでのデプロイ、共有、またはローカル推論に利用できます。学習済みチェックポイントをエクスポートするか、既存の任意のモデルを変換できます。

1

学習実行を選択

まず、エクスポート元となる学習実行を選択します。各実行は1回の完全な学習セッションを表し、複数のチェックポイントを含む場合があります。

実行を選択したら、エクスポートするチェックポイントを選択します。チェックポイントは、学習中に作成されるモデルの保存版です。

2

チェックポイントを選択

後のチェックポイントは通常、最終的に学習されたモデルを表しますが、必要に応じて任意のチェックポイントをエクスポートできます。

3

エクスポート方法

ワークフローに応じて、マージ済みモデル、LoRA アダプター重み、またはローカル推論用の GGUF モデルをエクスポートできます。

各エクスポート方法は、実行方法や共有方法に応じて異なるバージョンのモデルを生成します。下の表では、それぞれのオプションが何をエクスポートするかを説明しています。

エクスポート प्रकार
説明

マージ済みモデル

16ビットモデル LoRA アダプターがベース重みにマージされたもの。

LoRA のみ

エクスポート アダプター重みのみをエクスポートします。元のベースモデルが必要です。

GGUF / llama.cpp

モデルを GGUF 形式 に変換し、Unsloth / llama.cpp / Ollama / LM Studio での推論に使用します。

4

エクスポート / ローカルに保存

モデルをエクスポートする際、生成されるファイルの保存先を選択できます。モデルは直接端末にダウンロードすることも、ホスティングや共有のために Hugging Face Hub にプッシュすることもできます。

エクスポートされたモデルファイルを直接端末に保存します。このオプションは、モデルをローカルで実行する場合、ファイルを手動で配布する場合、またはローカル推論ツールと統合する場合に便利です。

5

Hub にプッシュ

エクスポートしたモデルを Hugging Face Hub にアップロードします。これにより、中央リポジトリからモデルをホスト、共有、デプロイできます。

モデルを公開するには、Hugging Face の書き込みトークンが必要です。

circle-check

最終更新

役に立ちましたか?