safetensor や LoRA のモデルファイルを GGUF や他の形式にエクスポートする方法を学びましょう。
使用 Unsloth Studio を使って、モデルを GGUF、Safetensors、または LoRA にエクスポート、保存、変換し、Unsloth、llama.cpp、Ollama、vLLM などでのデプロイ、共有、ローカル推論に利用できます。学習済みチェックポイントをエクスポートするか、既存の任意のモデルを変換できます。
まず、エクスポート元の学習実行を選択します。各実行は完全な学習セッションを表し、複数のチェックポイントを含む場合があります。
実行を選択した後、エクスポートするチェックポイントを選択します。チェックポイントは、学習中に作成されたモデルの保存版です。
後のチェックポイントは通常、最終的に学習されたモデルを表しますが、必要に応じて任意のチェックポイントをエクスポートできます。
ワークフローに応じて、マージ済みモデル、LoRA アダプターの重み、またはローカル推論用の GGUF モデルをエクスポートできます。
各エクスポート方法は、実行または共有の方法に応じて異なるバージョンのモデルを生成します。下の表では、各オプションが何をエクスポートするかを説明しています。
マージ済みモデル
16ビットモデル に LoRA アダプターをベースの重みにマージしたもの。
LoRA のみ
エクスポート アダプターの重みのみをエクスポートします。元のベースモデルが必要です。
GGUF / llama.cpp
モデルを変換 GGUF 形式 へ、Unsloth / llama.cpp / Ollama / LM Studio 推論用に。
モデルをエクスポートするとき、生成されたファイルの保存先を選択できます。モデルは自分のマシンに直接ダウンロードすることも、ホスティングや共有のために Hugging Face Hub にプッシュすることもできます。
エクスポートされたモデルファイルを自分のマシンに直接保存します。このオプションは、モデルをローカルで実行したり、ファイルを手動で配布したり、ローカル推論ツールと統合したりする場合に便利です。
エクスポートしたモデルを Hugging Face Hub にアップロードします。これにより、中央リポジトリからモデルをホスト、共有、デプロイできます。
モデルを公開するには、Hugging Face の書き込みトークンが必要です。
すでに Hugging Face CLI で認証済みの場合は、書き込みトークンを空欄のままにできます。
最終更新 1 日前
役に立ちましたか?