safetensorやLoRAのモデルファイルをGGUFや他の形式に書き出す方法を学びましょう。
使用 Unsloth Studio を使用して、モデルを GGUF、Safetensors、または LoRA にエクスポート、保存、変換し、Unsloth、llama.cpp、Ollama、vLLM などでのデプロイ、共有、またはローカル推論に利用できます。学習済みチェックポイントをエクスポートするか、既存の任意のモデルを変換できます。
まず、エクスポート元となる学習実行を選択します。各実行は1回の完全な学習セッションを表し、複数のチェックポイントを含む場合があります。
実行を選択したら、エクスポートするチェックポイントを選択します。チェックポイントは、学習中に作成されるモデルの保存版です。
後のチェックポイントは通常、最終的に学習されたモデルを表しますが、必要に応じて任意のチェックポイントをエクスポートできます。
ワークフローに応じて、マージ済みモデル、LoRA アダプター重み、またはローカル推論用の GGUF モデルをエクスポートできます。
各エクスポート方法は、実行方法や共有方法に応じて異なるバージョンのモデルを生成します。下の表では、それぞれのオプションが何をエクスポートするかを説明しています。
マージ済みモデル
16ビットモデル LoRA アダプターがベース重みにマージされたもの。
LoRA のみ
エクスポート アダプター重みのみをエクスポートします。元のベースモデルが必要です。
GGUF / llama.cpp
モデルを GGUF 形式 に変換し、Unsloth / llama.cpp / Ollama / LM Studio での推論に使用します。
モデルをエクスポートする際、生成されるファイルの保存先を選択できます。モデルは直接端末にダウンロードすることも、ホスティングや共有のために Hugging Face Hub にプッシュすることもできます。
エクスポートされたモデルファイルを直接端末に保存します。このオプションは、モデルをローカルで実行する場合、ファイルを手動で配布する場合、またはローカル推論ツールと統合する場合に便利です。
エクスポートしたモデルを Hugging Face Hub にアップロードします。これにより、中央リポジトリからモデルをホスト、共有、デプロイできます。
モデルを公開するには、Hugging Face の書き込みトークンが必要です。
すでに Hugging Face CLI で認証済みの場合、書き込みトークンは空欄のままで構いません。
最終更新 3 日前
役に立ちましたか?