safetensorやLoRAモデルファイルをGGUFやその他のフォーマットにエクスポートする方法を学びます。
使用 Unsloth Studio モデルをGGUF、Safetensors、またはLoRAにエクスポート、保存、変換して、Unsloth、llama.cpp、Ollama、vLLMなどでのデプロイ、共有、またはローカル推論に使用します。訓練済みチェックポイントをエクスポートするか、既存の任意のモデルを変換できます。
まずエクスポート元として使用するトレーニング実行を選択します。各実行は1回の完全なトレーニングセッションを表し、複数のチェックポイントを含む場合があります。
実行を選択したら、エクスポートするチェックポイントを選びます。チェックポイントは訓練中に作成されたモデルの保存されたバージョンです。
後のチェックポイントは通常最終的な訓練済みモデルを表しますが、用途に応じて任意のチェックポイントをエクスポートできます。
ワークフローに応じて、マージ済みモデル、LoRAアダプタ重み、またはローカル推論用のGGUFモデルをエクスポートできます。
各エクスポート方法は、実行または共有の計画に応じて異なるバージョンのモデルを生成します。以下の表は各オプションが何をエクスポートするかを説明します。
マージ済みモデル
16ビットモデル LoRAアダプタがベースの重みにマージされた状態です。
LoRAのみ
エクスポートします アダプタ重みのみ。元のベースモデルが必要です。
GGUF / llama.cpp
モデルを変換します GGUFフォーマットに Unsloth / llama.cpp用 / Ollama / LM Studio での推論。
モデルをエクスポートする際、生成されたファイルの保存先を選択できます。モデルは直接マシンにダウンロードするか、ホスティングや共有のためにHugging Face Hubにプッシュできます。
エクスポートされたモデルファイルを直接ご自身のマシンに保存します。このオプションはモデルをローカルで実行する場合、ファイルを手動で配布する場合、またはローカル推論ツールと統合する場合に便利です。
エクスポートしたモデルをHugging Face Hubにアップロードします。これにより、中央リポジトリからモデルをホスト、共有、デプロイできます。
モデルを公開するにはHugging Faceの書き込みトークンが必要です。
すでにHugging Face CLIで認証済みの場合、書き込みトークンは空のままにできます。
最終更新 18 時間前
役に立ちましたか?