windowsPhi-4 推論:実行およびファインチューニング方法

Unsloth と当社の Dynamic 2.0 クオンタイズを使って Phi-4 推論モデルをローカルで実行およびファインチューニングする方法を学びましょう。

Microsoftの新しいPhi-4 reasoningモデルは現在Unslothでサポートされています。'plus'バリアントはOpenAIのo1-mini、o3-miniおよびSonnet 3.7と同等の性能を発揮します。'plus'および標準のreasoningモデルは14Bパラメータで、'mini'は4Bパラメータです。 すべてのPhi-4 reasoningアップロードは当社の Unsloth Dynamic 2.0 手法を使用します。

Phi-4 reasoning - Unsloth Dynamic 2.0 アップロード:

Dynamic 2.0 GGUF(実行用)
Dynamic 4-bit Safetensor(ファインチューニング/デプロイ用)

🖥️ Phi-4 reasoningの実行

⚙️ 公式推奨設定

Microsoftによると、推論に推奨される設定は次のとおりです:

  • Temperature = 0.8

  • Top_P = 0.95

Phi-4 reasoning チャットテンプレート

'mimi'バリアントは異なるテンプレートを持つため、正しいチャットテンプレートを使用していることを確認してください。

Phi-4-mini:

<|system|>あなたの名前はPhiで、Microsoftによって開発されたAI数学専門家です。<|end|><|user|>3*x^2+4*x+5=1をどうやって解きますか?<|end|><|assistant|>

Phi-4-reasoningおよびPhi-4-reasoning-plus:

この形式は一般的な会話や指示に使用されます:

circle-info

はい、チャットテンプレート/プロンプト形式はこれほど長いです!

🦙 Ollama:Phi-4 reasoningチュートリアルを実行

  1. Ollamaで実行する をインストールしてください まだインストールしていない場合は!

  1. curl -fsSL https://ollama.com/install.sh | sh モデルを実行してください!失敗した場合は別のターミナルで失敗した場合は別のターミナルで実行してください。私たちの修正点と推奨パラメータ(temperatureなど)はすべて を呼び出すことができます!私たちはすべての修正と推奨パラメータ(temperatureなど)を 私たちのHugging Faceアップロードに含めています。

📖 Llama.cpp:Phi-4 reasoningチュートリアルを実行

circle-exclamation
  1. 最新の llama.cppGitHubで入手してくださいarrow-up-right。以下のビルド手順にも従うことができます。を変更してください -DGGML_CUDA=ON-DGGML_CUDA=OFF GPUを持っていない場合やCPUで推論したい場合は Apple Mac / Metalデバイスの場合、次を設定してください -DGGML_CUDA=OFF その後通常通り続行してください — Metalサポートはデフォルトで有効です。

  1. モデルをダウンロードするには(をインストールした後) モデルをダウンロードするには( repo_id = "unsloth/Qwen3-14B-GGUF",

  1. llama.cppで会話モードでモデルを実行します。必ず次を使用する必要があります --jinja llama.cppではモデルに対してreasoningを有効にするために使用します。ただし、'mini'バリアントを使用している場合はこれは必要ありません。

🦥 UnslothでPhi-4をファインチューニング

Phi-4のファインチューニングarrow-up-right モデルのためのファインチューニングも現在Unslothでサポートされています。Google Colabで無料でファインチューニングするには、ただ model_name 'unsloth/Phi-4'を'unsloth/Phi-4-mini-reasoning'などに変更してください。

最終更新

役に立ちましたか?