windowsPhi-4 推論:実行&ファインチューニング

Unsloth と当社の Dynamic 2.0 量子化を使って Phi-4 推論モデルをローカルで実行およびファインチューニングする方法を学びます。

Microsoft の新しい Phi-4 リーズニングモデルは現在 Unsloth でサポートされています。「plus」バリアントは OpenAI の o1-mini、o3-mini、および Sonnet 3.7 と同等の性能を発揮します。「plus」と標準のリーズニングモデルは 14B パラメータで、「mini」は 4B パラメータです。 すべての Phi-4 リーズニングのアップロードは当社の Unsloth Dynamic 2.0 手法を使用しています。

Phi-4 リーズニング - Unsloth Dynamic 2.0 アップロード:

🖥️ Phi-4 リーズニングを実行する

⚙️ 公式推奨設定

Microsoft によると、推論の推奨設定は次のとおりです:

  • Temperature = 0.8

  • Top_P = 0.95

Phi-4 リーズニング チャットテンプレート

「mini」バリアントは異なるテンプレートを持っているため、正しいチャットテンプレートを使用していることを確認してください。

Phi-4-mini:

<|system|>あなたの名前は Phi、Microsoft によって開発された AI 数学専門家です。<|end|><|user|>3*x^2+4*x+5=1 をどのように解きますか?<|end|><|assistant|>

Phi-4-reasoning および Phi-4-reasoning-plus:

この形式は一般的な会話や指示に使用されます:

circle-info

はい、このチャットテンプレート/プロンプト形式はこれほど長いです!

🦙 Ollama: Phi-4 リーズニング チュートリアルを実行

  1. インストールしてください ollama まだの場合はぜひ!

  1. モデルを実行してください!失敗した場合は別の端末で ollama serve失敗した場合は別のターミナルで実行してください。私たちのすべての修正と推奨パラメータ(temperature など)は params 私たちの Hugging Face アップロードに含まれています。

📖 Llama.cpp: Phi-4 リーズニング チュートリアルを実行

circle-exclamation
  1. 最新の llama.cppGitHub で入手arrow-up-rightできます。下のビルド手順に従うこともできます。変更してください -DGGML_CUDA=ON から -DGGML_CUDA=OFF GPU がない場合や CPU 推論のみを行いたい場合は。

  1. (以下をインストールした後に)モデルをダウンロードします pip install huggingface_hub hf_transfer )。Q4_K_M やその他の量子化バージョンを選択できます。

  1. llama.cpp で会話モードでモデルを実行します。必ず次を使用してください --jinja llama.cpp でモデルのリーズニングを有効にするにはこれを使用してください。これは 'mini' バリアントを使用している場合は必要ありません。

🦥 Unsloth での Phi-4 ファインチューニング

Phi-4 ファインチューニングarrow-up-right モデルのファインチューニングも現在 Unsloth でサポートされています。Google Colab で無料でファインチューニングするには、単に model_name を 'unsloth/Phi-4' から 'unsloth/Phi-4-mini-reasoning' などに変更してください。

最終更新

役に立ちましたか?