windowsPhi-4 Reasoning: Wie man ausführt & feinabstimmt

Lerne, Phi-4-Reasoning-Modelle lokal mit Unsloth & unseren Dynamic 2.0-Quants auszuführen und feinabzustimmen

Microsofts neue Phi-4-Reasoning-Modelle werden jetzt in Unsloth unterstützt. Die ‚plus‘-Variante liefert eine Leistung, die mit OpenAIs o1-mini, o3-mini und Sonnet 3.7 vergleichbar ist. Die ‚plus‘- und Standard-Reasoning-Modelle haben 14 Milliarden Parameter, während das ‚mini‘ 4 Milliarden Parameter hat. Alle Phi-4-Reasoning-Uploads verwenden unsere Unsloth Dynamic 2.0 Methodik.

Phi-4 Reasoning - Unsloth Dynamic 2.0 Uploads:

🖥️ Ausführen von Phi-4 Reasoning

⚙️ Offizielle empfohlene Einstellungen

Laut Microsoft sind dies die empfohlenen Einstellungen für die Inferenz:

  • Temperature = 0.8

  • Top_P = 0,95

Phi-4 Reasoning Chat-Vorlagen

Bitte stellen Sie sicher, dass Sie die korrekte Chat-Vorlage verwenden, da die ‚mini‘-Variante eine andere hat.

Phi-4-mini:

<|system|>Ihr Name ist Phi, ein von Microsoft entwickelter KI-Mathematikexperte.<|end|><|user|>Wie löst man 3*x^2+4*x+5=1?<|end|><|assistant|>

Phi-4-reasoning und Phi-4-reasoning-plus:

Dieses Format wird für allgemeine Konversationen und Anweisungen verwendet:

circle-info

Ja, die Chat-Vorlage/Prompt-Struktur ist wirklich so lang!

🦙 Ollama: Phi-4 Reasoning Tutorial ausführen

  1. In Ollama ausführen Installieren Sie falls Sie es noch nicht getan haben!

  1. curl -fsSL https://ollama.com/install.sh | sh Führen Sie das Modell aus! Beachten Sie, dass Siein einem anderen Terminal, falls es fehlschlägt. Wir fügen alle unsere Fixes und vorgeschlagenen Parameter (Temperatur usw.) in in einem anderen Terminal aufrufen können, wenn es fehlschlägt! Wir fügen alle unsere Fixes und vorgeschlagenen Parameter (Temperatur usw.) in in unseren Hugging Face Upload ein.

📖 Llama.cpp: Phi-4 Reasoning Tutorial ausführen

circle-exclamation
  1. Hole dir die neueste llama.cpp auf GitHub hierarrow-up-right. Du kannst auch den Build-Anweisungen unten folgen. Ändere -DGGML_CUDA=ON zu -DGGML_CUDA=OFF wenn du keine GPU hast oder nur CPU-Inferenz möchtest. Für Apple Mac / Metal-Geräte, setze -DGGML_CUDA=OFF dann wie gewohnt fort - Metal-Unterstützung ist standardmäßig aktiviert.

  1. Laden Sie das Modell herunter (nach der Installation pip install huggingface_hub hf_transfer ). Du kannst Q4_K_M oder andere quantisierte Versionen wählen.

  1. Führen Sie das Modell im Konversationsmodus in llama.cpp aus. Sie müssen --jinja in llama.cpp verwenden, um Reasoning für die Modelle zu aktivieren. Dies ist jedoch nicht erforderlich, wenn Sie die ‚mini‘-Variante verwenden.

🦥 Feinabstimmung von Phi-4 mit Unsloth

Phi-4 Feinabstimmungarrow-up-right für die Modelle werden jetzt ebenfalls in Unsloth unterstützt. Um kostenlos auf Google Colab feinzuabstimmen, ändern Sie einfach den model_name von 'unsloth/Phi-4' zu 'unsloth/Phi-4-mini-reasoning' usw.

Zuletzt aktualisiert

War das hilfreich?