windowsPhi-4 Reasoning: Ausführen & Finetunen

Lerne, Phi-4 Reasoning-Modelle lokal mit Unsloth & unseren Dynamic 2.0-Quants auszuführen und zu finetunen

Microsofts neue Phi-4-Reasoning-Modelle werden jetzt in Unsloth unterstützt. Die 'plus'-Variante liefert Leistung auf Augenhöhe mit OpenAIs o1-mini, o3-mini und Sonnet 3.7. Die 'plus' und Standard-Reasoning-Modelle haben 14B Parameter, während das 'mini' 4B Parameter hat. Alle Phi-4-Reasoning-Uploads verwenden unsere Unsloth Dynamic 2.0 Methodik.

Phi-4 Reasoning - Unsloth Dynamic 2.0 Uploads:

🖥️ Phi-4 Reasoning ausführen

⚙️ Offiziell empfohlene Einstellungen

Laut Microsoft sind dies die empfohlenen Einstellungen für die Inferenz:

  • Temperature = 0.8

  • Top_P = 0,95

Phi-4-Reasoning Chat-Vorlagen

Bitte stellen Sie sicher, dass Sie die richtige Chat-Vorlage verwenden, da die 'mini'-Variante eine andere hat.

Phi-4-mini:

<|system|>Ihr Name ist Phi, ein von Microsoft entwickelter KI-Mathematikexperte.<|end|><|user|>Wie löst man 3*x^2+4*x+5=1?<|end|><|assistant|>

Phi-4-reasoning und Phi-4-reasoning-plus:

Dieses Format wird für allgemeine Konversation und Anweisungen verwendet:

circle-info

Ja, die Chat-Vorlage/Prompt-Format ist wirklich so lang!

🦙 Ollama: Phi-4-Reasoning-Tutorial ausführen

  1. Installieren Sie ollama falls du es noch nicht getan hast!

  1. Führen Sie das Modell aus! Beachten Sie, dass Sie aufrufen können ollama servein einem anderen Terminal, falls es fehlschlägt. Wir fügen alle unsere Fixes und vorgeschlagenen Parameter (Temperatur usw.) hinzu in params in unserem Hugging Face Upload.

📖 Llama.cpp: Phi-4-Reasoning-Tutorial ausführen

circle-exclamation
  1. Holen Sie sich die neueste llama.cpp auf GitHub hierarrow-up-right. Sie können auch den unten stehenden Build-Anweisungen folgen. Ändern Sie -DGGML_CUDA=ON zu -DGGML_CUDA=OFF wenn Sie keine GPU haben oder nur CPU-Inferenz wünschen.

  1. Laden Sie das Modell herunter über (nach Installation von pip install huggingface_hub hf_transfer ). Sie können Q4_K_M oder andere quantisierte Versionen wählen.

  1. Führen Sie das Modell im Konversationsmodus in llama.cpp aus. Sie müssen --jinja in llama.cpp verwenden, um Reasoning für die Modelle zu aktivieren. Dies ist jedoch nicht erforderlich, wenn Sie die 'mini'-Variante verwenden.

🦥 Feinabstimmung von Phi-4 mit Unsloth

Phi-4 Feinabstimmungarrow-up-right für die Modelle werden jetzt ebenfalls in Unsloth unterstützt. Um kostenlos in Google Colab feinzujustieren, ändern Sie einfach den model_name von 'unsloth/Phi-4' zu 'unsloth/Phi-4-mini-reasoning' usw.

Zuletzt aktualisiert

War das hilfreich?