Lerne, wie man große Sprachmodelle auf Intel-GPUs trainiert und finetunt.
Sie können jetzt LLMs auf Ihrem lokalen Intel-Gerät mit Unsloth feinabstimmen! Lesen Sie unsere Anleitung, wie Sie genau beginnen können, Ihr eigenes Modell zu trainieren.
Bevor Sie beginnen, stellen Sie sicher, dass Sie:
Intel GPU: Data Center GPU Max Series, Arc Series oder Intel Ultra AIPC
Betriebssystem: Linux (empfohlen: Ubuntu 22.04+) oder Windows 11 (empfohlen)
Nur Windows: Installieren Sie das Intel oneAPI Base Toolkit 2025.2.1 (wählen Sie Version 2025.2.1)
Intel Grafiktreiber: Neuester empfohlener Treiber für Windows/Linux
Dieser Befehl muss nur einmal auf einer einzelnen Maschine gesetzt werden. Er muss nicht vor jedem Lauf konfiguriert werden. Dann:
Laden Sie level-zero-win-sdk-1.20.2.zip von herunter GitHub
Entpacken Sie die level-zero-win-sdk-1.20.2.zip
In der Eingabeaufforderung, unter der conda-Umgebung unsloth-xpu:
Beispiel 1: QLoRA-Feinabstimmung mit SFT
Dieses Beispiel zeigt, wie man ein Qwen3-32B-Modell mit 4-bit QLoRA auf einer Intel GPU feinabstimmt. QLoRA reduziert den Speicherbedarf erheblich, sodass große Modelle auf Consumer-Hardware feinabgestimmt werden können.
Beispiel 2: Verstärkendes Lernen GRPO
GRPO ist eine Verstärkungslern- Technik zur Anpassung von Sprachmodellen an menschliche Präferenzen. Dieses Beispiel zeigt, wie man ein Modell trainiert, um einem bestimmten XML-Ausgabeformat mit mehreren Belohnungsfunktionen zu folgen.
Was ist GRPO?
GRPO verbessert das traditionelle RLHF durch:
Verwendung gruppenbasierter Normalisierung für stabileres Training
Unterstützung mehrerer Belohnungsfunktionen für multi-objektive Optimierung
Speichereffizienter als PPO zu sein
Fehlerbehebung
Out-of-Memory (OOM)-Fehler
Wenn Ihnen der Speicher ausgeht, versuchen Sie diese Lösungen:
LoRA-Rang reduzieren: Verwenden Sie r=8 statt r=16 oder r=32.
Für GRPO, reduzieren Sie die Anzahl der Generierungen: Verringern num_generations.
(Nur Windows) Intel Ultra AIPC iGPU Shared Memory
Für Intel Ultra AIPC mit aktuellen GPU-Treibern unter Windows ist der gemeinsame GPU-Speicher für die integrierte GPU typischerweise standardmäßig auf 57% des Systemspeichers eingestellt. Für größere Modelle (z. B. Qwen3-32B), oder wenn Sie eine längere maximale Sequenzlänge, größere Batchgröße, LoRA-Adapter mit größerem LoRA-Rang usw. während der Feinabstimmung verwenden, können Sie den verfügbaren VRAM erhöhen, indem Sie den Prozentsatz des dem iGPU zugewiesenen Systemspeichers erhöhen.
Sie können dies anpassen, indem Sie die Registry ändern: