💧Liquid LFM2.5: Wie man ausführt & finetunt
Führe und finetune LFM2.5 Instruct und Vision lokal auf deinem Gerät!
Dynamische GGUFs
16-Bit Instruct
⚙️ Gebrauchsanleitung
Chat-Vorlagenformat
Tool-Verwendung
🖥️ LFM2.5-1.2B-Instruct ausführen
📖 llama.cpp Tutorial (GGUF)
🦥 Feinabstimmung von LFM2.5 mit Unsloth
Unsloth-Konfiguration für LFM2.5
Trainingsaufbau
Speichern und Exportieren
🎉 llama-server Serving & Deployment
📊 Benchmarks


💧 Liquid LFM2.5-1.2B-VL Anleitung
Dynamische GGUFs
16-Bit Instruct
⚙️ Gebrauchsanleitung
Chat-Vorlagenformat
🖥️ LFM2.5-VL-1.6B ausführen
📖 llama.cpp Tutorial (GGUF)
🦥 Feinabstimmung von LFM2.5-VL mit Unsloth
Unsloth-Konfiguration für LFM2.5
Trainingsaufbau
Speichern und Exportieren
📊 Benchmarks
Modell
MMStar
MM-IFEval
BLINK
InfoVQA (Val)
OCRBench (v2)
RealWorldQA
MMMU (Val)
MMMB (Durchschnitt)
Mehrsprachiges MMBench (Durchschnitt)
📚 Ressourcen
Zuletzt aktualisiert
War das hilfreich?

