💧Liquid LFM2.5 : comment exécuter et affiner
Exécutez et affinez LFM2.5 Instruct et Vision localement sur votre appareil !
GGUF dynamiques
Instruct 16 bits
⚙️ Guide d'utilisation
Format du modèle de chat
Utilisation d'outils
🖥️ Exécuter LFM2.5-1.2B-Instruct
📖 Tutoriel llama.cpp (GGUF)
🦥 Affinage (Fine-tuning) de LFM2.5 avec Unsloth
Configuration Unsloth pour LFM2.5
Configuration d'entraînement
Enregistrer et exporter
🎉 Servir & déployer avec llama-server
📊 Benchmarks


💧 Guide Liquid LFM2.5-1.2B-VL
GGUF dynamiques
Instruct 16 bits
⚙️ Guide d'utilisation
Format du modèle de chat
🖥️ Exécuter LFM2.5-VL-1.6B
📖 Tutoriel llama.cpp (GGUF)
🦥 Affinage de LFM2.5-VL avec Unsloth
Configuration Unsloth pour LFM2.5
Configuration d'entraînement
Enregistrer et exporter
📊 Benchmarks
Modèle
MMStar
MM-IFEval
BLINK
InfoVQA (Val)
OCRBench (v2)
RealWorldQA
MMMU (Val)
MMMB (moyenne)
Multilingual MMBench (moyenne)
📚 Ressources
Mis à jour
Ce contenu vous a-t-il été utile ?

