googleGemma 3 - Guide d'exécution

Comment exécuter Gemma 3 efficacement avec nos GGUFs sur llama.cpp, Ollama, Open WebUI et comment fine-tuner avec Unsloth !

Google publie Gemma 3 avec un nouveau modèle de 270M et les tailles précédentes de 1B, 4B, 12B et 27B. Les modèles 270M et 1B sont uniquement textuels, tandis que les modèles plus grands gèrent à la fois le texte et la vision. Nous fournissons des GGUF, ainsi qu'un guide sur la façon de les exécuter efficacement, et comment affiner et faire RL avec Gemma 3 !

circle-check

Tutoriel d’exécutionTutoriel d’affinage

Unsloth est le seul framework qui fonctionne sur des machines float16 pour l'inférence et l'entraînement de Gemma 3. Cela signifie que les notebooks Colab avec GPU Tesla T4 gratuits fonctionnent aussi !

circle-info

Selon l'équipe Gemma, la configuration optimale pour l'inférence est temperature = 1.0, top_k = 64, top_p = 0.95, min_p = 0.0

Téléversements Unsloth Gemma 3 avec configurations optimales :

⚙️ Paramètres d’inférence recommandés

Selon l'équipe Gemma, les paramètres officiels recommandés pour l'inférence sont :

  • Température de 1.0

  • Top_K de 64

  • Min_P de 0,00 (optionnel, mais 0,01 fonctionne bien, la valeur par défaut de llama.cpp est 0,1)

  • Top_P de 0,95

  • Pénalité de répétition de 1,0. (1,0 signifie désactivé dans llama.cpp et transformers)

  • Modèle de chat :

    <bos><start_of_turn>user\nHello!<end_of_turn>\n<start_of_turn>model\nHey there!<end_of_turn>\n<start_of_turn>user\nWhat is 1+1?<end_of_turn>\n<start_of_turn>model\n
  • Modèle de discussion avec \nsauts de ligne rendus (sauf pour le dernier)

triangle-exclamation

✨Exécuter Gemma 3 sur votre téléphone

Pour exécuter les modèles sur votre téléphone, nous recommandons d'utiliser n'importe quelle application mobile capable d'exécuter des GGUF localement sur des appareils edge comme les téléphones. Après le fine-tuning, vous pouvez l'exporter en GGUF puis l'exécuter localement sur votre téléphone. Assurez-vous que votre téléphone dispose de suffisamment de RAM/puissance pour traiter les modèles car il peut surchauffer ; nous recommandons donc d'utiliser Gemma 3 270M ou les modèles Gemma 3n pour ce cas d'utilisation. Vous pouvez essayer le projet open-source AnythingLLMarrow-up-right application mobile que vous pouvez télécharger sur Android iciarrow-up-right ou ChatterUIarrow-up-right, qui sont d'excellentes applications pour exécuter des GGUFs sur votre téléphone.

circle-check

🦙 Tutoriel : Comment exécuter Gemma 3 dans Ollama

  1. Installer ollama si vous ne l’avez pas encore fait !

  1. Exécutez le modèle ! Notez que vous pouvez appeler ollama servedans un autre terminal s'il échoue ! Nous incluons toutes nos corrections et paramètres suggérés (température etc.) dans params dans notre téléversement Hugging Face ! Vous pouvez changer le nom du modèle 'gemma-3-27b-it-GGUF' pour n'importe quel modèle Gemma comme 'gemma-3-270m-it-GGUF:Q8_K_XL'.

📖 Tutoriel : Comment exécuter Gemma 3 27B dans llama.cpp

  1. Obtenez la dernière llama.cpp sur GitHub iciarrow-up-right. Vous pouvez aussi suivre les instructions de compilation ci-dessous. Changez -DGGML_CUDA=ON en -DGGML_CUDA=OFF si vous n'avez pas de GPU ou si vous voulez simplement de l'inférence CPU. Pour les appareils Apple Mac / Metal, définissez -DGGML_CUDA=OFF puis continuez comme d'habitude - le support Metal est activé par défaut.

  1. Si vous voulez utiliser llama.cpp directement pour charger des modèles, vous pouvez faire ce qui suit : (:Q4_K_XL) est le type de quantification. Vous pouvez aussi télécharger via Hugging Face (point 3). C’est similaire à ollama run

  1. OU téléchargez le modèle via (après avoir installé pip install huggingface_hub hf_transfer ). Vous pouvez choisir Q4_K_M, ou d'autres versions quantifiées (comme BF16 en pleine précision). Plus de versions sur : https://huggingface.co/unsloth/gemma-3-27b-it-GGUFarrow-up-right

  1. Exécutez le test Flappy Bird d’Unsloth

  2. Modifier --threads 32 pour le nombre de threads CPU, --ctx-size 16384 pour la longueur de contexte (Gemma 3 prend en charge une longueur de contexte de 128K !), --n-gpu-layers 99 pour le déchargement sur GPU du nombre de couches. Essayez de l'ajuster si votre GPU manque de mémoire. Supprimez-le également si vous avez uniquement une inférence CPU.

  3. Pour le mode conversation :

  1. Pour le mode non conversationnel pour tester Flappy Bird :

L'entrée complète de notre https://unsloth.ai/blog/deepseekr1-dynamicarrow-up-right blog 1.58bit est :

triangle-exclamation

🦥 Fine-tuning de Gemma 3 dans Unsloth

Unsloth est le seul framework qui fonctionne sur des machines float16 pour l'inférence et l'entraînement de Gemma 3. Cela signifie que les notebooks Colab avec GPU Tesla T4 gratuits fonctionnent aussi !

circle-exclamation

Correctifs de fine-tuning Unsloth

Notre solution dans Unsloth est triple :

  1. Conserver toutes les activations intermédiaires au format bfloat16 - cela peut être float32, mais cela utilise 2x plus de VRAM ou de RAM (via le checkpointing de gradient asynchrone d'Unsloth)

  2. Effectuer toutes les multiplications matricielles en float16 avec les tensor cores, mais en montant/descendant manuellement le type sans l'aide de l'autocast de précision mixte de PyTorch.

  3. Monter en float32 toutes les autres options qui n'ont pas besoin de multiplications matricielles (layernorms).

🤔 Analyse des correctifs Gemma 3

Gemma 3 1B à 27B dépassent le maximum de float16 qui est 65504

D'abord, avant d'affiner ou d'exécuter Gemma 3, nous avons constaté que lors de l'utilisation de la précision mixte float16, les gradients et les activations deviennent infinis malheureusement. Cela se produit sur les GPU T4, la série RTX 20x et les V100 où ils n'ont que des tensor cores float16.

Pour les GPU plus récents comme les RTX 30x ou supérieurs, A100, H100, etc., ces GPU disposent de tensor cores bfloat16, donc ce problème n'apparaît pas ! Mais pourquoi ?

Le float16 ne peut représenter que des nombres jusqu'à 65504, tandis que le bfloat16 peut représenter des nombres énormes jusqu'à 10^38 ! Mais remarquez que les deux formats numériques n'utilisent que 16 bits ! C'est parce que le float16 alloue plus de bits pour mieux représenter de petites décimales, tandis que le bfloat16 ne représente pas bien les fractions.

Mais pourquoi le float16 ? Utilisons simplement le float32 ! Mais malheureusement le float32 sur GPU est très lent pour les multiplications matricielles - parfois 4 à 10x plus lent ! Nous ne pouvons donc pas faire cela.

Mis à jour

Ce contenu vous a-t-il été utile ?