🛠️Flags d'environnement Unsloth

Flags avancés qui peuvent être utiles si vous voyez des finetunes cassés, ou si vous voulez désactiver des choses.

Variable d'environnement
But

os.environ["UNSLOTH_RETURN_LOGITS"] = "1"

Retourne les logits de force - utile pour l'évaluation si les logits sont nécessaires.

os.environ["UNSLOTH_COMPILE_DISABLE"] = "1"

Désactive le compilateur automatique. Peut être utile pour déboguer des résultats de fine-tuning incorrects.

os.environ["UNSLOTH_DISABLE_FAST_GENERATION"] = "1"

Désactive la génération rapide pour les modèles génériques.

os.environ["UNSLOTH_ENABLE_LOGGING"] = "1"

Active la journalisation du compilateur automatique - utile pour voir quelles fonctions sont compilées ou non.

os.environ["UNSLOTH_FORCE_FLOAT32"] = "1"

Sur les machines en float16, utilise float32 et non la précision mixte float16. Utile pour Gemma 3.

os.environ["UNSLOTH_STUDIO_DISABLED"] = "1"

Désactive les fonctionnalités supplémentaires.

os.environ["UNSLOTH_COMPILE_DEBUG"] = "1"

Active une verbosité extrême torch.compilejournaux.

os.environ["UNSLOTH_COMPILE_MAXIMUM"] = "0"

Active torch.compileoptimisations maximales - non recommandé.

os.environ["UNSLOTH_COMPILE_IGNORE_ERRORS"] = "1"

Peut désactiver cela pour activer le parsing fullgraph.

os.environ["UNSLOTH_FULLGRAPH"] = "0"

Activer torch.compile mode fullgraph

os.environ["UNSLOTH_DISABLE_AUTO_UPDATES"] = "1"

Force aucune mise à jour de unsloth-zoo

Une autre possibilité est que les modèles que nous avons téléchargés soient corrompus, mais c'est peu probable. Essayez ce qui suit :

model, tokenizer = FastVisionModel.from_pretrained(
    "Qwen/Qwen2-VL-7B-Instruct",
    use_exact_model_name = True,
)

Mis à jour

Ce contenu vous a-t-il été utile ?