Premiers pas avec l'optimisation du modèle TensorFlow
Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
1. Choisissez le meilleur modèle pour la tâche
En fonction de la tâche, vous devrez faire un compromis entre la complexité et la taille du modèle. Si votre tâche nécessite une grande précision, vous aurez peut-être besoin d'un modèle volumineux et complexe. Pour les tâches qui nécessitent moins de précision, il est préférable d’utiliser un modèle plus petit car non seulement ils utilisent moins d’espace disque et de mémoire, mais ils sont aussi généralement plus rapides et plus économes en énergie.
2. Modèles pré-optimisés
Vérifiez si des modèles pré-optimisés TensorFlow Lite existants offrent l'efficacité requise par votre application.
3. Outils post-formation
Si vous ne pouvez pas utiliser un modèle pré-entraîné pour votre application, essayez d'utiliser les outils de quantification post-entraînement TensorFlow Lite lors de la conversion TensorFlow Lite , qui peuvent optimiser votre modèle TensorFlow déjà entraîné.
Consultez le didacticiel de quantification post-formation pour en savoir plus.
Si les solutions simples ci-dessus ne répondent pas à vos besoins, vous devrez peut-être faire appel à des techniques d'optimisation du temps de formation. Optimisez davantage avec nos outils de temps de formation et creusez plus profondément.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/07/25 (UTC).
[null,null,["Dernière mise à jour le 2025/07/25 (UTC)."],[],[],null,["# Get started with TensorFlow model optimization\n\n\u003cbr /\u003e\n\n1. Choose the best model for the task\n-------------------------------------\n\nDepending on the task, you will need to make a tradeoff between model complexity\nand size. If your task requires high accuracy, then you may need a large and\ncomplex model. For tasks that require less precision, it is better to use a\nsmaller model because they not only use less disk space and memory, but they are\nalso generally faster and more energy efficient.\n\n2. Pre-optimized models\n-----------------------\n\nSee if any existing\n[TensorFlow Lite pre-optimized models](https://www.tensorflow.org/lite/models)\nprovide the efficiency required by your application.\n\n3. Post-training tooling\n------------------------\n\nIf you cannot use a pre-trained model for your application, try using\n[TensorFlow Lite post-training quantization tools](./quantization/post_training)\nduring [TensorFlow Lite conversion](https://www.tensorflow.org/lite/convert),\nwhich can optimize your already-trained TensorFlow model.\n\nSee the\n[post-training quantization tutorial](https://github.com/tensorflow/tensorflow/blob/master/tensorflow/lite/g3doc/performance/post_training_quant.ipynb)\nto learn more.\n\nNext steps: Training-time tooling\n---------------------------------\n\nIf the above simple solutions don't satisfy your needs, you may need to involve\ntraining-time optimization techniques.\n[Optimize further](/model_optimization/guide/optimize_further) with our training-time tools and dig\ndeeper."]]