Améliorer la qualité du modèle avec l'analyse de modèle TensorFlow
Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Introduction
Lorsque vous modifiez votre modèle pendant le développement, vous devez vérifier si vos modifications améliorent votre modèle. Vérifier simplement l’exactitude n’est peut-être pas suffisant. Par exemple, si vous disposez d'un classificateur pour un problème dans lequel 95 % de vos instances sont positives, vous pourrez peut-être améliorer la précision en prédisant simplement toujours ce qui est positif, mais vous n'aurez pas un classificateur très robuste.
Aperçu
L'objectif de TensorFlow Model Analysis est de fournir un mécanisme d'évaluation de modèle dans TFX. TensorFlow Model Analysis vous permet d'effectuer des évaluations de modèles dans le pipeline TFX et d'afficher les métriques et les tracés résultants dans un notebook Jupyter. Concrètement, il peut fournir :
- Métriques calculées sur l'ensemble des données de formation et d'exclusion, ainsi que sur les évaluations du jour suivant
- Suivi des métriques au fil du temps
- Performances de qualité du modèle sur différentes tranches de fonctionnalités
- Validation du modèle pour garantir que ce modèle maintient des performances constantes
Prochaines étapes
Essayez notre tutoriel TFMA .
Consultez notre page github pour plus de détails sur les métriques et les tracés pris en charge ainsi que les visualisations de notebook associées.
Consultez les guides d’installation et de démarrage pour obtenir des informations et des exemples sur la façon de configurer un pipeline autonome. Rappelez-vous que TFMA est également utilisé dans le composant Evaluator de TFX, ces ressources seront donc également utiles pour démarrer dans TFX.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/07/25 (UTC).
[null,null,["Dernière mise à jour le 2025/07/25 (UTC)."],[],[],null,["# Improving Model Quality With TensorFlow Model Analysis\n\n\u003cbr /\u003e\n\nIntroduction\n------------\n\nAs you tweak your model during development, you need to check whether your\nchanges are improving your model. Just checking accuracy may not be enough. For\nexample, if you have a classifier for a problem in which 95% of your instances\nare positive, you may be able to improve accuracy by simply always predicting\npositive, but you won't have a very robust classifier.\n\nOverview\n--------\n\nThe goal of TensorFlow Model Analysis is to provide a mechanism for model\nevaluation in TFX. TensorFlow Model Analysis allows you to perform model\nevaluations in the TFX pipeline, and view resultant metrics and plots in a\nJupyter notebook. Specifically, it can provide:\n\n- [Metrics](../model_analysis/metrics) computed on entire training and holdout dataset, as well as next-day evaluations\n- Tracking metrics over time\n- Model quality performance on different feature slices\n- [Model validation](../model_analysis/model_validations) for ensuring that model's maintain consistent performance\n\nNext Steps\n----------\n\nTry our [TFMA tutorial](../tutorials/model_analysis/tfma_basic).\n\nCheck out our [github](https://github.com/tensorflow/model-analysis) page for\ndetails on the supported\n[metrics and plots](../model_analysis/metrics) and associated notebook\n[visualizations](../model_analysis/visualizations).\n\nSee the [installation](../model_analysis/install) and\n[getting started](../model_analysis/get_started) guides for information and\nexamples on how to get [set up](../model_analysis/setup) in a standalone\npipeline. Recall that TFMA is also used within the [Evaluator](/tfx/guide/evaluator)\ncomponent in TFX, so these resources will be useful for getting started in TFX\nas well."]]