Mejora de la calidad del modelo con el análisis del modelo TensorFlow
Organízate con las colecciones
Guarda y clasifica el contenido según tus preferencias.
Introducción
A medida que modifica su modelo durante el desarrollo, debe verificar si sus cambios están mejorando su modelo. Puede que simplemente comprobar la precisión no sea suficiente. Por ejemplo, si tiene un clasificador para un problema en el que el 95% de sus instancias son positivas, es posible que pueda mejorar la precisión simplemente prediciendo siempre lo positivo, pero no tendrá un clasificador muy sólido.
Descripción general
El objetivo del análisis de modelos de TensorFlow es proporcionar un mecanismo para la evaluación de modelos en TFX. El análisis de modelos de TensorFlow le permite realizar evaluaciones de modelos en la canalización TFX y ver las métricas y gráficos resultantes en un cuaderno de Jupyter. En concreto, puede proporcionar:
- Métricas calculadas en todo el conjunto de datos de capacitación y retención, así como evaluaciones del día siguiente
- Seguimiento de métricas a lo largo del tiempo
- Rendimiento de calidad del modelo en diferentes sectores de características
- Validación del modelo para garantizar que el modelo mantenga un rendimiento constante.
Próximos pasos
Pruebe nuestro tutorial TFMA .
Consulte nuestra página de GitHub para obtener detalles sobre las métricas y gráficos admitidos y las visualizaciones de cuadernos asociadas.
Consulte las guías de instalación y introducción para obtener información y ejemplos sobre cómo configurar una canalización independiente. Recuerde que TFMA también se usa dentro del componente Evaluador en TFX, por lo que estos recursos también serán útiles para comenzar en TFX.
A menos que se indique lo contrario, el contenido de esta página está sujeto a la licencia Reconocimiento 4.0 de Creative Commons y las muestras de código están sujetas a la licencia Apache 2.0. Para obtener más información, consulta las políticas del sitio web de Google Developers. Java es una marca registrada de Oracle o sus afiliados.
Última actualización: 2025-07-25 (UTC).
[null,null,["Última actualización: 2025-07-25 (UTC)."],[],[],null,["# Improving Model Quality With TensorFlow Model Analysis\n\n\u003cbr /\u003e\n\nIntroduction\n------------\n\nAs you tweak your model during development, you need to check whether your\nchanges are improving your model. Just checking accuracy may not be enough. For\nexample, if you have a classifier for a problem in which 95% of your instances\nare positive, you may be able to improve accuracy by simply always predicting\npositive, but you won't have a very robust classifier.\n\nOverview\n--------\n\nThe goal of TensorFlow Model Analysis is to provide a mechanism for model\nevaluation in TFX. TensorFlow Model Analysis allows you to perform model\nevaluations in the TFX pipeline, and view resultant metrics and plots in a\nJupyter notebook. Specifically, it can provide:\n\n- [Metrics](../model_analysis/metrics) computed on entire training and holdout dataset, as well as next-day evaluations\n- Tracking metrics over time\n- Model quality performance on different feature slices\n- [Model validation](../model_analysis/model_validations) for ensuring that model's maintain consistent performance\n\nNext Steps\n----------\n\nTry our [TFMA tutorial](../tutorials/model_analysis/tfma_basic).\n\nCheck out our [github](https://github.com/tensorflow/model-analysis) page for\ndetails on the supported\n[metrics and plots](../model_analysis/metrics) and associated notebook\n[visualizations](../model_analysis/visualizations).\n\nSee the [installation](../model_analysis/install) and\n[getting started](../model_analysis/get_started) guides for information and\nexamples on how to get [set up](../model_analysis/setup) in a standalone\npipeline. Recall that TFMA is also used within the [Evaluator](/tfx/guide/evaluator)\ncomponent in TFX, so these resources will be useful for getting started in TFX\nas well."]]