Melhorando a qualidade do modelo com a análise de modelo do TensorFlow
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Introdução
Conforme você ajusta seu modelo durante o desenvolvimento, você precisa verificar se suas alterações estão melhorando seu modelo. Apenas verificar a precisão pode não ser suficiente. Por exemplo, se você tiver um classificador para um problema no qual 95% de suas instâncias são positivas, poderá melhorar a precisão simplesmente prevendo sempre positivo, mas não terá um classificador muito robusto.
Visão geral
O objetivo do TensorFlow Model Analysis é fornecer um mecanismo para avaliação de modelos no TFX. A análise de modelo do TensorFlow permite realizar avaliações de modelo no pipeline do TFX e visualizar métricas e gráficos resultantes em um notebook Jupyter. Especificamente, ele pode fornecer:
- Métricas calculadas em todo o conjunto de dados de treinamento e validação, bem como avaliações do dia seguinte
- Acompanhamento de métricas ao longo do tempo
- Desempenho de qualidade do modelo em diferentes fatias de recursos
- Validação do modelo para garantir que o modelo mantenha um desempenho consistente
Próximos passos
Experimente nosso tutorial TFMA .
Confira nossa página do github para obter detalhes sobre as métricas e gráficos compatíveis e as visualizações de notebook associadas.
Consulte os guias de instalação e introdução para obter informações e exemplos sobre como configurar um pipeline autônomo. Lembre-se de que o TFMA também é usado no componente Evaluator no TFX, portanto, esses recursos também serão úteis para começar no TFX.
Exceto em caso de indicação contrária, o conteúdo desta página é licenciado de acordo com a Licença de atribuição 4.0 do Creative Commons, e as amostras de código são licenciadas de acordo com a Licença Apache 2.0. Para mais detalhes, consulte as políticas do site do Google Developers. Java é uma marca registrada da Oracle e/ou afiliadas.
Última atualização 2022-05-31 UTC.
[null,null,["Última atualização 2022-05-31 UTC."],[],[],null,["# Improving Model Quality With TensorFlow Model Analysis\n\n\u003cbr /\u003e\n\nIntroduction\n------------\n\nAs you tweak your model during development, you need to check whether your\nchanges are improving your model. Just checking accuracy may not be enough. For\nexample, if you have a classifier for a problem in which 95% of your instances\nare positive, you may be able to improve accuracy by simply always predicting\npositive, but you won't have a very robust classifier.\n\nOverview\n--------\n\nThe goal of TensorFlow Model Analysis is to provide a mechanism for model\nevaluation in TFX. TensorFlow Model Analysis allows you to perform model\nevaluations in the TFX pipeline, and view resultant metrics and plots in a\nJupyter notebook. Specifically, it can provide:\n\n- [Metrics](../model_analysis/metrics) computed on entire training and holdout dataset, as well as next-day evaluations\n- Tracking metrics over time\n- Model quality performance on different feature slices\n- [Model validation](../model_analysis/model_validations) for ensuring that model's maintain consistent performance\n\nNext Steps\n----------\n\nTry our [TFMA tutorial](../tutorials/model_analysis/tfma_basic).\n\nCheck out our [github](https://github.com/tensorflow/model-analysis) page for\ndetails on the supported\n[metrics and plots](../model_analysis/metrics) and associated notebook\n[visualizations](../model_analysis/visualizations).\n\nSee the [installation](../model_analysis/install) and\n[getting started](../model_analysis/get_started) guides for information and\nexamples on how to get [set up](../model_analysis/setup) in a standalone\npipeline. Recall that TFMA is also used within the [Evaluator](/tfx/guide/evaluator)\ncomponent in TFX, so these resources will be useful for getting started in TFX\nas well."]]