Meningkatkan Kualitas Model Dengan Analisis Model TensorFlow
Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
Perkenalan
Saat Anda mengubah model selama pengembangan, Anda perlu memeriksa apakah perubahan Anda meningkatkan model Anda. Hanya memeriksa keakuratannya mungkin tidak cukup. Misalnya, jika Anda memiliki pengklasifikasi untuk suatu masalah yang 95% contohnya positif, Anda mungkin dapat meningkatkan akurasi hanya dengan selalu memprediksi positif, namun Anda tidak akan memiliki pengklasifikasi yang sangat kuat.
Ringkasan
Tujuan Analisis Model TensorFlow adalah menyediakan mekanisme evaluasi model di TFX. Analisis Model TensorFlow memungkinkan Anda melakukan evaluasi model di pipeline TFX, dan melihat metrik dan plot yang dihasilkan di notebook Jupyter. Secara khusus, ini dapat menyediakan:
- Metrik dihitung pada seluruh kumpulan data pelatihan dan ketidaksepakatan, serta evaluasi hari berikutnya
- Melacak metrik dari waktu ke waktu
- Memodelkan kinerja kualitas pada potongan fitur yang berbeda
- Validasi model untuk memastikan model mempertahankan performa yang konsisten
Langkah selanjutnya
Coba tutorial TFMA kami.
Lihat halaman github kami untuk detail tentang metrik dan plot yang didukung serta visualisasi buku catatan terkait.
Lihat panduan instalasi dan memulai untuk informasi dan contoh tentang cara menyiapkan dalam pipeline mandiri. Ingatlah bahwa TFMA juga digunakan dalam komponen Evaluator di TFX, jadi sumber daya ini juga akan berguna untuk memulai di TFX.
Kecuali dinyatakan lain, konten di halaman ini dilisensikan berdasarkan Lisensi Creative Commons Attribution 4.0, sedangkan contoh kode dilisensikan berdasarkan Lisensi Apache 2.0. Untuk mengetahui informasi selengkapnya, lihat Kebijakan Situs Google Developers. Java adalah merek dagang terdaftar dari Oracle dan/atau afiliasinya.
Terakhir diperbarui pada 2025-07-25 UTC.
[null,null,["Terakhir diperbarui pada 2025-07-25 UTC."],[],[],null,["# Improving Model Quality With TensorFlow Model Analysis\n\n\u003cbr /\u003e\n\nIntroduction\n------------\n\nAs you tweak your model during development, you need to check whether your\nchanges are improving your model. Just checking accuracy may not be enough. For\nexample, if you have a classifier for a problem in which 95% of your instances\nare positive, you may be able to improve accuracy by simply always predicting\npositive, but you won't have a very robust classifier.\n\nOverview\n--------\n\nThe goal of TensorFlow Model Analysis is to provide a mechanism for model\nevaluation in TFX. TensorFlow Model Analysis allows you to perform model\nevaluations in the TFX pipeline, and view resultant metrics and plots in a\nJupyter notebook. Specifically, it can provide:\n\n- [Metrics](../model_analysis/metrics) computed on entire training and holdout dataset, as well as next-day evaluations\n- Tracking metrics over time\n- Model quality performance on different feature slices\n- [Model validation](../model_analysis/model_validations) for ensuring that model's maintain consistent performance\n\nNext Steps\n----------\n\nTry our [TFMA tutorial](../tutorials/model_analysis/tfma_basic).\n\nCheck out our [github](https://github.com/tensorflow/model-analysis) page for\ndetails on the supported\n[metrics and plots](../model_analysis/metrics) and associated notebook\n[visualizations](../model_analysis/visualizations).\n\nSee the [installation](../model_analysis/install) and\n[getting started](../model_analysis/get_started) guides for information and\nexamples on how to get [set up](../model_analysis/setup) in a standalone\npipeline. Recall that TFMA is also used within the [Evaluator](/tfx/guide/evaluator)\ncomponent in TFX, so these resources will be useful for getting started in TFX\nas well."]]