Cải thiện chất lượng mô hình bằng phân tích mô hình TensorFlow
Sử dụng bộ sưu tập để sắp xếp ngăn nắp các trang
Lưu và phân loại nội dung dựa trên lựa chọn ưu tiên của bạn.
Giới thiệu
Khi bạn điều chỉnh mô hình của mình trong quá trình phát triển, bạn cần kiểm tra xem những thay đổi của bạn có cải thiện mô hình của bạn hay không. Chỉ kiểm tra độ chính xác có thể là không đủ. Ví dụ: nếu bạn có một bộ phân loại cho một vấn đề trong đó 95% trường hợp của bạn là dương, bạn có thể cải thiện độ chính xác bằng cách luôn dự đoán là dương, nhưng bạn sẽ không có một bộ phân loại mạnh mẽ.
Tổng quan
Mục tiêu của Phân tích mô hình TensorFlow là cung cấp cơ chế đánh giá mô hình trong TFX. Phân tích mô hình TensorFlow cho phép bạn thực hiện đánh giá mô hình trong quy trình TFX, đồng thời xem các số liệu và sơ đồ kết quả trong sổ ghi chép Jupyter. Cụ thể, nó có thể cung cấp:
- Số liệu được tính toán trên toàn bộ tập dữ liệu đào tạo và tập hợp lại, cũng như các đánh giá vào ngày hôm sau
- Theo dõi số liệu theo thời gian
- Hiệu suất chất lượng mô hình trên các lát tính năng khác nhau
- Xác thực mô hình để đảm bảo mô hình đó duy trì hiệu suất ổn định
Bước tiếp theo
Hãy thử hướng dẫn TFMA của chúng tôi.
Hãy xem trang github của chúng tôi để biết chi tiết về các số liệu và sơ đồ được hỗ trợ cũng như trực quan hóa sổ ghi chép liên quan.
Xem hướng dẫn cài đặt và bắt đầu để biết thông tin và ví dụ về cách thiết lập trong quy trình độc lập. Hãy nhớ lại rằng TFMA cũng được sử dụng trong thành phần Người đánh giá trong TFX, vì vậy những tài nguyên này cũng sẽ hữu ích khi bắt đầu sử dụng TFX.
Trừ phi có lưu ý khác, nội dung của trang này được cấp phép theo Giấy phép ghi nhận tác giả 4.0 của Creative Commons và các mẫu mã lập trình được cấp phép theo Giấy phép Apache 2.0. Để biết thông tin chi tiết, vui lòng tham khảo Chính sách trang web của Google Developers. Java là nhãn hiệu đã đăng ký của Oracle và/hoặc các đơn vị liên kết với Oracle.
Cập nhật lần gần đây nhất: 2025-07-25 UTC.
[null,null,["Cập nhật lần gần đây nhất: 2025-07-25 UTC."],[],[],null,["# Improving Model Quality With TensorFlow Model Analysis\n\n\u003cbr /\u003e\n\nIntroduction\n------------\n\nAs you tweak your model during development, you need to check whether your\nchanges are improving your model. Just checking accuracy may not be enough. For\nexample, if you have a classifier for a problem in which 95% of your instances\nare positive, you may be able to improve accuracy by simply always predicting\npositive, but you won't have a very robust classifier.\n\nOverview\n--------\n\nThe goal of TensorFlow Model Analysis is to provide a mechanism for model\nevaluation in TFX. TensorFlow Model Analysis allows you to perform model\nevaluations in the TFX pipeline, and view resultant metrics and plots in a\nJupyter notebook. Specifically, it can provide:\n\n- [Metrics](../model_analysis/metrics) computed on entire training and holdout dataset, as well as next-day evaluations\n- Tracking metrics over time\n- Model quality performance on different feature slices\n- [Model validation](../model_analysis/model_validations) for ensuring that model's maintain consistent performance\n\nNext Steps\n----------\n\nTry our [TFMA tutorial](../tutorials/model_analysis/tfma_basic).\n\nCheck out our [github](https://github.com/tensorflow/model-analysis) page for\ndetails on the supported\n[metrics and plots](../model_analysis/metrics) and associated notebook\n[visualizations](../model_analysis/visualizations).\n\nSee the [installation](../model_analysis/install) and\n[getting started](../model_analysis/get_started) guides for information and\nexamples on how to get [set up](../model_analysis/setup) in a standalone\npipeline. Recall that TFMA is also used within the [Evaluator](/tfx/guide/evaluator)\ncomponent in TFX, so these resources will be useful for getting started in TFX\nas well."]]