Bắt đầu tối ưu hóa mô hình TensorFlow
Sử dụng bộ sưu tập để sắp xếp ngăn nắp các trang
Lưu và phân loại nội dung dựa trên lựa chọn ưu tiên của bạn.
1. Chọn mô hình tốt nhất cho nhiệm vụ
Tùy thuộc vào nhiệm vụ, bạn sẽ cần phải cân bằng giữa độ phức tạp và kích thước của mô hình. Nếu nhiệm vụ của bạn đòi hỏi độ chính xác cao thì bạn có thể cần một mô hình lớn và phức tạp. Đối với các tác vụ yêu cầu độ chính xác thấp hơn, tốt hơn nên sử dụng mô hình nhỏ hơn vì chúng không chỉ sử dụng ít dung lượng đĩa và bộ nhớ hơn mà nhìn chung còn nhanh hơn và tiết kiệm năng lượng hơn.
2. Các mô hình được tối ưu hóa trước
Xem liệu có bất kỳ mô hình được tối ưu hóa trước TensorFlow Lite hiện có nào mang lại hiệu quả mà ứng dụng của bạn yêu cầu hay không.
3. Dụng cụ sau đào tạo
Nếu bạn không thể sử dụng mô hình được đào tạo trước cho ứng dụng của mình, hãy thử sử dụng các công cụ lượng tử hóa sau đào tạo của TensorFlow Lite trong quá trình chuyển đổi TensorFlow Lite , công cụ này có thể tối ưu hóa mô hình TensorFlow đã được đào tạo của bạn.
Xem hướng dẫn lượng tử hóa sau đào tạo để tìm hiểu thêm.
Nếu các giải pháp đơn giản ở trên không đáp ứng được nhu cầu của bạn, bạn có thể cần sử dụng các kỹ thuật tối ưu hóa thời gian đào tạo. Tối ưu hóa hơn nữa với các công cụ dành cho thời gian đào tạo của chúng tôi và tìm hiểu sâu hơn.
Trừ phi có lưu ý khác, nội dung của trang này được cấp phép theo Giấy phép ghi nhận tác giả 4.0 của Creative Commons và các mẫu mã lập trình được cấp phép theo Giấy phép Apache 2.0. Để biết thông tin chi tiết, vui lòng tham khảo Chính sách trang web của Google Developers. Java là nhãn hiệu đã đăng ký của Oracle và/hoặc các đơn vị liên kết với Oracle.
Cập nhật lần gần đây nhất: 2025-07-25 UTC.
[null,null,["Cập nhật lần gần đây nhất: 2025-07-25 UTC."],[],[],null,["# Get started with TensorFlow model optimization\n\n\u003cbr /\u003e\n\n1. Choose the best model for the task\n-------------------------------------\n\nDepending on the task, you will need to make a tradeoff between model complexity\nand size. If your task requires high accuracy, then you may need a large and\ncomplex model. For tasks that require less precision, it is better to use a\nsmaller model because they not only use less disk space and memory, but they are\nalso generally faster and more energy efficient.\n\n2. Pre-optimized models\n-----------------------\n\nSee if any existing\n[TensorFlow Lite pre-optimized models](https://www.tensorflow.org/lite/models)\nprovide the efficiency required by your application.\n\n3. Post-training tooling\n------------------------\n\nIf you cannot use a pre-trained model for your application, try using\n[TensorFlow Lite post-training quantization tools](./quantization/post_training)\nduring [TensorFlow Lite conversion](https://www.tensorflow.org/lite/convert),\nwhich can optimize your already-trained TensorFlow model.\n\nSee the\n[post-training quantization tutorial](https://github.com/tensorflow/tensorflow/blob/master/tensorflow/lite/g3doc/performance/post_training_quant.ipynb)\nto learn more.\n\nNext steps: Training-time tooling\n---------------------------------\n\nIf the above simple solutions don't satisfy your needs, you may need to involve\ntraining-time optimization techniques.\n[Optimize further](/model_optimization/guide/optimize_further) with our training-time tools and dig\ndeeper."]]