เริ่มต้นใช้งานการเพิ่มประสิทธิภาพโมเดล TensorFlow
จัดทุกอย่างให้เป็นระเบียบอยู่เสมอด้วยคอลเล็กชัน
บันทึกและจัดหมวดหมู่เนื้อหาตามค่ากำหนดของคุณ
1. เลือกรุ่นที่ดีที่สุดสำหรับงาน
คุณจะต้องทำการแลกเปลี่ยนระหว่างความซับซ้อนและขนาดของโมเดล ทั้งนี้ขึ้นอยู่กับงาน หากงานของคุณต้องการความแม่นยำสูง คุณอาจต้องแบบจำลองที่มีขนาดใหญ่และซับซ้อน สำหรับงานที่ต้องการความแม่นยำน้อยกว่า ควรใช้โมเดลที่เล็กกว่าเพราะไม่เพียงแต่ใช้พื้นที่ดิสก์และหน่วยความจำน้อยลงเท่านั้น แต่โดยทั่วไปยังเร็วกว่าและประหยัดพลังงานมากกว่าอีกด้วย
2. โมเดลที่ปรับให้เหมาะสมล่วงหน้า
ดูว่า โมเดลที่เพิ่มประสิทธิภาพล่วงหน้าของ TensorFlow Lite ที่มีอยู่ให้ประสิทธิภาพตามที่แอปพลิเคชันของคุณต้องการหรือไม่
3. เครื่องมือหลังการฝึกอบรม
หากคุณไม่สามารถใช้โมเดลที่ฝึกไว้ล่วงหน้ากับแอปพลิเคชันของคุณได้ ให้ลองใช้ เครื่องมือวัดปริมาณหลังการฝึก TensorFlow Lite ในระหว่าง การแปลง TensorFlow Lite ซึ่งสามารถเพิ่มประสิทธิภาพโมเดล TensorFlow ที่ผ่านการฝึกแล้วของคุณได้
ดู บทแนะนำการวัดปริมาณหลังการฝึกอบรม เพื่อเรียนรู้เพิ่มเติม
หากโซลูชันง่ายๆ ข้างต้นไม่ตรงตามความต้องการของคุณ คุณอาจต้องใช้เทคนิคการเพิ่มประสิทธิภาพเวลาการฝึกอบรม เพิ่มประสิทธิภาพเพิ่มเติม ด้วยเครื่องมือเวลาการฝึกอบรมของเราและเจาะลึกยิ่งขึ้น
เนื้อหาของหน้าเว็บนี้ได้รับอนุญาตภายใต้ใบอนุญาตที่ต้องระบุที่มาของครีเอทีฟคอมมอนส์ 4.0 และตัวอย่างโค้ดได้รับอนุญาตภายใต้ใบอนุญาต Apache 2.0 เว้นแต่จะระบุไว้เป็นอย่างอื่น โปรดดูรายละเอียดที่นโยบายเว็บไซต์ Google Developers Java เป็นเครื่องหมายการค้าจดทะเบียนของ Oracle และ/หรือบริษัทในเครือ
อัปเดตล่าสุด 2025-07-25 UTC
[null,null,["อัปเดตล่าสุด 2025-07-25 UTC"],[],[],null,["# Get started with TensorFlow model optimization\n\n\u003cbr /\u003e\n\n1. Choose the best model for the task\n-------------------------------------\n\nDepending on the task, you will need to make a tradeoff between model complexity\nand size. If your task requires high accuracy, then you may need a large and\ncomplex model. For tasks that require less precision, it is better to use a\nsmaller model because they not only use less disk space and memory, but they are\nalso generally faster and more energy efficient.\n\n2. Pre-optimized models\n-----------------------\n\nSee if any existing\n[TensorFlow Lite pre-optimized models](https://www.tensorflow.org/lite/models)\nprovide the efficiency required by your application.\n\n3. Post-training tooling\n------------------------\n\nIf you cannot use a pre-trained model for your application, try using\n[TensorFlow Lite post-training quantization tools](./quantization/post_training)\nduring [TensorFlow Lite conversion](https://www.tensorflow.org/lite/convert),\nwhich can optimize your already-trained TensorFlow model.\n\nSee the\n[post-training quantization tutorial](https://github.com/tensorflow/tensorflow/blob/master/tensorflow/lite/g3doc/performance/post_training_quant.ipynb)\nto learn more.\n\nNext steps: Training-time tooling\n---------------------------------\n\nIf the above simple solutions don't satisfy your needs, you may need to involve\ntraining-time optimization techniques.\n[Optimize further](/model_optimization/guide/optimize_further) with our training-time tools and dig\ndeeper."]]