Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
Diperbarui: Juni 2021
Model Optimization Toolkit (MOT) TensorFlow telah digunakan secara luas untuk mengonversi/mengoptimalkan model TensorFlow ke model TensorFlow Lite dengan ukuran lebih kecil, performa lebih baik, dan akurasi yang dapat diterima untuk menjalankannya di perangkat seluler dan IoT. Kami sekarang berupaya untuk memperluas teknik dan alat MOT di luar TensorFlow Lite untuk mendukung TensorFlow SavedModel juga.
Berikut ini merupakan ikhtisar tingkat tinggi dari peta jalan kami. Anda harus menyadari bahwa peta jalan ini dapat berubah sewaktu-waktu dan urutan di bawah ini tidak mencerminkan prioritas apa pun. Kami sangat menganjurkan Anda untuk mengomentari peta jalan kami dan memberi kami umpan balik dalam kelompok diskusi .
Kuantisasi
TensorFlow Lite
- Kuantisasi pasca pelatihan selektif untuk mengecualikan lapisan tertentu dari kuantisasi.
- Debugger kuantisasi untuk memeriksa kerugian kesalahan kuantisasi per lapisan.
- Menerapkan pelatihan sadar kuantisasi pada cakupan model yang lebih banyak, misalnya TensorFlow Model Garden.
- Peningkatan kualitas dan kinerja untuk rentang dinamis pasca pelatihan. kuantisasi.
Aliran Tensor
- Kuantisasi Pasca Pelatihan (rentang dinamis bf16 * int8).
- Pelatihan Sadar Kuantisasi ((bf16 * int8 hanya beban dengan kuantitas palsu).
- Kuantisasi pasca pelatihan selektif untuk mengecualikan lapisan tertentu dari kuantisasi.
- Debugger kuantisasi untuk memeriksa kerugian kesalahan kuantisasi per lapisan.
ketersebaran
TensorFlow Lite
- Dukungan eksekusi model jarang untuk lebih banyak model.
- Targetkan penulisan yang sadar untuk Sparsity.
- Perluas rangkaian operasi yang jarang dengan kernel x86 yang berkinerja baik.
Aliran Tensor
- Dukungan sparitas di TensorFlow.
Teknik kompresi berjenjang
- Kuantisasi + Kompresi Tensor + Ketersebaran: tunjukkan ketiga teknik yang bekerja bersama.
Kompresi
- API kompresi tensor untuk membantu pengembang algoritma kompresi mengimplementasikan algoritma kompresi model mereka sendiri (misalnya Weight Clustering) termasuk menyediakan cara standar untuk menguji/benchmark.
Kecuali dinyatakan lain, konten di halaman ini dilisensikan berdasarkan Lisensi Creative Commons Attribution 4.0, sedangkan contoh kode dilisensikan berdasarkan Lisensi Apache 2.0. Untuk mengetahui informasi selengkapnya, lihat Kebijakan Situs Google Developers. Java adalah merek dagang terdaftar dari Oracle dan/atau afiliasinya.
Terakhir diperbarui pada 2025-07-25 UTC.
[null,null,["Terakhir diperbarui pada 2025-07-25 UTC."],[],[],null,["\u003cbr /\u003e\n\n**Updated: June, 2021**\n\nTensorFlow's Model Optimization Toolkit (MOT) has been used widely for\nconverting/optimizing TensorFlow models to TensorFlow Lite models with smaller\nsize, better performance and acceptable accuracy to run them on mobile and IoT\ndevices. We are now working to extend MOT techniques and tooling beyond\nTensorFlow Lite to support TensorFlow SavedModel as well.\n\nThe following represents a high level overview of our roadmap. You should be\naware that this roadmap may change at any time and the order below does not\nreflect any type of priority. We strongly encourage you to comment on our\nroadmap and provide us feedback in the\n[discussion group](https://groups.google.com/a/tensorflow.org/g/tflite).\n\nQuantization\n------------\n\n#### TensorFlow Lite\n\n- Selective post-training quantization to exclude certain layers from quantization.\n- Quantization debugger to inspect quantization error losses per layer.\n- Applying quantization-aware training on more model coverage e.g. TensorFlow Model Garden.\n- Quality and performance improvements for post-training dynamic-range. quantization.\n\n#### TensorFlow\n\n- Post Training Quantization (bf16 \\* int8 dynamic range).\n- Quantization Aware Training ((bf16 \\* int8 weight-only with fake quant).\n- Selective post-training quantization to exclude certain layers from quantization.\n- Quantization debugger to inspect quantization error losses per layer.\n\nSparsity\n--------\n\n#### TensorFlow Lite\n\n- Sparse model execution support for more models.\n- Target aware authoring for Sparsity.\n- Extend sparse op set with performant x86 kernels.\n\n#### TensorFlow\n\n- Sparity support in TensorFlow.\n\nCascading compression techniques\n--------------------------------\n\n- Quantization + Tensor Compression + Sparsity: demonstrate all 3 techniques working together.\n\nCompression\n-----------\n\n- Tensor compression API to help compression algorithm developers implement their own model compression algorithm (e.g. Weight Clustering) including providing a standard way to test/benchmark."]]