Menggunakan TensorFlow Lite dengan Python sangat bagus untuk perangkat tersemat berbasis Linux, seperti perangkat Raspberry Pi dan Coral dengan Edge TPU , dan banyak lainnya.
Halaman ini menunjukkan bagaimana Anda dapat mulai menjalankan model TensorFlow Lite dengan Python hanya dalam beberapa menit. Yang Anda perlukan hanyalah model TensorFlow yang dikonversi ke TensorFlow Lite . (Jika Anda belum memiliki model yang dikonversi, Anda dapat bereksperimen menggunakan model yang disediakan dengan contoh yang ditautkan di bawah.)
Tentang paket runtime TensorFlow Lite
Untuk mulai mengeksekusi model TensorFlow Lite dengan Python dengan cepat, Anda dapat menginstal interpreter TensorFlow Lite saja, bukan semua paket TensorFlow. Kami menyebutnya paket Python sederhana ini tflite_runtime
.
Paket tflite_runtime
berukuran lebih kecil dari paket tensorflow
lengkap dan menyertakan kode minimum yang diperlukan untuk menjalankan inferensi dengan TensorFlow Lite—terutama kelas Interpreter
Python. Paket kecil ini ideal ketika Anda hanya ingin menjalankan model .tflite
dan menghindari pemborosan ruang disk dengan pustaka TensorFlow yang besar.
Instal TensorFlow Lite untuk Python
Anda dapat menginstal di Linux dengan pip:
python3 -m pip install tflite-runtime
Platform yang didukung
Roda Python tflite-runtime
sudah dibuat sebelumnya dan disediakan untuk platform berikut:
- Linux armv7l (misalnya Raspberry Pi 2, 3, 4 dan Zero 2 yang menjalankan Raspberry Pi OS 32-bit)
- Linux aarch64 (misalnya Raspberry Pi 3, 4 menjalankan Debian ARM64)
- Linuxx86_64
Jika Anda ingin menjalankan model TensorFlow Lite di platform lain, Anda harus menggunakan paket TensorFlow lengkap , atau membuat paket tflite-runtime dari source .
Jika Anda menggunakan TensorFlow dengan Coral Edge TPU, Anda sebaiknya mengikuti dokumentasi penyiapan Coral yang sesuai.
Jalankan inferensi menggunakan tflite_runtime
Daripada mengimpor Interpreter
dari modul tensorflow
, Anda sekarang perlu mengimpornya dari tflite_runtime
.
Misalnya setelah Anda menginstal paket di atas, salin dan jalankan file label_image.py
. Ini (mungkin) akan gagal karena Anda belum menginstal perpustakaan tensorflow
. Untuk memperbaikinya, edit baris file ini:
import tensorflow as tf
Jadi malah berbunyi:
import tflite_runtime.interpreter as tflite
Dan kemudian ubah baris ini:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Jadi bunyinya:
interpreter = tflite.Interpreter(model_path=args.model_file)
Sekarang jalankan label_image.py
lagi. Itu dia! Anda sekarang menjalankan model TensorFlow Lite.
Belajarlah lagi
Untuk detail selengkapnya tentang
Interpreter
API, baca Memuat dan menjalankan model dengan Python .Jika Anda memiliki Raspberry Pi, lihat serial video tentang cara menjalankan deteksi objek di Raspberry Pi menggunakan TensorFlow Lite.
Jika Anda menggunakan akselerator Coral ML, lihat contoh Coral di GitHub .
Untuk mengonversi model TensorFlow lainnya ke TensorFlow Lite, baca tentang TensorFlow Lite Converter .
Jika Anda ingin membuat roda
tflite_runtime
, baca Paket Python Wheel Build TensorFlow Lite