Menggunakan TensorFlow Lite dengan Python sangat bagus untuk perangkat tertanam berbasis Linux, seperti perangkat Raspberry Pi dan Coral dengan Edge TPU , di antara banyak lainnya.
Halaman ini menunjukkan bagaimana Anda dapat mulai menjalankan model TensorFlow Lite dengan Python hanya dalam beberapa menit. Yang Anda butuhkan hanyalah model TensorFlow yang dikonversi ke TensorFlow Lite . (Jika Anda belum memiliki model yang dikonversi, Anda dapat bereksperimen menggunakan model yang disediakan dengan contoh yang ditautkan di bawah ini.)
Tentang paket runtime TensorFlow Lite
Untuk mulai menjalankan model TensorFlow Lite dengan Python dengan cepat, Anda hanya dapat menginstal penerjemah TensorFlow Lite, bukan semua paket TensorFlow. Kami menyebut paket Python yang disederhanakan ini tflite_runtime
.
Paket tflite_runtime
adalah sebagian kecil dari ukuran paket tensorflow
penuh dan menyertakan kode minimum yang diperlukan untuk menjalankan inferensi dengan TensorFlow Lite—terutama kelas Interpreter
Python. Paket kecil ini ideal saat Anda hanya ingin menjalankan model .tflite
dan menghindari pemborosan ruang disk dengan library TensorFlow yang besar.
Instal TensorFlow Lite untuk Python
Anda dapat menginstal di Linux dengan pip:
python3 -m pip install tflite-runtime
Platform yang didukung
Roda Python tflite-runtime
sudah dibuat sebelumnya dan disediakan untuk platform ini:
- Linux armv7l (misalnya Raspberry Pi 2, 3, 4 dan Zero 2 yang menjalankan Raspberry Pi OS 32-bit)
- Linux aarch64 (misalnya Raspberry Pi 3, 4 menjalankan Debian ARM64)
- Linux x86_64
Jika Anda ingin menjalankan model TensorFlow Lite di platform lain, Anda harus menggunakan paket TensorFlow lengkap , atau membangun paket tflite-runtime dari sumber .
Jika Anda menggunakan TensorFlow dengan TPU Coral Edge, Anda harus mengikuti dokumentasi penyiapan Coral yang sesuai .
Jalankan inferensi menggunakan tflite_runtime
Alih-alih mengimpor Interpreter
dari modul tensorflow
, Anda sekarang perlu mengimpornya dari tflite_runtime
.
Misalnya, setelah Anda menginstal paket di atas, salin dan jalankan file label_image.py
. Ini (mungkin) akan gagal karena Anda tidak menginstal pustaka tensorflow
. Untuk memperbaikinya, edit baris file ini:
import tensorflow as tf
Jadi itu malah berbunyi:
import tflite_runtime.interpreter as tflite
Dan kemudian ubah baris ini:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Jadi bunyinya:
interpreter = tflite.Interpreter(model_path=args.model_file)
Sekarang jalankan label_image.py
lagi. Itu dia! Anda sekarang menjalankan model TensorFlow Lite.
Belajarlah lagi
Untuk detail selengkapnya tentang
Interpreter
API, baca Memuat dan menjalankan model dengan Python .Jika Anda memiliki Raspberry Pi, lihat seri video tentang cara menjalankan deteksi objek di Raspberry Pi menggunakan TensorFlow Lite.
Jika Anda menggunakan akselerator Coral ML, lihat contoh Coral di GitHub .
Untuk mengonversi model TensorFlow lainnya ke TensorFlow Lite, baca tentang TensorFlow Lite Converter .
Jika Anda ingin membuat roda
tflite_runtime
, baca Paket Roda Python Build TensorFlow Lite
Menggunakan TensorFlow Lite dengan Python sangat bagus untuk perangkat tertanam berbasis Linux, seperti perangkat Raspberry Pi dan Coral dengan Edge TPU , di antara banyak lainnya.
Halaman ini menunjukkan bagaimana Anda dapat mulai menjalankan model TensorFlow Lite dengan Python hanya dalam beberapa menit. Yang Anda butuhkan hanyalah model TensorFlow yang dikonversi ke TensorFlow Lite . (Jika Anda belum memiliki model yang dikonversi, Anda dapat bereksperimen menggunakan model yang disediakan dengan contoh yang ditautkan di bawah ini.)
Tentang paket runtime TensorFlow Lite
Untuk mulai menjalankan model TensorFlow Lite dengan Python dengan cepat, Anda hanya dapat menginstal penerjemah TensorFlow Lite, bukan semua paket TensorFlow. Kami menyebut paket Python yang disederhanakan ini tflite_runtime
.
Paket tflite_runtime
adalah sebagian kecil dari ukuran paket tensorflow
penuh dan menyertakan kode minimum yang diperlukan untuk menjalankan inferensi dengan TensorFlow Lite—terutama kelas Interpreter
Python. Paket kecil ini ideal saat Anda hanya ingin menjalankan model .tflite
dan menghindari pemborosan ruang disk dengan library TensorFlow yang besar.
Instal TensorFlow Lite untuk Python
Anda dapat menginstal di Linux dengan pip:
python3 -m pip install tflite-runtime
Platform yang didukung
Roda Python tflite-runtime
sudah dibuat sebelumnya dan disediakan untuk platform ini:
- Linux armv7l (misalnya Raspberry Pi 2, 3, 4 dan Zero 2 yang menjalankan Raspberry Pi OS 32-bit)
- Linux aarch64 (misalnya Raspberry Pi 3, 4 menjalankan Debian ARM64)
- Linux x86_64
Jika Anda ingin menjalankan model TensorFlow Lite di platform lain, Anda harus menggunakan paket TensorFlow lengkap , atau membangun paket tflite-runtime dari sumber .
Jika Anda menggunakan TensorFlow dengan TPU Coral Edge, Anda harus mengikuti dokumentasi penyiapan Coral yang sesuai .
Jalankan inferensi menggunakan tflite_runtime
Alih-alih mengimpor Interpreter
dari modul tensorflow
, Anda sekarang perlu mengimpornya dari tflite_runtime
.
Misalnya, setelah Anda menginstal paket di atas, salin dan jalankan file label_image.py
. Ini (mungkin) akan gagal karena Anda tidak menginstal pustaka tensorflow
. Untuk memperbaikinya, edit baris file ini:
import tensorflow as tf
Jadi itu malah berbunyi:
import tflite_runtime.interpreter as tflite
Dan kemudian ubah baris ini:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Jadi bunyinya:
interpreter = tflite.Interpreter(model_path=args.model_file)
Sekarang jalankan label_image.py
lagi. Itu dia! Anda sekarang menjalankan model TensorFlow Lite.
Belajarlah lagi
Untuk detail selengkapnya tentang
Interpreter
API, baca Memuat dan menjalankan model dengan Python .Jika Anda memiliki Raspberry Pi, lihat seri video tentang cara menjalankan deteksi objek di Raspberry Pi menggunakan TensorFlow Lite.
Jika Anda menggunakan akselerator Coral ML, lihat contoh Coral di GitHub .
Untuk mengonversi model TensorFlow lainnya ke TensorFlow Lite, baca tentang TensorFlow Lite Converter .
Jika Anda ingin membuat roda
tflite_runtime
, baca Paket Roda Python Build TensorFlow Lite