Mulai cepat untuk perangkat berbasis Linux dengan Python

Menggunakan TensorFlow Lite dengan Python sangat bagus untuk perangkat tersemat berbasis Linux, seperti perangkat Raspberry Pi dan Coral dengan Edge TPU , dan banyak lainnya.

Halaman ini menunjukkan bagaimana Anda dapat mulai menjalankan model TensorFlow Lite dengan Python hanya dalam beberapa menit. Yang Anda perlukan hanyalah model TensorFlow yang dikonversi ke TensorFlow Lite . (Jika Anda belum memiliki model yang dikonversi, Anda dapat bereksperimen menggunakan model yang disediakan dengan contoh yang ditautkan di bawah.)

Tentang paket runtime TensorFlow Lite

Untuk mulai mengeksekusi model TensorFlow Lite dengan Python dengan cepat, Anda dapat menginstal interpreter TensorFlow Lite saja, bukan semua paket TensorFlow. Kami menyebutnya paket Python sederhana ini tflite_runtime .

Paket tflite_runtime berukuran lebih kecil dari paket tensorflow lengkap dan menyertakan kode minimum yang diperlukan untuk menjalankan inferensi dengan TensorFlow Lite—terutama kelas Interpreter Python. Paket kecil ini ideal ketika Anda hanya ingin menjalankan model .tflite dan menghindari pemborosan ruang disk dengan pustaka TensorFlow yang besar.

Instal TensorFlow Lite untuk Python

Anda dapat menginstal di Linux dengan pip:

python3 -m pip install tflite-runtime

Platform yang didukung

Roda Python tflite-runtime sudah dibuat sebelumnya dan disediakan untuk platform berikut:

  • Linux armv7l (misalnya Raspberry Pi 2, 3, 4 dan Zero 2 yang menjalankan Raspberry Pi OS 32-bit)
  • Linux aarch64 (misalnya Raspberry Pi 3, 4 menjalankan Debian ARM64)
  • Linuxx86_64

Jika Anda ingin menjalankan model TensorFlow Lite di platform lain, Anda harus menggunakan paket TensorFlow lengkap , atau membuat paket tflite-runtime dari source .

Jika Anda menggunakan TensorFlow dengan Coral Edge TPU, Anda sebaiknya mengikuti dokumentasi penyiapan Coral yang sesuai.

Jalankan inferensi menggunakan tflite_runtime

Daripada mengimpor Interpreter dari modul tensorflow , Anda sekarang perlu mengimpornya dari tflite_runtime .

Misalnya setelah Anda menginstal paket di atas, salin dan jalankan file label_image.py . Ini (mungkin) akan gagal karena Anda belum menginstal perpustakaan tensorflow . Untuk memperbaikinya, edit baris file ini:

import tensorflow as tf

Jadi malah berbunyi:

import tflite_runtime.interpreter as tflite

Dan kemudian ubah baris ini:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Jadi bunyinya:

interpreter = tflite.Interpreter(model_path=args.model_file)

Sekarang jalankan label_image.py lagi. Itu dia! Anda sekarang menjalankan model TensorFlow Lite.

Belajarlah lagi