Szybki start dla urządzeń z systemem Linux i językiem Python

Korzystanie z TensorFlow Lite z Pythonem doskonale sprawdza się w przypadku urządzeń wbudowanych opartych na systemie Linux, takich jak między innymi urządzenia Raspberry Pi i Coral z Edge TPU .

Na tej stronie pokazano, jak w ciągu zaledwie kilku minut rozpocząć uruchamianie modeli TensorFlow Lite w języku Python. Wszystko czego potrzebujesz to model TensorFlow przekonwertowany na TensorFlow Lite . (Jeśli nie masz jeszcze przekonwertowanego modelu, możesz poeksperymentować, korzystając z modelu dostarczonego w przykładzie, do którego link znajduje się poniżej.)

Informacje o pakiecie wykonawczym TensorFlow Lite

Aby szybko rozpocząć wykonywanie modeli TensorFlow Lite w języku Python, możesz zainstalować tylko interpreter TensorFlow Lite zamiast wszystkich pakietów TensorFlow. Nazywamy ten uproszczony pakiet Pythona tflite_runtime .

Pakiet tflite_runtime stanowi ułamek rozmiaru pełnego pakietu tensorflow i zawiera minimum kodu wymaganego do uruchamiania wniosków za pomocą TensorFlow Lite — głównie klasy Interpreter Python. Ten mały pakiet jest idealny, gdy wszystko, co chcesz zrobić, to wykonać modele .tflite i uniknąć marnowania miejsca na dysku dzięki dużej bibliotece TensorFlow.

Zainstaluj TensorFlow Lite dla Pythona

Możesz zainstalować na Linuksie za pomocą pip:

python3 -m pip install tflite-runtime

Obsługiwane platformy

Koła Pythona tflite-runtime są wstępnie zbudowane i dostępne dla następujących platform:

  • Linux armv7l (np. Raspberry Pi 2, 3, 4 i Zero 2 z systemem Raspberry Pi OS w wersji 32-bitowej)
  • Linux aarch64 (np. Raspberry Pi 3, 4 z systemem Debian ARM64)
  • Linux x86_64

Jeśli chcesz uruchamiać modele TensorFlow Lite na innych platformach, powinieneś albo użyć pełnego pakietu TensorFlow , albo zbudować pakiet tflite-runtime ze źródła .

Jeśli używasz TensorFlow z Coral Edge TPU, powinieneś zamiast tego postępować zgodnie z odpowiednią dokumentacją konfiguracji Coral .

Uruchom wnioskowanie za pomocą tflite_runtime

Zamiast importować Interpreter z modułu tensorflow , musisz teraz zaimportować go z tflite_runtime .

Na przykład po zainstalowaniu powyższego pakietu skopiuj i uruchom plik label_image.py . To (prawdopodobnie) zakończy się niepowodzeniem, ponieważ nie masz zainstalowanej biblioteki tensorflow . Aby to naprawić, edytuj tę linię pliku:

import tensorflow as tf

Zamiast tego brzmi zatem:

import tflite_runtime.interpreter as tflite

A następnie zmień tę linię:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Więc brzmi:

interpreter = tflite.Interpreter(model_path=args.model_file)

Teraz ponownie uruchom label_image.py . Otóż ​​to! Wykonujesz teraz modele TensorFlow Lite.

Ucz się więcej