Dziękujemy za zapoznanie się z Google I/O. Zobacz wszystkie sesje na żądanie Oglądaj na żądanie

Szybki start dla urządzeń opartych na systemie Linux z Pythonem

Używanie TensorFlow Lite z Pythonem jest świetne w przypadku urządzeń wbudowanych opartych na systemie Linux, takich jak urządzenia Raspberry Pi i Coral z Edge TPU , i wiele innych.

Ta strona pokazuje, jak w kilka minut można zacząć uruchamiać modele TensorFlow Lite w Pythonie. Wszystko czego potrzebujesz to model TensorFlow przekonwertowany na TensorFlow Lite . (Jeśli nie masz jeszcze przekonwertowanego modelu, możesz poeksperymentować z modelem dostarczonym z przykładem, do którego link znajduje się poniżej).

Informacje o pakiecie wykonawczym TensorFlow Lite

Aby szybko rozpocząć wykonywanie modeli TensorFlow Lite za pomocą Pythona, możesz zainstalować tylko interpreter TensorFlow Lite, zamiast wszystkich pakietów TensorFlow. Ten uproszczony pakiet Pythona tflite_runtime .

Pakiet tflite_runtime jest ułamkiem rozmiaru pełnego pakietu tensorflow i zawiera minimum kodu wymaganego do uruchomienia wnioskowania za pomocą TensorFlow Lite — przede wszystkim klasę Interpreter Python. Ten mały pakiet jest idealny, gdy wszystko, co chcesz zrobić, to uruchomić modele .tflite i uniknąć marnowania miejsca na dysku dzięki dużej bibliotece TensorFlow.

Zainstaluj TensorFlow Lite dla Pythona

Możesz zainstalować na Linuksie za pomocą pip:

python3 -m pip install tflite-runtime

Obsługiwane platformy

Koła Pythona tflite-runtime są wstępnie zbudowane i dostarczane dla tych platform:

  • Linux armv7l (np. Raspberry Pi 2, 3, 4 i Zero 2 z 32-bitowym systemem Raspberry Pi OS)
  • Linux aarch64 (np. Raspberry Pi 3, 4 z systemem Debian ARM64)
  • Linux x86_64

Jeśli chcesz uruchomić modele TensorFlow Lite na innych platformach, powinieneś użyć pełnego pakietu TensorFlow lub zbudować pakiet tflite-runtime ze źródła .

Jeśli używasz TensorFlow z Coral Edge TPU, powinieneś zamiast tego postępować zgodnie z odpowiednią dokumentacją konfiguracji Coral .

Uruchom wnioskowanie za pomocą tflite_runtime

Zamiast importować Interpreter z modułu tensorflow , musisz teraz zaimportować go z tflite_runtime .

Na przykład po zainstalowaniu powyższego pakietu skopiuj i uruchom plik label_image.py . To (prawdopodobnie) się nie powiedzie, ponieważ nie masz zainstalowanej biblioteki tensorflow . Aby to naprawić, edytuj ten wiersz pliku:

import tensorflow as tf

Więc zamiast tego brzmi:

import tflite_runtime.interpreter as tflite

A potem zmień tę linię:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Czyli brzmi:

interpreter = tflite.Interpreter(model_path=args.model_file)

Teraz ponownie uruchom label_image.py . Otóż ​​to! Wykonujesz teraz modele TensorFlow Lite.

Ucz się więcej

,

Używanie TensorFlow Lite z Pythonem jest świetne w przypadku urządzeń wbudowanych opartych na systemie Linux, takich jak urządzenia Raspberry Pi i Coral z Edge TPU , i wiele innych.

Ta strona pokazuje, jak w kilka minut można zacząć uruchamiać modele TensorFlow Lite w Pythonie. Wszystko czego potrzebujesz to model TensorFlow przekonwertowany na TensorFlow Lite . (Jeśli nie masz jeszcze przekonwertowanego modelu, możesz poeksperymentować z modelem dostarczonym z przykładem, do którego link znajduje się poniżej).

Informacje o pakiecie wykonawczym TensorFlow Lite

Aby szybko rozpocząć wykonywanie modeli TensorFlow Lite za pomocą Pythona, możesz zainstalować tylko interpreter TensorFlow Lite, zamiast wszystkich pakietów TensorFlow. Ten uproszczony pakiet Pythona tflite_runtime .

Pakiet tflite_runtime jest ułamkiem rozmiaru pełnego pakietu tensorflow i zawiera minimum kodu wymaganego do uruchomienia wnioskowania za pomocą TensorFlow Lite — przede wszystkim klasę Interpreter Python. Ten mały pakiet jest idealny, gdy wszystko, co chcesz zrobić, to uruchomić modele .tflite i uniknąć marnowania miejsca na dysku dzięki dużej bibliotece TensorFlow.

Zainstaluj TensorFlow Lite dla Pythona

Możesz zainstalować na Linuksie za pomocą pip:

python3 -m pip install tflite-runtime

Obsługiwane platformy

Koła Pythona tflite-runtime są wstępnie zbudowane i dostarczane dla tych platform:

  • Linux armv7l (np. Raspberry Pi 2, 3, 4 i Zero 2 z 32-bitowym systemem Raspberry Pi OS)
  • Linux aarch64 (np. Raspberry Pi 3, 4 z systemem Debian ARM64)
  • Linux x86_64

Jeśli chcesz uruchomić modele TensorFlow Lite na innych platformach, powinieneś użyć pełnego pakietu TensorFlow lub zbudować pakiet tflite-runtime ze źródła .

Jeśli używasz TensorFlow z Coral Edge TPU, powinieneś zamiast tego postępować zgodnie z odpowiednią dokumentacją konfiguracji Coral .

Uruchom wnioskowanie za pomocą tflite_runtime

Zamiast importować Interpreter z modułu tensorflow , musisz teraz zaimportować go z tflite_runtime .

Na przykład po zainstalowaniu powyższego pakietu skopiuj i uruchom plik label_image.py . To (prawdopodobnie) się nie powiedzie, ponieważ nie masz zainstalowanej biblioteki tensorflow . Aby to naprawić, edytuj ten wiersz pliku:

import tensorflow as tf

Więc zamiast tego brzmi:

import tflite_runtime.interpreter as tflite

A potem zmień tę linię:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Czyli brzmi:

interpreter = tflite.Interpreter(model_path=args.model_file)

Teraz ponownie uruchom label_image.py . Otóż ​​to! Wykonujesz teraz modele TensorFlow Lite.

Ucz się więcej