El uso de TensorFlow Lite con Python es ideal para dispositivos integrados basados en Linux, como dispositivos Raspberry Pi y Coral con Edge TPU , entre muchos otros.
Esta página muestra cómo puede comenzar a ejecutar modelos de TensorFlow Lite con Python en solo unos minutos. Todo lo que necesita es un modelo de TensorFlow convertido a TensorFlow Lite . (Si aún no tiene un modelo convertido, puede experimentar usando el modelo provisto con el ejemplo vinculado a continuación).
Acerca del paquete de tiempo de ejecución de TensorFlow Lite
Para comenzar rápidamente a ejecutar modelos de TensorFlow Lite con Python, puede instalar solo el intérprete de TensorFlow Lite, en lugar de todos los paquetes de TensorFlow. Llamamos a este paquete simplificado de Python tflite_runtime
.
El paquete tflite_runtime
es una fracción del tamaño del paquete completo de tensorflow
e incluye el código mínimo necesario para ejecutar inferencias con TensorFlow Lite, principalmente la clase Interpreter
Python. Este pequeño paquete es ideal cuando todo lo que desea hacer es ejecutar modelos .tflite
y evitar desperdiciar espacio en disco con la gran biblioteca TensorFlow.
Instalar TensorFlow Lite para Python
Puede instalar en Linux con pip:
python3 -m pip install tflite-runtime
Plataformas compatibles
Las ruedas de Python tflite-runtime
están preconstruidas y se proporcionan para estas plataformas:
- Linux armv7l (p. ej., Raspberry Pi 2, 3, 4 y Zero 2 con sistema operativo Raspberry Pi de 32 bits)
- Linux aarch64 (por ejemplo, Raspberry Pi 3, 4 con Debian ARM64)
- linux x86_64
Si desea ejecutar modelos de TensorFlow Lite en otras plataformas, debe usar el paquete completo de TensorFlow o compilar el paquete tflite-runtime desde la fuente .
Si usa TensorFlow con Coral Edge TPU, debe seguir la documentación de configuración de Coral correspondiente.
Ejecutar una inferencia usando tflite_runtime
En lugar de importar Interpreter
desde el módulo tensorflow
, ahora debe importarlo desde tflite_runtime
.
Por ejemplo, después de instalar el paquete anterior, copie y ejecute el archivo label_image.py
. (Probablemente) fallará porque no tiene instalada la biblioteca tensorflow
. Para solucionarlo, edite esta línea del archivo:
import tensorflow as tf
Así que en su lugar dice:
import tflite_runtime.interpreter as tflite
Y luego cambia esta línea:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Entonces se lee:
interpreter = tflite.Interpreter(model_path=args.model_file)
Ahora ejecute label_image.py
nuevamente. ¡Eso es todo! Ahora está ejecutando modelos TensorFlow Lite.
Aprende más
Para obtener más detalles sobre la API de
Interpreter
, lea Cargar y ejecutar un modelo en Python .Si tiene una Raspberry Pi, vea una serie de videos sobre cómo ejecutar la detección de objetos en Raspberry Pi usando TensorFlow Lite.
Si usa un acelerador Coral ML, consulte los ejemplos de Coral en GitHub .
Para convertir otros modelos de TensorFlow a TensorFlow Lite, lea sobre TensorFlow Lite Converter .
Si desea compilar la rueda
tflite_runtime
, lea Build TensorFlow Lite Python Wheel Package
El uso de TensorFlow Lite con Python es ideal para dispositivos integrados basados en Linux, como dispositivos Raspberry Pi y Coral con Edge TPU , entre muchos otros.
Esta página muestra cómo puede comenzar a ejecutar modelos de TensorFlow Lite con Python en solo unos minutos. Todo lo que necesita es un modelo de TensorFlow convertido a TensorFlow Lite . (Si aún no tiene un modelo convertido, puede experimentar usando el modelo provisto con el ejemplo vinculado a continuación).
Acerca del paquete de tiempo de ejecución de TensorFlow Lite
Para comenzar rápidamente a ejecutar modelos de TensorFlow Lite con Python, puede instalar solo el intérprete de TensorFlow Lite, en lugar de todos los paquetes de TensorFlow. Llamamos a este paquete simplificado de Python tflite_runtime
.
El paquete tflite_runtime
es una fracción del tamaño del paquete completo de tensorflow
e incluye el código mínimo necesario para ejecutar inferencias con TensorFlow Lite, principalmente la clase Interpreter
Python. Este pequeño paquete es ideal cuando todo lo que desea hacer es ejecutar modelos .tflite
y evitar desperdiciar espacio en disco con la gran biblioteca TensorFlow.
Instalar TensorFlow Lite para Python
Puede instalar en Linux con pip:
python3 -m pip install tflite-runtime
Plataformas compatibles
Las ruedas de Python tflite-runtime
están preconstruidas y se proporcionan para estas plataformas:
- Linux armv7l (p. ej., Raspberry Pi 2, 3, 4 y Zero 2 con sistema operativo Raspberry Pi de 32 bits)
- Linux aarch64 (por ejemplo, Raspberry Pi 3, 4 con Debian ARM64)
- linux x86_64
Si desea ejecutar modelos de TensorFlow Lite en otras plataformas, debe usar el paquete completo de TensorFlow o compilar el paquete tflite-runtime desde la fuente .
Si usa TensorFlow con Coral Edge TPU, debe seguir la documentación de configuración de Coral correspondiente.
Ejecutar una inferencia usando tflite_runtime
En lugar de importar Interpreter
desde el módulo tensorflow
, ahora debe importarlo desde tflite_runtime
.
Por ejemplo, después de instalar el paquete anterior, copie y ejecute el archivo label_image.py
. (Probablemente) fallará porque no tiene instalada la biblioteca tensorflow
. Para solucionarlo, edite esta línea del archivo:
import tensorflow as tf
Así que en su lugar dice:
import tflite_runtime.interpreter as tflite
Y luego cambia esta línea:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Entonces se lee:
interpreter = tflite.Interpreter(model_path=args.model_file)
Ahora ejecute label_image.py
nuevamente. ¡Eso es todo! Ahora está ejecutando modelos TensorFlow Lite.
Aprende más
Para obtener más detalles sobre la API de
Interpreter
, lea Cargar y ejecutar un modelo en Python .Si tiene una Raspberry Pi, vea una serie de videos sobre cómo ejecutar la detección de objetos en Raspberry Pi usando TensorFlow Lite.
Si usa un acelerador Coral ML, consulte los ejemplos de Coral en GitHub .
Para convertir otros modelos de TensorFlow a TensorFlow Lite, lea sobre TensorFlow Lite Converter .
Si desea compilar la rueda
tflite_runtime
, lea Build TensorFlow Lite Python Wheel Package