Inicio rápido para dispositivos basados ​​en Linux con Python

El uso de TensorFlow Lite con Python es ideal para dispositivos integrados basados ​​en Linux, como dispositivos Raspberry Pi y Coral con Edge TPU , entre muchos otros.

Esta página muestra cómo puede comenzar a ejecutar modelos de TensorFlow Lite con Python en solo unos minutos. Todo lo que necesita es un modelo de TensorFlow convertido a TensorFlow Lite . (Si aún no tiene un modelo convertido, puede experimentar usando el modelo provisto con el ejemplo vinculado a continuación).

Acerca del paquete de tiempo de ejecución de TensorFlow Lite

Para comenzar rápidamente a ejecutar modelos de TensorFlow Lite con Python, puede instalar solo el intérprete de TensorFlow Lite, en lugar de todos los paquetes de TensorFlow. Llamamos a este paquete simplificado de Python tflite_runtime .

El paquete tflite_runtime es una fracción del tamaño del paquete completo de tensorflow e incluye el código mínimo necesario para ejecutar inferencias con TensorFlow Lite, principalmente la clase Interpreter Python. Este pequeño paquete es ideal cuando todo lo que desea hacer es ejecutar modelos .tflite y evitar desperdiciar espacio en disco con la gran biblioteca TensorFlow.

Instalar TensorFlow Lite para Python

Puede instalar en Linux con pip:

python3 -m pip install tflite-runtime

Plataformas compatibles

Las ruedas de Python tflite-runtime están preconstruidas y se proporcionan para estas plataformas:

  • Linux armv7l (p. ej., Raspberry Pi 2, 3, 4 y Zero 2 con sistema operativo Raspberry Pi de 32 bits)
  • Linux aarch64 (por ejemplo, Raspberry Pi 3, 4 con Debian ARM64)
  • linux x86_64

Si desea ejecutar modelos de TensorFlow Lite en otras plataformas, debe usar el paquete completo de TensorFlow o compilar el paquete tflite-runtime desde la fuente .

Si usa TensorFlow con Coral Edge TPU, debe seguir la documentación de configuración de Coral correspondiente.

Ejecutar una inferencia usando tflite_runtime

En lugar de importar Interpreter desde el módulo tensorflow , ahora debe importarlo desde tflite_runtime .

Por ejemplo, después de instalar el paquete anterior, copie y ejecute el archivo label_image.py . (Probablemente) fallará porque no tiene instalada la biblioteca tensorflow . Para solucionarlo, edite esta línea del archivo:

import tensorflow as tf

Así que en su lugar dice:

import tflite_runtime.interpreter as tflite

Y luego cambia esta línea:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Entonces se lee:

interpreter = tflite.Interpreter(model_path=args.model_file)

Ahora ejecute label_image.py nuevamente. ¡Eso es todo! Ahora está ejecutando modelos TensorFlow Lite.

Aprende más

,

El uso de TensorFlow Lite con Python es ideal para dispositivos integrados basados ​​en Linux, como dispositivos Raspberry Pi y Coral con Edge TPU , entre muchos otros.

Esta página muestra cómo puede comenzar a ejecutar modelos de TensorFlow Lite con Python en solo unos minutos. Todo lo que necesita es un modelo de TensorFlow convertido a TensorFlow Lite . (Si aún no tiene un modelo convertido, puede experimentar usando el modelo provisto con el ejemplo vinculado a continuación).

Acerca del paquete de tiempo de ejecución de TensorFlow Lite

Para comenzar rápidamente a ejecutar modelos de TensorFlow Lite con Python, puede instalar solo el intérprete de TensorFlow Lite, en lugar de todos los paquetes de TensorFlow. Llamamos a este paquete simplificado de Python tflite_runtime .

El paquete tflite_runtime es una fracción del tamaño del paquete completo de tensorflow e incluye el código mínimo necesario para ejecutar inferencias con TensorFlow Lite, principalmente la clase Interpreter Python. Este pequeño paquete es ideal cuando todo lo que desea hacer es ejecutar modelos .tflite y evitar desperdiciar espacio en disco con la gran biblioteca TensorFlow.

Instalar TensorFlow Lite para Python

Puede instalar en Linux con pip:

python3 -m pip install tflite-runtime

Plataformas compatibles

Las ruedas de Python tflite-runtime están preconstruidas y se proporcionan para estas plataformas:

  • Linux armv7l (p. ej., Raspberry Pi 2, 3, 4 y Zero 2 con sistema operativo Raspberry Pi de 32 bits)
  • Linux aarch64 (por ejemplo, Raspberry Pi 3, 4 con Debian ARM64)
  • linux x86_64

Si desea ejecutar modelos de TensorFlow Lite en otras plataformas, debe usar el paquete completo de TensorFlow o compilar el paquete tflite-runtime desde la fuente .

Si usa TensorFlow con Coral Edge TPU, debe seguir la documentación de configuración de Coral correspondiente.

Ejecutar una inferencia usando tflite_runtime

En lugar de importar Interpreter desde el módulo tensorflow , ahora debe importarlo desde tflite_runtime .

Por ejemplo, después de instalar el paquete anterior, copie y ejecute el archivo label_image.py . (Probablemente) fallará porque no tiene instalada la biblioteca tensorflow . Para solucionarlo, edite esta línea del archivo:

import tensorflow as tf

Así que en su lugar dice:

import tflite_runtime.interpreter as tflite

Y luego cambia esta línea:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Entonces se lee:

interpreter = tflite.Interpreter(model_path=args.model_file)

Ahora ejecute label_image.py nuevamente. ¡Eso es todo! Ahora está ejecutando modelos TensorFlow Lite.

Aprende más