L'utilisation de TensorFlow Lite avec Python est idéale pour les appareils embarqués basés sur Linux, tels que les appareils Raspberry Pi et Coral avec Edge TPU , entre autres.
Cette page montre comment vous pouvez commencer à exécuter des modèles TensorFlow Lite avec Python en quelques minutes seulement. Tout ce dont vous avez besoin est un modèle TensorFlow converti en TensorFlow Lite . (Si vous n'avez pas encore converti de modèle, vous pouvez expérimenter en utilisant le modèle fourni avec l'exemple ci-dessous.)
À propos du package d'exécution TensorFlow Lite
Pour commencer rapidement à exécuter des modèles TensorFlow Lite avec Python, vous pouvez installer uniquement l'interpréteur TensorFlow Lite, au lieu de tous les packages TensorFlow. Nous appelons ce package Python simplifié tflite_runtime
.
Le package tflite_runtime
est une fraction de la taille du package tensorflow
complet et inclut le code minimum requis pour exécuter des inférences avec TensorFlow Lite, principalement la classe Interpreter
Python. Ce petit package est idéal lorsque tout ce que vous voulez faire est d'exécuter des modèles .tflite
et d'éviter de gaspiller de l'espace disque avec la grande bibliothèque TensorFlow.
Installer TensorFlow Lite pour Python
Vous pouvez installer sur Linux avec pip :
python3 -m pip install tflite-runtime
Plates-formes prises en charge
Les roues Python tflite-runtime
sont prédéfinies et fournies pour ces plates-formes :
- Linux armv7l (par exemple Raspberry Pi 2, 3, 4 et Zero 2 exécutant Raspberry Pi OS 32 bits)
- Linux aarch64 (par exemple Raspberry Pi 3, 4 exécutant Debian ARM64)
- Linux x86_64
Si vous souhaitez exécuter des modèles TensorFlow Lite sur d'autres plates-formes, vous devez soit utiliser le package TensorFlow complet , soit créer le package tflite-runtime à partir de la source .
Si vous utilisez TensorFlow avec le TPU Coral Edge, vous devez plutôt suivre la documentation de configuration Coral appropriée .
Exécuter une inférence à l'aide de tflite_runtime
Au lieu d'importer Interpreter
depuis le module tensorflow
, vous devez maintenant l'importer depuis tflite_runtime
.
Par exemple, après avoir installé le package ci-dessus, copiez et exécutez le fichier label_image.py
. Cela échouera (probablement) car vous n'avez pas installé la bibliothèque tensorflow
. Pour résoudre ce problème, modifiez cette ligne du fichier :
import tensorflow as tf
Donc, il lit à la place:
import tflite_runtime.interpreter as tflite
Et puis changez cette ligne :
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Donc ça se lit :
interpreter = tflite.Interpreter(model_path=args.model_file)
Maintenant, exécutez à nouveau label_image.py
. C'est ça! Vous exécutez maintenant des modèles TensorFlow Lite.
Apprendre encore plus
Pour plus de détails sur l'API
Interpreter
, consultez Charger et exécuter un modèle en Python .Si vous avez un Raspberry Pi, regardez une série de vidéos sur la façon d'exécuter la détection d'objets sur Raspberry Pi à l'aide de TensorFlow Lite.
Si vous utilisez un accélérateur Coral ML, consultez les exemples Coral sur GitHub .
Pour convertir d'autres modèles TensorFlow en TensorFlow Lite, découvrez le convertisseur TensorFlow Lite .
Si vous souhaitez créer une roue
tflite_runtime
, lisez Build TensorFlow Lite Python Wheel Package
L'utilisation de TensorFlow Lite avec Python est idéale pour les appareils embarqués basés sur Linux, tels que les appareils Raspberry Pi et Coral avec Edge TPU , entre autres.
Cette page montre comment vous pouvez commencer à exécuter des modèles TensorFlow Lite avec Python en quelques minutes seulement. Tout ce dont vous avez besoin est un modèle TensorFlow converti en TensorFlow Lite . (Si vous n'avez pas encore converti de modèle, vous pouvez expérimenter en utilisant le modèle fourni avec l'exemple ci-dessous.)
À propos du package d'exécution TensorFlow Lite
Pour commencer rapidement à exécuter des modèles TensorFlow Lite avec Python, vous pouvez installer uniquement l'interpréteur TensorFlow Lite, au lieu de tous les packages TensorFlow. Nous appelons ce package Python simplifié tflite_runtime
.
Le package tflite_runtime
est une fraction de la taille du package tensorflow
complet et inclut le code minimum requis pour exécuter des inférences avec TensorFlow Lite, principalement la classe Interpreter
Python. Ce petit package est idéal lorsque tout ce que vous voulez faire est d'exécuter des modèles .tflite
et d'éviter de gaspiller de l'espace disque avec la grande bibliothèque TensorFlow.
Installer TensorFlow Lite pour Python
Vous pouvez installer sur Linux avec pip :
python3 -m pip install tflite-runtime
Plates-formes prises en charge
Les roues Python tflite-runtime
sont prédéfinies et fournies pour ces plates-formes :
- Linux armv7l (par exemple Raspberry Pi 2, 3, 4 et Zero 2 exécutant Raspberry Pi OS 32 bits)
- Linux aarch64 (par exemple Raspberry Pi 3, 4 exécutant Debian ARM64)
- Linux x86_64
Si vous souhaitez exécuter des modèles TensorFlow Lite sur d'autres plates-formes, vous devez soit utiliser le package TensorFlow complet , soit créer le package tflite-runtime à partir de la source .
Si vous utilisez TensorFlow avec le TPU Coral Edge, vous devez plutôt suivre la documentation de configuration Coral appropriée .
Exécuter une inférence à l'aide de tflite_runtime
Au lieu d'importer Interpreter
depuis le module tensorflow
, vous devez maintenant l'importer depuis tflite_runtime
.
Par exemple, après avoir installé le package ci-dessus, copiez et exécutez le fichier label_image.py
. Cela échouera (probablement) car vous n'avez pas installé la bibliothèque tensorflow
. Pour résoudre ce problème, modifiez cette ligne du fichier :
import tensorflow as tf
Donc, il lit à la place:
import tflite_runtime.interpreter as tflite
Et puis changez cette ligne :
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Donc ça se lit :
interpreter = tflite.Interpreter(model_path=args.model_file)
Maintenant, exécutez à nouveau label_image.py
. C'est ça! Vous exécutez maintenant des modèles TensorFlow Lite.
Apprendre encore plus
Pour plus de détails sur l'API
Interpreter
, consultez Charger et exécuter un modèle en Python .Si vous avez un Raspberry Pi, regardez une série de vidéos sur la façon d'exécuter la détection d'objets sur Raspberry Pi à l'aide de TensorFlow Lite.
Si vous utilisez un accélérateur Coral ML, consultez les exemples Coral sur GitHub .
Pour convertir d'autres modèles TensorFlow en TensorFlow Lite, découvrez le convertisseur TensorFlow Lite .
Si vous souhaitez créer une roue
tflite_runtime
, lisez Build TensorFlow Lite Python Wheel Package