Guia de início rápido para dispositivos baseados em Linux com Python

Usar o TensorFlow Lite com Python é ótimo para dispositivos embarcados baseados em Linux, como dispositivos Raspberry Pi e Coral com Edge TPU, entre muitos outros.

Esta página mostra como você pode começar a executar modelos do TensorFlow Lite com Python em apenas alguns minutos. Tudo que você precisa é de um modelo do TensorFlow convertido para o TensorFlow Lite . (Se você ainda não tem um modelo convertido, você pode experimentar usar o modelo fornecido com o exemplo no link abaixo.)

Sobre o pacote de ambiente de execução do TensorFlow Lite

Para começar a executar rapidamente modelos do TensorFlow Lite com Python, você pode instalar apenas o interpretador do TensorFlow Lite, em vez de todos os pacotes do TensorFlow. Chamamos esse pacote Python simplificado tflite_runtime .

O pacote tflite_runtime tem uma fração do tamanho do pacote tensorflow completo e inclui o código mínimo necessário para executar inferências com TensorFlow Lite – principalmente a classe Interpreter Python. Este pequeno pacote é ideal quando tudo o que você deseja fazer é executar modelos .tflite e evitar o desperdício de espaço em disco com a grande biblioteca TensorFlow.

Instale o TensorFlow Lite para Python

Você pode instalar no Linux com pip:

python3 -m pip install tflite-runtime

Plataformas suportadas

As rodas Python tflite-runtime são pré-construídas e fornecidas para estas plataformas:

  • Linux armv7l (por exemplo, Raspberry Pi 2, 3, 4 e Zero 2 executando Raspberry Pi OS de 32 bits)
  • Linux aarch64 (por exemplo, Raspberry Pi 3, 4 executando Debian ARM64)
  • Linux x86_64

Se quiser executar modelos do TensorFlow Lite em outras plataformas, você deve usar o pacote completo do TensorFlow ou criar o pacote tflite-runtime a partir do código-fonte .

Se você estiver usando o TensorFlow com o Coral Edge TPU, siga a documentação de configuração apropriada do Coral .

Execute uma inferência usando tflite_runtime

Em vez de importar Interpreter do módulo tensorflow , agora você precisa importá-lo de tflite_runtime .

Por exemplo, depois de instalar o pacote acima, copie e execute o arquivo label_image.py . (provavelmente) falhará porque você não tem a biblioteca tensorflow instalada. Para consertar, edite esta linha do arquivo:

import tensorflow as tf

Então, em vez disso, lê-se:

import tflite_runtime.interpreter as tflite

E então altere esta linha:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Então diz:

interpreter = tflite.Interpreter(model_path=args.model_file)

Agora execute label_image.py novamente. É isso! Agora você está executando modelos do TensorFlow Lite.

Saber mais