Inferencia de TensorFlow Lite con metadatos

La inferencia de modelos con metadatos puede ser tan fácil como unas pocas líneas de código. Los metadatos de TensorFlow Lite contienen una descripción completa de lo que hace el modelo y cómo usarlo. Puede habilitar a los generadores de código para que generen automáticamente el código de inferencia por usted, como usar la función de vinculación de ML de Android Studio o el generador de código de Android TensorFlow Lite . También se puede usar para configurar su canalización de inferencia personalizada.

Herramientas y bibliotecas

TensorFlow Lite proporciona una variedad de herramientas y bibliotecas para satisfacer diferentes niveles de requisitos de implementación de la siguiente manera:

Generar interfaz de modelo con generadores de código de Android

Hay dos formas de generar automáticamente el código contenedor de Android necesario para el modelo TensorFlow Lite con metadatos:

  1. Android Studio ML Model Binding es una herramienta disponible dentro de Android Studio para importar el modelo TensorFlow Lite a través de una interfaz gráfica. Android Studio configurará automáticamente los ajustes para el proyecto y generará clases contenedoras basadas en los metadatos del modelo.

  2. TensorFlow Lite Code Generator es un ejecutable que genera una interfaz de modelo automáticamente en función de los metadatos. Actualmente es compatible con Android con Java. El código contenedor elimina la necesidad de interactuar directamente con ByteBuffer . En su lugar, los desarrolladores pueden interactuar con el modelo TensorFlow Lite con objetos escritos como Bitmap y Rect . Los usuarios de Android Studio también pueden obtener acceso a la función Codegen a través de Android Studio ML Binding .

Aprovecha las API listas para usar con la biblioteca de tareas de TensorFlow Lite

La biblioteca de tareas de TensorFlow Lite proporciona interfaces de modelo listas para usar y optimizadas para tareas populares de aprendizaje automático, como clasificación de imágenes, preguntas y respuestas, etc. Las interfaces de modelo están diseñadas específicamente para cada tarea a fin de lograr el mejor rendimiento y facilidad de uso. La biblioteca de tareas funciona en varias plataformas y es compatible con Java, C++ y Swift.

Cree canalizaciones de inferencia personalizadas con la biblioteca de compatibilidad de TensorFlow Lite

TensorFlow Lite Support Library es una biblioteca multiplataforma que ayuda a personalizar la interfaz del modelo y crear canalizaciones de inferencia. Contiene una variedad de métodos útiles y estructuras de datos para realizar el procesamiento previo y posterior y la conversión de datos. También está diseñado para coincidir con el comportamiento de los módulos de TensorFlow, como TF.Image y TF.Text, lo que garantiza la coherencia desde el entrenamiento hasta la inferencia.

Explore modelos preentrenados con metadatos

Explore los modelos alojados de TensorFlow Lite y TensorFlow Hub para descargar modelos previamente entrenados con metadatos para tareas de visión y texto. Ver también diferentes opciones de visualización de los metadatos .

Soporte de TensorFlow Lite repositorio de GitHub

Visite el repositorio de GitHub de soporte de TensorFlow Lite para obtener más ejemplos y código fuente. Háganos saber sus comentarios creando una nueva edición de GitHub .