Modelos preentrenados para TensorFlow Lite

Hay una variedad de modelos de código abierto ya capacitados que puede usar de inmediato con TensorFlow Lite para realizar muchas tareas de aprendizaje automático. El uso de modelos de TensorFlow Lite preentrenados le permite agregar funciones de aprendizaje automático a su aplicación de dispositivo móvil y perimetral rápidamente, sin tener que crear ni entrenar un modelo. Esta guía lo ayuda a encontrar y decidir sobre modelos entrenados para usar con TensorFlow Lite.

Puede comenzar a buscar modelos de TensorFlow Lite de inmediato según los casos de uso general en la sección Ejemplos de TensorFlow Lite , o buscar un conjunto más grande de modelos en TensorFlow Hub .

Encuentre un modelo para su aplicación

Encontrar un modelo TensorFlow Lite existente para su caso de uso puede ser complicado según lo que intente lograr. Aquí hay algunas formas recomendadas de descubrir modelos para usar con TensorFlow Lite:

Por ejemplo: la forma más rápida de encontrar y comenzar a usar modelos con TensorFlow Lite es explorar la sección Ejemplos de TensorFlow Lite para encontrar modelos que realicen una tarea similar a su caso de uso. Este breve catálogo de ejemplos proporciona modelos para casos de uso comunes con explicaciones de los modelos y código de muestra para que pueda comenzar a ejecutarlos y usarlos.

Por tipo de entrada de datos: además de ver ejemplos similares a su caso de uso, otra forma de descubrir modelos para su propio uso es considerar el tipo de datos que desea procesar, como audio, texto, imágenes o datos de video. Los modelos de aprendizaje automático se diseñan con frecuencia para usar con uno de estos tipos de datos, por lo que buscar modelos que manejen el tipo de datos que desea usar puede ayudarlo a reducir los modelos que debe considerar. En TensorFlow Hub , puede usar el filtro de dominio del problema para ver los tipos de datos del modelo y reducir su lista.

A continuación se enumeran enlaces a modelos de TensorFlow Lite en TensorFlow Hub para casos de uso comunes:

Elige entre modelos similares

Si su aplicación sigue un caso de uso común, como la clasificación de imágenes o la detección de objetos, es posible que deba decidir entre varios modelos de TensorFlow Lite, con diferentes tamaños binarios, tamaño de entrada de datos, velocidad de inferencia y calificaciones de precisión de predicción. Al decidir entre una serie de modelos, debe limitar sus opciones basándose primero en su restricción más limitante: tamaño del modelo, tamaño de los datos, velocidad de inferencia o precisión.

Si no está seguro de cuál es su restricción más limitante, asuma que es el tamaño del modelo y elija el modelo más pequeño disponible. Elegir un modelo pequeño le brinda la mayor flexibilidad en términos de los dispositivos en los que puede implementar y ejecutar el modelo con éxito. Los modelos más pequeños también suelen producir inferencias más rápidas, y las predicciones más rápidas generalmente crean mejores experiencias para el usuario final. Los modelos más pequeños suelen tener tasas de precisión más bajas, por lo que es posible que deba elegir modelos más grandes si la precisión de la predicción es su principal preocupación.

fuentes de modelos

Use la sección de ejemplos de TensorFlow Lite y TensorFlow Hub como sus primeros destinos para buscar y seleccionar modelos para usar con TensorFlow Lite. Estas fuentes generalmente tienen modelos seleccionados y actualizados para usar con TensorFlow Lite, y con frecuencia incluyen código de muestra para acelerar su proceso de desarrollo.

Modelos TensorFlow

Es posible convertir modelos regulares de TensorFlow al formato TensorFlow Lite. Para obtener más información sobre la conversión de modelos, consulte la documentación de TensorFlow Lite Converter . Puede encontrar modelos de TensorFlow en TensorFlow Hub y en TensorFlow Model Garden .