Modelli pre-addestrati per TensorFlow Lite

Esistono numerosi modelli open source già addestrati che puoi utilizzare immediatamente con TensorFlow Lite per eseguire molte attività di apprendimento automatico. L'utilizzo di modelli TensorFlow Lite pre-addestrati consente di aggiungere rapidamente funzionalità di apprendimento automatico all'applicazione per dispositivi mobili e perimetrali, senza dover creare e addestrare un modello. Questa guida ti aiuta a trovare e decidere i modelli addestrati da utilizzare con TensorFlow Lite.

Puoi iniziare subito a sfogliare i modelli TensorFlow Lite in base a casi d'uso generali nella sezione Esempi di TensorFlow Lite oppure sfogliare un insieme più ampio di modelli su TensorFlow Hub .

Trova un modello per la tua applicazione

Trovare un modello TensorFlow Lite esistente per il tuo caso d'uso può essere complicato a seconda di ciò che stai cercando di ottenere. Ecco alcuni modi consigliati per scoprire i modelli da utilizzare con TensorFlow Lite:

Ad esempio: il modo più veloce per trovare e iniziare a utilizzare i modelli con TensorFlow Lite è sfogliare la sezione Esempi di TensorFlow Lite per trovare modelli che eseguono un'attività simile al tuo caso d'uso. Questo breve catalogo di esempi fornisce modelli per casi d'uso comuni con spiegazioni dei modelli e codice di esempio per iniziare a eseguirli e utilizzarli.

Per tipo di input di dati: oltre a guardare esempi simili al tuo caso d'uso, un altro modo per scoprire modelli per uso personale è considerare il tipo di dati che desideri elaborare, come audio, testo, immagini o dati video. I modelli di machine learning sono spesso progettati per l'uso con uno di questi tipi di dati, quindi la ricerca di modelli che gestiscano il tipo di dati che si desidera utilizzare può aiutarti a restringere il campo dei modelli da considerare. Su TensorFlow Hub , puoi utilizzare il filtro del dominio Problema per visualizzare i tipi di dati del modello e restringere l'elenco.

Di seguito sono elencati i collegamenti ai modelli TensorFlow Lite su TensorFlow Hub per casi d'uso comuni:

Scegli tra modelli simili

Se la tua applicazione segue un caso d'uso comune come la classificazione di immagini o il rilevamento di oggetti, potresti trovarti a decidere tra più modelli TensorFlow Lite, con dimensioni binarie, dimensioni di input dei dati, velocità di inferenza e valutazioni di precisione della previsione variabili. Quando si decide tra diversi modelli, è necessario restringere le opzioni in base al vincolo più limitante: dimensione del modello, dimensione dei dati, velocità di inferenza o accuratezza.

Se non sei sicuro di quale sia il tuo vincolo più limitante, supponi che sia la dimensione del modello e scegli il modello più piccolo disponibile. La scelta di un modello piccolo offre la massima flessibilità in termini di dispositivi in ​​cui è possibile distribuire ed eseguire correttamente il modello. I modelli più piccoli in genere producono anche inferenze più rapide e previsioni più rapide generalmente creano migliori esperienze per l'utente finale. I modelli più piccoli in genere hanno tassi di accuratezza inferiori, quindi potrebbe essere necessario scegliere modelli più grandi se l'accuratezza della previsione è la tua preoccupazione principale.

Fonti per i modelli

Utilizzare la sezione Esempi di TensorFlow Lite e TensorFlow Hub come prime destinazioni per trovare e selezionare i modelli da utilizzare con TensorFlow Lite. Queste fonti generalmente dispongono di modelli aggiornati e curati da utilizzare con TensorFlow Lite e spesso includono codice di esempio per accelerare il processo di sviluppo.

Modelli TensorFlow

È possibile convertire i normali modelli TensorFlow nel formato TensorFlow Lite. Per ulteriori informazioni sulla conversione dei modelli, vedere la documentazione del convertitore TensorFlow Lite . Puoi trovare i modelli TensorFlow su TensorFlow Hub e nel TensorFlow Model Garden .