La classe wrapper pour un modèle TFLite et un interpréteur TFLite.
Remarque : Un Model
ne peut contenir qu'un seul modèle TFLite à la fois et contient toujours une instance d'interpréteur TFLite pour l'exécuter.
Classes imbriquées
classe | Modèle.Builder | Cette classe est obsolète. Veuillez utiliser Model.createModel(Context, String, Options) . | |
énumération | Modèle.Appareil | Type de périphérique d'exécution utilisé pour exécuter la classification. | |
classe | Modèle.Options | Options d'exécution du modèle. |
Méthodes publiques
vide | fermer () |
Modèle statique | createModel (contexte de contexte, String modelPath, options Model.Options ) Charge un modèle à partir des actifs et initialise l'interpréteur TFLite avec les options données. |
Modèle statique | createModel (contexte contextuel, String modelPath) Charge un modèle à partir des actifs et initialise l'interpréteur TFLite. |
MappedByteBuffer | obtenir des données () Renvoie les données du modèle mappées en mémoire. |
Tenseur | getInputTensor (int inputIndex) Obtient le Tensor associé à l'index d'entrée fourni. |
Tenseur | getOutputTensor (int outputIndex) Obtient le Tensor associé à l'index de sortie fourni. |
int[] | getOutputTensorShape (int outputIndex) Renvoie la forme de sortie. |
Chaîne | getPath () Renvoie le chemin du fichier modèle stocké dans Assets. |
vide |
Méthodes héritées
Méthodes publiques
public vide fermer ()
Modèle statique public createModel (contexte de contexte, String modelPath, options Model.Options )
Charge un modèle à partir des actifs et initialise l'interpréteur TFLite avec les options données.
Paramètres
contexte | Le contexte de l'application. |
---|---|
modèleChemin | Le chemin du fichier modèle. |
choix | Les options d'exécution du modèle. |
Jetés
IOException | si une exception se produit lors de l’ouverture du fichier modèle. |
---|
Voir également
Modèle statique public createModel (contexte contextuel, String modelPath)
Charge un modèle à partir des actifs et initialise l'interpréteur TFLite.
Les options par défaut sont : (1) périphérique CPU ; (2) un fil.
Paramètres
contexte | Le contexte de l'application. |
---|---|
modèleChemin | Le chemin du fichier modèle. |
Jetés
IOException | si une exception se produit lors de l’ouverture du fichier modèle. |
---|
Tensor public getInputTensor (int inputIndex)
Obtient le Tensor associé à l'index d'entrée fourni.
Paramètres
Indice d'entrée |
---|
Jetés
IllegalStateException | si l'interprète est fermé. |
---|
Tensor public getOutputTensor (int outputIndex)
Obtient le Tensor associé à l'index de sortie fourni.
Paramètres
Indice de sortie |
---|
Jetés
IllegalStateException | si l'interprète est fermé. |
---|
public int[] getOutputTensorShape (int outputIndex)
Renvoie la forme de sortie. Utile si la forme de sortie est déterminée uniquement lors de la création du graphique.
Paramètres
Indice de sortie |
---|
Jetés
IllegalStateException | si l'interprète est fermé. |
---|
public void run (entrées Object[] , Map < Integer , Object > sorties)
Exécute l'inférence de modèle sur plusieurs entrées et renvoie plusieurs sorties.
Paramètres
contributions | un tableau de données d’entrée. Les entrées doivent être dans le même ordre que les entrées du modèle. Chaque entrée peut être un tableau ou un tableau multidimensionnel, ou un ByteBuffer de types primitifs, notamment int, float, long et byte. ByteBuffer est le moyen préféré pour transmettre des données d'entrée volumineuses, alors que les types de chaîne nécessitent l'utilisation du chemin d'entrée du tableau (multidimensionnel). Lorsque ByteBuffer est utilisé, son contenu doit rester inchangé jusqu'à ce que l'inférence du modèle soit effectuée. |
---|---|
les sorties | une carte mappant les indices de sortie à des tableaux multidimensionnels de données de sortie ou à des ByteBuffer de types primitifs, notamment int, float, long et byte. Il lui suffit de conserver les entrées pour les sorties à utiliser. |