QuantizeOp

classe publique QuantizeOp

Quantise un TensorBuffer avec zeroPoint et scale donnés.

Remarque : QuantizeOp ne convertit pas la sortie en UINT8, mais effectue uniquement les calculs de quantification au-dessus de l'entrée. Le type de données du tenseur de sortie est toujours FLOAT32 sauf que l'Op est effectivement un Op d'identité (dans ce cas, le tenseur de sortie est la même instance que l'entrée). Pour se connecter au modèle quantifié, un CastOp est probablement nécessaire.

Si zeroPoint et scale sont tous deux égaux à 0, QuantizeOp sera contourné, ce qui équivaut à définir zeroPoint sur 0 et scale sur 1. Cela peut être utile lors de la transmission des paramètres de quantification qui sont extraits directement du tampon plat du modèle TFLite. Si le tenseur n'est pas quantifié, zeroPoint et scale seront lus comme 0.

Constructeurs Publics

QuantizeOp (point zéro flottant, échelle flottante)

Méthodes héritées

Constructeurs Publics

public QuantizeOp (float zeroPoint, échelle flottante)

Paramètres
zéro point
échelle