Quantise un TensorBuffer
avec zeroPoint
et scale
donnés.
Remarque : QuantizeOp
ne convertit pas la sortie en UINT8, mais effectue uniquement les calculs de quantification au-dessus de l'entrée. Le type de données du tenseur de sortie est toujours FLOAT32
sauf que l'Op est effectivement un Op d'identité (dans ce cas, le tenseur de sortie est la même instance que l'entrée). Pour se connecter au modèle quantifié, un CastOp
est probablement nécessaire.
Si zeroPoint
et scale
sont tous deux égaux à 0, QuantizeOp
sera contourné, ce qui équivaut à définir zeroPoint
sur 0 et scale
sur 1. Cela peut être utile lors de la transmission des paramètres de quantification qui sont extraits directement du tampon plat du modèle TFLite. Si le tenseur n'est pas quantifié, zeroPoint
et scale
seront lus comme 0.
Constructeurs Publics
QuantizeOp (point zéro flottant, échelle flottante) |
Méthodes héritées
Constructeurs Publics
public QuantizeOp (float zeroPoint, échelle flottante)
Paramètres
zéro point | |
---|---|
échelle |