Quantizza un TensorBuffer
con zeroPoint
e scale
dati.
Nota: QuantizeOp
non trasmette l'output a UINT8, ma esegue solo i calcoli di quantizzazione sopra l'input. Il tipo di dati del tensore di output è sempre FLOAT32
, tranne per il fatto che Op è effettivamente un'identità Op (in questo caso, il tensore di output è la stessa istanza dell'input). Per connettersi con il modello quantizzato, probabilmente è necessario un CastOp
.
Se sia zeroPoint
che scale
sono 0, QuantizeOp
verrà ignorato, il che equivale a impostare zeroPoint
su 0 e scale
su 1. Ciò può essere utile quando si passano i parametri di quantizzazione estratti direttamente dal flatbuffer del modello TFLite. Se il tensore non è quantizzato, sia zeroPoint
che scale
verranno letti come 0.
Costruttori pubblici
QuantizeOp (float zeroPoint, scala float) |
Metodi ereditati
Costruttori pubblici
public QuantizeOp (float zeroPoint, scala float)
Parametri
punto zero | |
---|---|
scala |