Normalisation des lots.
Notez que la taille des Tensors 4D est définie par « NHWC » ou « NCHW ». La taille des Tensors 1D correspond à la dimension C des Tensors 4D.
Classes imbriquées
classe | FusedBatchNorm.Options | Attributs facultatifs pour FusedBatchNorm |
Constantes
Chaîne | OP_NAME | Le nom de cette opération, tel que connu par le moteur principal TensorFlow |
Méthodes publiques
Sortie <U> | lotMean () Un Tensor 1D pour la moyenne du lot calculée, à utiliser par TensorFlow pour calculer la moyenne cumulée. |
Sortie <U> | batchVariance () Un Tensor 1D pour la variance de lot calculée, à utiliser par TensorFlow pour calculer la variance courante. |
static <T étend TNumber , U étend TNumber > FusedBatchNorm <T, U> | créer ( Portée de portée , Opérande <T> x, Echelle de l'opérande <U>, Décalage de l'opérande <U>, Moyenne de l'opérande <U>, Variation de l'opérande <U>, Options... options) Méthode d'usine pour créer une classe encapsulant une nouvelle opération FusedBatchNorm. |
statique FusedBatchNorm.Options | dataFormat (Chaîne dataFormat) |
statique FusedBatchNorm.Options | epsilon (epsilon flottant) |
statique FusedBatchNorm.Options | exponentialAvgFactor (Flottant exponentialAvgFactor) |
statique FusedBatchNorm.Options | isTraining (isTraining booléen) |
Sortie <U> | réserveEspace1 () Un tenseur 1D pour la moyenne du lot calculée, à réutiliser dans le calcul du gradient. |
Sortie <U> | réserveEspace2 () Un tenseur 1D pour la variance du lot calculée (variance inversée dans le cas cuDNN), à réutiliser dans le calcul du gradient. |
Sortie <U> | réserveEspace3 () Un Tensor 1D pour certains résultats intermédiaires, à réutiliser dans le calcul du gradient pour une meilleure efficacité. |
Sortie <T> | oui () Un Tensor 4D pour les données de sortie. |
Méthodes héritées
Constantes
chaîne finale statique publique OP_NAME
Le nom de cette opération, tel que connu par le moteur principal TensorFlow
Méthodes publiques
sortie publique <U> batchMean ()
Un Tensor 1D pour la moyenne du lot calculée, à utiliser par TensorFlow pour calculer la moyenne cumulée.
sortie publique <U> batchVariance ()
Un Tensor 1D pour la variance de lot calculée, à utiliser par TensorFlow pour calculer la variance courante.
public static FusedBatchNorm <T, U> créer ( portée de la portée , opérande <T> x, échelle de l'opérande <U>, décalage de l'opérande <U>, moyenne de l'opérande <U>, variance de l'opérande <U>, options... options)
Méthode d'usine pour créer une classe encapsulant une nouvelle opération FusedBatchNorm.
Paramètres
portée | portée actuelle |
---|---|
X | Un Tensor 4D pour les données d'entrée. |
échelle | Un tenseur 1D pour le facteur de mise à l'échelle, pour mettre à l'échelle le x normalisé. |
compenser | Un tenseur 1D pour le décalage, pour passer au x normalisé. |
signifier | Un tenseur 1D pour la moyenne de la population. Utilisé à des fins d'inférence uniquement ; doit être vide pour l’entraînement. |
variance | Un tenseur 1D pour la variance de la population. Utilisé à des fins d'inférence uniquement ; doit être vide pour l’entraînement. |
choix | porte des valeurs d'attributs facultatifs |
Retour
- une nouvelle instance de FusedBatchNorm
public statique FusedBatchNorm.Options dataFormat (String dataFormat)
Paramètres
format de données | Le format de données pour x et y. Soit « NHWC » (par défaut) soit « NCHW ». |
---|
public statique FusedBatchNorm.Options epsilon (Float epsilon)
Paramètres
épsilon | Un petit nombre flottant ajouté à la variance de x. |
---|
public statique FusedBatchNorm.Options isTraining (booléen isTraining)
Paramètres
estFormation | Une valeur booléenne pour indiquer que l'opération est destinée à la formation (par défaut) ou à l'inférence. |
---|
sortie publique <U> reserveSpace1 ()
Un tenseur 1D pour la moyenne du lot calculée, à réutiliser dans le calcul du gradient.
sortie publique <U> reserveSpace2 ()
Un tenseur 1D pour la variance du lot calculée (variance inversée dans le cas cuDNN), à réutiliser dans le calcul du gradient.
sortie publique <U> reserveSpace3 ()
Un Tensor 1D pour certains résultats intermédiaires, à réutiliser dans le calcul du gradient pour une meilleure efficacité.