RetrieveTPUEmbeddingADAMParametersGradAccumDebug

classe finale publique RetrieveTPUEmbeddingADAMParametersGradAccumDebug

Récupérez les paramètres d’intégration ADAM avec la prise en charge du débogage.

Une opération qui récupère les paramètres d'optimisation de l'intégration dans la mémoire hôte. Doit être précédé d'une opération ConfigureTPUEmbeddingHost qui configure la configuration correcte de la table d'intégration. Par exemple, cette opération est utilisée pour récupérer les paramètres mis à jour avant d'enregistrer un point de contrôle.

Classes imbriquées

classe RécupérerTPUEmbeddingADAMParametersGradAccumDebug.Options Attributs facultatifs pour RetrieveTPUEmbeddingADAMParametersGradAccumDebug

Constantes

Chaîne OP_NAME Le nom de cette opération, tel que connu par le moteur principal TensorFlow

Méthodes publiques

statique RécupérerTPUEmbeddingADAMParametersGradAccumDebug.Options
config (configuration de chaîne)
statique RécupérerTPUEmbeddingADAMParametersGradAccumDebug
créer ( Scope scope, Long numShards, Long shardId, Options... options)
Méthode d'usine pour créer une classe encapsulant une nouvelle opération RetrieveTPUEmbeddingADAMParametersGradAccumDebug.
Sortie < TFloat32 >
gradientAccumulateurs ()
Paramètre gradient_accumulators mis à jour par l'algorithme d'optimisation ADAM.
Sortie < TFloat32 >
moment ()
Moment de paramètre mis à jour par l’algorithme d’optimisation ADAM.
Sortie < TFloat32 >
paramètres ()
Paramètres de paramètres mis à jour par l'algorithme d'optimisation ADAM.
statique RécupérerTPUEmbeddingADAMParametersGradAccumDebug.Options
ID de table (ID de table longue)
statique RécupérerTPUEmbeddingADAMParametersGradAccumDebug.Options
tableName (String tableName)
Sortie < TFloat32 >
vitesses ()
Vitesses des paramètres mises à jour par l'algorithme d'optimisation ADAM.

Méthodes héritées

Constantes

chaîne finale statique publique OP_NAME

Le nom de cette opération, tel que connu par le moteur principal TensorFlow

Valeur constante : "RécupérerTPUEmbeddingADAMParametersGradAccumDebug"

Méthodes publiques

configuration publique statique RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options (configuration de chaîne)

public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug create ( Scope scope, Long numShards, Long shardId, Options... options)

Méthode d'usine pour créer une classe encapsulant une nouvelle opération RetrieveTPUEmbeddingADAMParametersGradAccumDebug.

Paramètres
portée portée actuelle
choix porte des valeurs d'attributs facultatifs
Retour
  • une nouvelle instance de RetrieveTPUEmbeddingADAMParametersGradAccumDebug

Sortie publique < TFloat32 > gradientAccumulators ()

Paramètre gradient_accumulators mis à jour par l'algorithme d'optimisation ADAM.

Sortie publique < TFloat32 > momenta ()

Moment de paramètre mis à jour par l’algorithme d’optimisation ADAM.

Sortie publique < TFloat32 > paramètres ()

Paramètres de paramètres mis à jour par l'algorithme d'optimisation ADAM.

public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options tableId (Long tableId)

public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options tableName (String tableName)

sortie publique < TFloat32 > vitesses ()

Vitesses des paramètres mises à jour par l'algorithme d'optimisation ADAM.