RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

classe finale publique RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

Récupérez les paramètres d'intégration SGD avec la prise en charge du débogage.

Une opération qui récupère les paramètres d'optimisation de l'intégration dans la mémoire hôte. Doit être précédé d'une opération ConfigureTPUEmbeddingHost qui configure la configuration correcte de la table d'intégration. Par exemple, cette opération est utilisée pour récupérer les paramètres mis à jour avant d'enregistrer un point de contrôle.

Classes imbriquées

classe RécupérerTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options Attributs facultatifs pour RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

Constantes

Chaîne OP_NAME Le nom de cette opération, tel que connu par le moteur principal TensorFlow

Méthodes publiques

static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
config (configuration de chaîne)
static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug
créer ( Scope scope, Long numShards, Long shardId, Options... options)
Méthode d'usine pour créer une classe encapsulant une nouvelle opération RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.
Sortie < TFloat32 >
gradientAccumulateurs ()
Paramètre gradient_accumulators mis à jour par l'algorithme d'optimisation Adadelta.
Sortie < TFloat32 >
paramètres ()
Paramètres paramètres mis à jour par l'algorithme d'optimisation de descente de gradient stochastique.
static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
ID de table (ID de table longue)
static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
tableName (String tableName)

Méthodes héritées

Constantes

chaîne finale statique publique OP_NAME

Le nom de cette opération, tel que connu par le moteur principal TensorFlow

Valeur constante : "RécupérerTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug"

Méthodes publiques

configuration publique statique RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options (configuration de chaîne)

public static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug créer ( Scope scope, Long numShards, Long shardId, Options... options)

Méthode d'usine pour créer une classe encapsulant une nouvelle opération RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.

Paramètres
portée portée actuelle
choix porte des valeurs d'attributs facultatifs
Retour
  • une nouvelle instance de RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

Sortie publique < TFloat32 > gradientAccumulators ()

Paramètre gradient_accumulators mis à jour par l'algorithme d'optimisation Adadelta.

Sortie publique < TFloat32 > paramètres ()

Paramètres paramètres mis à jour par l'algorithme d'optimisation de descente de gradient stochastique.