RetrieveTPUEmbeddingFTRLParametersGradAccumDebug

classe finale publique RetrieveTPUEmbeddingFTRLParametersGradAccumDebug

Récupérez les paramètres d’intégration FTRL avec la prise en charge du débogage.

Une opération qui récupère les paramètres d'optimisation de l'intégration dans la mémoire hôte. Doit être précédé d'une opération ConfigureTPUEmbeddingHost qui configure la configuration correcte de la table d'intégration. Par exemple, cette opération est utilisée pour récupérer les paramètres mis à jour avant d'enregistrer un point de contrôle.

Classes imbriquées

classe RécupérerTPUEmbeddingFTRLParametersGradAccumDebug.Options Attributs facultatifs pour RetrieveTPUEmbeddingFTRLParametersGradAccumDebug

Constantes

Chaîne OP_NAME Le nom de cette opération, tel que connu par le moteur principal TensorFlow

Méthodes publiques

Sortie < TFloat32 >
accumulateurs ()
Accumulateurs de paramètres mis à jour par l'algorithme d'optimisation FTRL.
statique RécupérerTPUEmbeddingFTRLParametersGradAccumDebug.Options
config (configuration de chaîne)
statique RécupérerTPUEmbeddingFTRLParametersGradAccumDebug
créer ( Scope scope, Long numShards, Long shardId, Options... options)
Méthode d'usine pour créer une classe encapsulant une nouvelle opération RetrieveTPUEmbeddingFTRLParametersGradAccumDebug.
Sortie < TFloat32 >
gradientAccumulateurs ()
Paramètre gradient_accumulators mis à jour par l'algorithme d'optimisation FTRL.
Sortie < TFloat32 >
linéaires ()
Linéaires des paramètres mis à jour par l'algorithme d'optimisation FTRL.
Sortie < TFloat32 >
paramètres ()
Paramètres des paramètres mis à jour par l'algorithme d'optimisation FTRL.
statique RécupérerTPUEmbeddingFTRLParametersGradAccumDebug.Options
ID de table (ID de table longue)
statique RécupérerTPUEmbeddingFTRLParametersGradAccumDebug.Options
tableName (String tableName)

Méthodes héritées

Constantes

chaîne finale statique publique OP_NAME

Le nom de cette opération, tel que connu par le moteur principal TensorFlow

Valeur constante : "RetrieveTPUEmbeddingFTRLParametersGradAccumDebug"

Méthodes publiques

sortie publique < TFloat32 > accumulateurs ()

Accumulateurs de paramètres mis à jour par l'algorithme d'optimisation FTRL.

configuration publique statique RetrieveTPUEmbeddingFTRLParametersGradAccumDebug.Options (configuration de chaîne)

public static RetrieveTPUEmbeddingFTRLParametersGradAccumDebug create ( Scope scope, Long numShards, Long shardId, Options... options)

Méthode d'usine pour créer une classe encapsulant une nouvelle opération RetrieveTPUEmbeddingFTRLParametersGradAccumDebug.

Paramètres
portée portée actuelle
choix porte des valeurs d'attributs facultatifs
Retour
  • une nouvelle instance de RetrieveTPUEmbeddingFTRLParametersGradAccumDebug

Sortie publique < TFloat32 > gradientAccumulators ()

Paramètre gradient_accumulators mis à jour par l'algorithme d'optimisation FTRL.

Sortie publique < TFloat32 > linéaires ()

Linéaires des paramètres mis à jour par l'algorithme d'optimisation FTRL.

Sortie publique < TFloat32 > paramètres ()

Paramètres des paramètres mis à jour par l'algorithme d'optimisation FTRL.

public static RetrieveTPUEmbeddingFTRLParametersGradAccumDebug.Options tableId (Long tableId)

public static RetrieveTPUEmbeddingFTRLParametersGradAccumDebug.Options tableName (String tableName)