Récupérez les paramètres d’intégration d’Adadelta avec la prise en charge du débogage.
Une opération qui récupère les paramètres d'optimisation de l'intégration dans la mémoire hôte. Doit être précédé d'une opération ConfigureTPUEmbeddingHost qui configure la configuration correcte de la table d'intégration. Par exemple, cette opération est utilisée pour récupérer les paramètres mis à jour avant d'enregistrer un point de contrôle.
Classes imbriquées
classe | RécupérerTPUEmbeddingAdadeltaParametersGradAccumDebug.Options | Attributs facultatifs pour RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug |
Méthodes publiques
Sortie <Flottant> | accumulateurs () Accumulateurs de paramètres mis à jour par l'algorithme d'optimisation Adadelta. |
statique RécupérerTPUEmbeddingAdadeltaParametersGradAccumDebug.Options | config (configuration de chaîne) |
statique RécupérerTPUEmbeddingAdadeltaParametersGradAccumDebug | créer ( Scope scope, Long numShards, Long shardId, Options... options) Méthode d'usine pour créer une classe encapsulant une nouvelle opération RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug. |
Sortie <Flottant> | gradientAccumulateurs () Paramètre gradient_accumulators mis à jour par l'algorithme d'optimisation Adadelta. |
Sortie <Flottant> | paramètres () Paramètres des paramètres mis à jour par l'algorithme d'optimisation Adadelta. |
statique RécupérerTPUEmbeddingAdadeltaParametersGradAccumDebug.Options | ID de table (ID de table longue) |
statique RécupérerTPUEmbeddingAdadeltaParametersGradAccumDebug.Options | tableName (String tableName) |
Sortie <Flottant> | mises à jour () Mises à jour des paramètres mises à jour par l'algorithme d'optimisation Adadelta. |
Méthodes héritées
Méthodes publiques
public Output <Float> accumulateurs ()
Accumulateurs de paramètres mis à jour par l'algorithme d'optimisation Adadelta.
configuration publique statique RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug.Options (configuration de chaîne)
public static RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug create ( Scope scope, Long numShards, Long shardId, Options... options)
Méthode d'usine pour créer une classe encapsulant une nouvelle opération RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug.
Paramètres
portée | portée actuelle |
---|---|
choix | porte des valeurs d'attributs facultatifs |
Retour
- une nouvelle instance de RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug
sortie publique <Float> gradientAccumulators ()
Paramètre gradient_accumulators mis à jour par l'algorithme d'optimisation Adadelta.
Paramètres de sortie publique <Float> ()
Paramètres des paramètres mis à jour par l'algorithme d'optimisation Adadelta.
public static RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug.Options tableName (String tableName)
public Output <Float> mises à jour ()
Mises à jour des paramètres mises à jour par l'algorithme d'optimisation Adadelta.