LoadTPUEmbeddingADAMParametersGradAccumDebug

classe finale publique LoadTPUEmbeddingADAMParametersGradAccumDebug

Chargez les paramètres d’intégration ADAM avec prise en charge du débogage.

Une opération qui charge les paramètres d'optimisation dans HBM pour l'intégration. Doit être précédé d'une opération ConfigureTPUEmbeddingHost qui configure la configuration correcte de la table d'intégration. Par exemple, cette opération est utilisée pour installer les paramètres chargés à partir d'un point de contrôle avant l'exécution d'une boucle de formation.

Classes imbriquées

classe LoadTPUEmbeddingADAMParametersGradAccumDebug.Options Attributs facultatifs pour LoadTPUEmbeddingADAMParametersGradAccumDebug

Constantes

Chaîne OP_NAME Le nom de cette opération, tel que connu par le moteur principal TensorFlow

Méthodes publiques

statique LoadTPUEmbeddingADAMParametersGradAccumDebug.Options
config (configuration de chaîne)
Charge statiqueTPUEmbeddingADAMParametersGradAccumDebug
créer (Portée de portée , Paramètres de l'opérande < TFloat32 >, Opérande < TFloat32 > momenta, Opérande < TFloat32 > vitesses, Opérande < TFloat32 > gradientAccumulators, Long numShards, Long shardId, Options... options)
Méthode d'usine pour créer une classe encapsulant une nouvelle opération LoadTPUEmbeddingADAMParametersGradAccumDebug.
statique LoadTPUEmbeddingADAMParametersGradAccumDebug.Options
ID de table (ID de table longue)
statique LoadTPUEmbeddingADAMParametersGradAccumDebug.Options
tableName (String tableName)

Méthodes héritées

Constantes

chaîne finale statique publique OP_NAME

Le nom de cette opération, tel que connu par le moteur principal TensorFlow

Valeur constante : "LoadTPUEmbeddingADAMParametersGradAccumDebug"

Méthodes publiques

configuration publique statique LoadTPUEmbeddingADAMParametersGradAccumDebug.Options (configuration de chaîne)

public static LoadTPUEmbeddingADAMParametersGradAccumDebug créer ( Portée de portée , Opérande < TFloat32 > paramètres, Opérande < TFloat32 > impulsions, Opérande < TFloat32 > vitesses, Opérande < TFloat32 > gradientAccumulators, Long numShards, Long shardId, Options... options)

Méthode d'usine pour créer une classe encapsulant une nouvelle opération LoadTPUEmbeddingADAMParametersGradAccumDebug.

Paramètres
portée portée actuelle
paramètres Valeur des paramètres utilisés dans l'algorithme d'optimisation ADAM.
moment Valeur de l'impulsion utilisée dans l'algorithme d'optimisation ADAM.
vitesses Valeur des vitesses utilisées dans l'algorithme d'optimisation ADAM.
gradientAccumulateurs Valeur de gradient_accumulators utilisée dans l'algorithme d'optimisation ADAM.
choix porte des valeurs d'attributs facultatifs
Retour
  • une nouvelle instance de LoadTPUEmbeddingADAMParametersGradAccumDebug

public static LoadTPUEmbeddingADAMParametersGradAccumDebug.Options tableId (Long tableId)

public static LoadTPUEmbeddingADAMParametersGradAccumDebug.Options tableName (String tableName)