Chargez les paramètres d’intégration ADAM avec prise en charge du débogage.
Une opération qui charge les paramètres d'optimisation dans HBM pour l'intégration. Doit être précédé d'une opération ConfigureTPUEmbeddingHost qui configure la configuration correcte de la table d'intégration. Par exemple, cette opération est utilisée pour installer les paramètres chargés à partir d'un point de contrôle avant l'exécution d'une boucle de formation.
Classes imbriquées
classe | LoadTPUEmbeddingADAMParametersGradAccumDebug.Options | Attributs facultatifs pour LoadTPUEmbeddingADAMParametersGradAccumDebug |
Constantes
Chaîne | OP_NAME | Le nom de cette opération, tel que connu par le moteur principal TensorFlow |
Méthodes publiques
statique LoadTPUEmbeddingADAMParametersGradAccumDebug.Options | config (configuration de chaîne) |
Charge statiqueTPUEmbeddingADAMParametersGradAccumDebug | créer (Portée de portée , Paramètres de l'opérande < TFloat32 >, Opérande < TFloat32 > momenta, Opérande < TFloat32 > vitesses, Opérande < TFloat32 > gradientAccumulators, Long numShards, Long shardId, Options... options) Méthode d'usine pour créer une classe encapsulant une nouvelle opération LoadTPUEmbeddingADAMParametersGradAccumDebug. |
statique LoadTPUEmbeddingADAMParametersGradAccumDebug.Options | ID de table (ID de table longue) |
statique LoadTPUEmbeddingADAMParametersGradAccumDebug.Options | tableName (String tableName) |
Méthodes héritées
Constantes
chaîne finale statique publique OP_NAME
Le nom de cette opération, tel que connu par le moteur principal TensorFlow
Méthodes publiques
configuration publique statique LoadTPUEmbeddingADAMParametersGradAccumDebug.Options (configuration de chaîne)
public static LoadTPUEmbeddingADAMParametersGradAccumDebug créer ( Portée de portée , Opérande < TFloat32 > paramètres, Opérande < TFloat32 > impulsions, Opérande < TFloat32 > vitesses, Opérande < TFloat32 > gradientAccumulators, Long numShards, Long shardId, Options... options)
Méthode d'usine pour créer une classe encapsulant une nouvelle opération LoadTPUEmbeddingADAMParametersGradAccumDebug.
Paramètres
portée | portée actuelle |
---|---|
paramètres | Valeur des paramètres utilisés dans l'algorithme d'optimisation ADAM. |
moment | Valeur de l'impulsion utilisée dans l'algorithme d'optimisation ADAM. |
vitesses | Valeur des vitesses utilisées dans l'algorithme d'optimisation ADAM. |
gradientAccumulateurs | Valeur de gradient_accumulators utilisée dans l'algorithme d'optimisation ADAM. |
choix | porte des valeurs d'attributs facultatifs |
Retour
- une nouvelle instance de LoadTPUEmbeddingADAMParametersGradAccumDebug