classe finale publique ResourceSparseApplyAdagradDa
Mettez à jour les entrées dans « *var » et « *accum » selon le schéma adagrad proximal.
Classes imbriquées
| classe | ResourceSparseApplyAdagradDa.Options | Attributs facultatifs pour ResourceSparseApplyAdagradDa | |
Constantes
| Chaîne | OP_NAME | Le nom de cette opération, tel que connu par le moteur principal TensorFlow | 
Méthodes publiques
| statique <T étend TType > ResourceSparseApplyAdagradDa |  créer ( Scope scope, Opérande <?> var, Opérande <?> gradientAccumulator, Opérande <?> gradientSquaredAccumulator, Opérande <T> grad, Opérande <? extends TNumber > indices, Opérande <T> lr, Opérande <T> l1, Opérande <T> l2, Opérande < TInt64 > globalStep, Options... options)  Méthode d'usine pour créer une classe encapsulant une nouvelle opération ResourceSparseApplyAdagradDa. | 
| statique ResourceSparseApplyAdagradDa.Options |  useLocking (booléen useLocking)  | 
Méthodes héritées
Constantes
chaîne finale statique publique OP_NAME
Le nom de cette opération, tel que connu par le moteur principal TensorFlow
 Valeur constante : « ResourceSparseApplyAdagradDA » 
Méthodes publiques
public static ResourceSparseApplyAdagradDa create ( Scope scope, Operand <?> var, Operand <?> gradientAccumulator, Operand <?> gradientSquaredAccumulator, Operand <T> grad, Operand <? extends TNumber > indices, Operand <T> lr, Operand <T> l1, Opérande <T> l2, Opérande < TInt64 > globalStep, Options... options)
Méthode d'usine pour créer une classe encapsulant une nouvelle opération ResourceSparseApplyAdagradDa.
Paramètres
| portée | portée actuelle | 
|---|---|
| var | Doit provenir d'une variable (). | 
| gradientAccumulateur | Doit provenir d'une variable (). | 
| gradientCarréAccumulateur | Doit provenir d'une variable (). | 
| diplômé | Le dégradé. | 
| indices | Un vecteur d'indices dans la première dimension de var et cumul. | 
| g / D | Taux d'apprentissage. Ça doit être un scalaire. | 
| l1 | Régularisation L1. Ça doit être un scalaire. | 
| l2 | Régularisation L2. Ça doit être un scalaire. | 
| étape globale | Numéro d'étape de formation. Ça doit être un scalaire. | 
| choix | porte des valeurs d'attributs facultatifs | 
Retour
- une nouvelle instance de ResourceSparseApplyAdagradDa
public statique ResourceSparseApplyAdagradDa.Options useLocking (booléen useLocking)
Paramètres
| utiliserVerrouillage | Si True, la mise à jour des tenseurs var et cumul sera protégée par un verrou ; sinon, le comportement n'est pas défini, mais peut présenter moins de conflits. | 
|---|