Mettez à jour les entrées pertinentes dans '*var' et '*accum' selon le schéma adagrad.
C'est pour les lignes pour lesquelles nous avons grad, nous mettons à jour var et accumulé comme suit : accum += grad * grad var -= lr * grad * (1 / sqrt(accum))
Classes imbriquées
| classe | ResourceSparseApplyAdagradV2.Options | Attributs facultatifs pour ResourceSparseApplyAdagradV2 | |
Constantes
| Chaîne | OP_NAME | Le nom de cette opération, tel que connu par le moteur principal TensorFlow |
Méthodes publiques
| statique <T étend TType > ResourceSparseApplyAdagradV2 | |
| statique ResourceSparseApplyAdagradV2.Options | updateSlots (updateSlots booléen) |
| statique ResourceSparseApplyAdagradV2.Options | useLocking (booléen useLocking) |
Méthodes héritées
Constantes
chaîne finale statique publique OP_NAME
Le nom de cette opération, tel que connu par le moteur principal TensorFlow
Méthodes publiques
public static ResourceSparseApplyAdagradV2 create ( Scope scope, Operand <?> var, Operand <?> accum, Operand <T> lr, Operand <T> epsilon, Operand <T> grad, Operand <? extends TNumber > indices, Options... choix)
Méthode d'usine pour créer une classe encapsulant une nouvelle opération ResourceSparseApplyAdagradV2.
Paramètres
| portée | portée actuelle |
|---|---|
| var | Doit provenir d'une variable (). |
| cumuler | Doit provenir d'une variable (). |
| g / D | Taux d'apprentissage. Ça doit être un scalaire. |
| épsilon | Facteur constant. Ça doit être un scalaire. |
| diplômé | Le dégradé. |
| indices | Un vecteur d'indices dans la première dimension de var et cumul. |
| choix | porte des valeurs d'attributs facultatifs |
Retour
- une nouvelle instance de ResourceSparseApplyAdagradV2
public statique ResourceSparseApplyAdagradV2.Options useLocking (booléen useLocking)
Paramètres
| utiliserVerrouillage | Si `True`, la mise à jour des tenseurs var et cumul sera protégée par un verrou ; sinon, le comportement n'est pas défini, mais peut présenter moins de conflits. |
|---|