SparseApplyProximalAdagrad

classe finale publique SparseApplyProximalAdagrad

Entrées de mise à jour éparses dans '*var' et '*accum' selon l'algorithme FOBOS.

C'est pour les lignes pour lesquelles nous avons grad, nous mettons à jour var et accumulons comme suit : $$accum += grad grad$$$$prox_v = var$$$$prox_v -= lr grad (1 / sqrt(accum))$$$$var = sign(prox_v)/(1+lrl2) max{|prox_v|-lrl1,0}$$

Classes imbriquées

classe SparseApplyProximalAdagrad.Options Attributs facultatifs pour SparseApplyProximalAdagrad

Constantes

Chaîne OP_NAME Le nom de cette opération, tel que connu par le moteur principal TensorFlow

Méthodes publiques

Sortie <T>
comme Sortie ()
Renvoie le handle symbolique du tenseur.
statique <T étend TType > SparseApplyProximalAdagrad <T>
créer ( Scope scope, Opérande <T> var, Opérande <T> accum, Opérande <T> lr, Opérande <T> l1, Opérande <T> l2, Opérande <T> grad, Opérande <? étend TNumber > indices, Options ... options)
Méthode d'usine pour créer une classe encapsulant une nouvelle opération SparseApplyProximalAdagrad.
Sortie <T>
dehors ()
Identique à "var".
SparseApplyProximalAdagrad.Options statique
useLocking (booléen useLocking)

Méthodes héritées

Constantes

chaîne finale statique publique OP_NAME

Le nom de cette opération, tel que connu par le moteur principal TensorFlow

Valeur constante : "SparseApplyProximalAdagrad"

Méthodes publiques

sortie publique <T> asOutput ()

Renvoie le handle symbolique du tenseur.

Les entrées des opérations TensorFlow sont les sorties d'une autre opération TensorFlow. Cette méthode est utilisée pour obtenir un handle symbolique qui représente le calcul de l’entrée.

public static SparseApplyProximalAdagrad <T> create ( Scope scope, Operand <T> var, Operand <T> accum, Operand <T> lr, Operand <T> l1, Operand <T> l2, Operand <T> grad, Operand <? étend TNumber > indices, Options... options)

Méthode d'usine pour créer une classe encapsulant une nouvelle opération SparseApplyProximalAdagrad.

Paramètres
portée portée actuelle
var Doit provenir d'une variable ().
cumuler Doit provenir d'une variable ().
mdr Taux d'apprentissage. Ça doit être un scalaire.
l1 Régularisation L1. Ça doit être un scalaire.
l2 Régularisation L2. Ça doit être un scalaire.
diplômé Le dégradé.
indices Un vecteur d'indices dans la première dimension de var et cumul.
choix porte des valeurs d'attributs facultatifs
Retours
  • une nouvelle instance de SparseApplyProximalAdagrad

sortie publique <T> out ()

Identique à "var".

public statique SparseApplyProximalAdagrad.Options useLocking (booléen useLocking)

Paramètres
utiliserVerrouillage Si True, la mise à jour des tenseurs var et cumul sera protégée par un verrou ; sinon, le comportement n'est pas défini, mais peut présenter moins de conflits.
,
classe finale publique SparseApplyProximalAdagrad

Entrées de mise à jour éparses dans '*var' et '*accum' selon l'algorithme FOBOS.

C'est pour les lignes pour lesquelles nous avons grad, nous mettons à jour var et accumulons comme suit : $$accum += grad grad$$$$prox_v = var$$$$prox_v -= lr grad (1 / sqrt(accum))$$$$var = sign(prox_v)/(1+lrl2) max{|prox_v|-lrl1,0}$$

Classes imbriquées

classe SparseApplyProximalAdagrad.Options Attributs facultatifs pour SparseApplyProximalAdagrad

Constantes

Chaîne OP_NAME Le nom de cette opération, tel que connu par le moteur principal TensorFlow

Méthodes publiques

Sortie <T>
comme Sortie ()
Renvoie le handle symbolique du tenseur.
statique <T étend TType > SparseApplyProximalAdagrad <T>
créer ( Scope scope, Opérande <T> var, Opérande <T> accum, Opérande <T> lr, Opérande <T> l1, Opérande <T> l2, Opérande <T> grad, Opérande <? étend TNumber > indices, Options ... options)
Méthode d'usine pour créer une classe encapsulant une nouvelle opération SparseApplyProximalAdagrad.
Sortie <T>
dehors ()
Identique à "var".
SparseApplyProximalAdagrad.Options statique
useLocking (booléen useLocking)

Méthodes héritées

Constantes

chaîne finale statique publique OP_NAME

Le nom de cette opération, tel que connu par le moteur principal TensorFlow

Valeur constante : "SparseApplyProximalAdagrad"

Méthodes publiques

sortie publique <T> asOutput ()

Renvoie le handle symbolique du tenseur.

Les entrées des opérations TensorFlow sont les sorties d'une autre opération TensorFlow. Cette méthode est utilisée pour obtenir un handle symbolique qui représente le calcul de l’entrée.

public static SparseApplyProximalAdagrad <T> create ( Scope scope, Operand <T> var, Operand <T> accum, Operand <T> lr, Operand <T> l1, Operand <T> l2, Operand <T> grad, Operand <? étend TNumber > indices, Options... options)

Méthode d'usine pour créer une classe encapsulant une nouvelle opération SparseApplyProximalAdagrad.

Paramètres
portée portée actuelle
var Doit provenir d'une variable ().
cumuler Doit provenir d'une variable ().
mdr Taux d'apprentissage. Ça doit être un scalaire.
l1 Régularisation L1. Ça doit être un scalaire.
l2 Régularisation L2. Ça doit être un scalaire.
diplômé Le dégradé.
indices Un vecteur d'indices dans la première dimension de var et cumul.
choix porte des valeurs d'attributs facultatifs
Retours
  • une nouvelle instance de SparseApplyProximalAdagrad

sortie publique <T> out ()

Identique à "var".

public statique SparseApplyProximalAdagrad.Options useLocking (booléen useLocking)

Paramètres
utiliserVerrouillage Si True, la mise à jour des tenseurs var et cumul sera protégée par un verrou ; sinon, le comportement n'est pas défini, mais peut présenter moins de conflits.