Mise à jour éparse '*var' en tant qu'algorithme FOBOS avec taux d'apprentissage fixe.
C'est pour les lignes pour lesquelles nous avons grad, nous mettons à jour var comme suit : $$prox_v = var - alpha grad$$$$var = sign(prox_v)/(1+alphal2) max{|prox_v|-alphal1,0}$$
Classes imbriquées
classe | SparseApplyProximalGradientDescent.Options | Attributs facultatifs pour SparseApplyProximalGradientDescent |
Constantes
Chaîne | OP_NAME | Le nom de cette opération, tel que connu par le moteur principal TensorFlow |
Méthodes publiques
Sortie <T> | comme Sortie () Renvoie le handle symbolique du tenseur. |
statique <T étend TType > SparseApplyProximalGradientDescent <T> | |
Sortie <T> | dehors () Identique à "var". |
statique SparseApplyProximalGradientDescent.Options | useLocking (booléen useLocking) |
Méthodes héritées
Constantes
chaîne finale statique publique OP_NAME
Le nom de cette opération, tel que connu par le moteur principal TensorFlow
Méthodes publiques
sortie publique <T> asOutput ()
Renvoie le handle symbolique du tenseur.
Les entrées des opérations TensorFlow sont les sorties d'une autre opération TensorFlow. Cette méthode est utilisée pour obtenir un handle symbolique qui représente le calcul de l’entrée.
public static SparseApplyProximalGradientDescent <T> créer ( Portée de la portée, Opérande <T> var, Opérande <T> alpha, Opérande <T> l1, Opérande <T> l2, Opérande <T> grad, Opérande <? étend TNumber > indices, Options ... options)
Méthode d'usine pour créer une classe encapsulant une nouvelle opération SparseApplyProximalGradientDescent.
Paramètres
portée | portée actuelle |
---|---|
var | Doit provenir d'une variable (). |
alpha | Facteur d'échelle. Ça doit être un scalaire. |
l1 | Régularisation L1. Ça doit être un scalaire. |
l2 | Régularisation L2. Ça doit être un scalaire. |
diplômé | Le dégradé. |
indices | Un vecteur d'indices dans la première dimension de var et cumul. |
choix | porte des valeurs d'attributs facultatifs |
Retours
- une nouvelle instance de SparseApplyProximalGradientDescent
public statique SparseApplyProximalGradientDescent.Options useLocking (booléen useLocking)
Paramètres
utiliserVerrouillage | Si True, la soustraction sera protégée par un verrou ; sinon, le comportement n'est pas défini, mais peut présenter moins de conflits. |
---|