Aggiornamento sparse '*var' come algoritmo FOBOS con velocità di apprendimento fissa.
Cioè per le righe per le quali abbiamo grad, aggiorniamo var come segue: prox_v = var - alpha grad var = sign(prox_v)/(1+alpha l2) max{|prox_v|-alpha l1,0}
Classi nidificate
classe | ResourceSparseApplyProximalGradientDescent.Options | Attributi facoltativi per ResourceSparseApplyProximalGradientDescent |
Costanti
Corda | OP_NAME | Il nome di questa operazione, come noto al motore principale di TensorFlow |
Metodi pubblici
static <T estende TType > ResourceSparseApplyProximalGradientDescent | |
static ResourceSparseApplyProximalGradientDescent.Options | useLocking (useLocking booleano) |
Metodi ereditati
Costanti
Stringa finale statica pubblica OP_NAME
Il nome di questa operazione, come noto al motore principale di TensorFlow
Metodi pubblici
public static ResourceSparseApplyProximalGradientDescent create ( Ambito di applicazione , Operando <?> var, Operando <T> alpha, Operando <T> l1, Operando <T> l2, Operando <T> grad, Operando <? extends TNumber > indici, Opzioni... opzioni)
Metodo factory per creare una classe che racchiude una nuova operazione ResourceSparseApplyProximalGradientDescent.
Parametri
scopo | ambito attuale |
---|---|
var | Dovrebbe provenire da una variabile(). |
alfa | Fattore di scala. Deve essere uno scalare. |
l1 | Regolarizzazione L1. Deve essere uno scalare. |
l2 | Regolarizzazione L2. Deve essere uno scalare. |
grado | Il gradiente. |
indici | Un vettore di indici nella prima dimensione di var e accum. |
opzioni | trasporta valori di attributi opzionali |
ritorna
- una nuova istanza di ResourceSparseApplyProximalGradientDescent
public static ResourceSparseApplyProximalGradientDescent.Options useLocking (useLocking booleano)
Parametri
utilizzareBlocco | Se Vero la sottrazione sarà protetta da un lucchetto; altrimenti il comportamento non è definito, ma può mostrare meno contesa. |
---|