SparseApplyProximalGradientDescent

classe finale pubblica SparseApplyProximalGradientDescent

Aggiornamento sparse '*var' come algoritmo FOBOS con velocità di apprendimento fissa.

Questo è per le righe per le quali abbiamo grad, aggiorniamo var come segue: $$prox_v = var - alpha grad$$$$var = sign(prox_v)/(1+alphal2) max{|prox_v|-alphal1,0}$$

Classi nidificate

classe SparseApplyProximalGradientDescent.Options Attributi facoltativi per SparseApplyProximalGradientDescent

Costanti

Corda OP_NAME Il nome di questa operazione, come noto al motore principale di TensorFlow

Metodi pubblici

Uscita <T>
comeuscita ()
Restituisce l'handle simbolico del tensore.
static <T estende TType > SparseApplyProximalGradientDescent <T>
create ( Scope scope, Operando <T> var, Operando <T> alpha, Operando <T> l1, Operando <T> l2, Operando <T> grad, Operando <? extends TNumber > indici, Opzioni... opzioni)
Metodo factory per creare una classe che racchiude una nuova operazione SparseApplyProximalGradientDescent.
Uscita <T>
fuori ()
Uguale a "var".
static SparseApplyProximalGradientDescent.Options
useLocking (useLocking booleano)

Metodi ereditati

Costanti

Stringa finale statica pubblica OP_NAME

Il nome di questa operazione, come noto al motore principale di TensorFlow

Valore costante: "SparseApplyProximalGradientDescent"

Metodi pubblici

Uscita pubblica <T> asOutput ()

Restituisce l'handle simbolico del tensore.

Gli input per le operazioni TensorFlow sono output di un'altra operazione TensorFlow. Questo metodo viene utilizzato per ottenere un handle simbolico che rappresenta il calcolo dell'input.

public static SparseApplyProximalGradientDescent <T> create ( Scope scope, Operando <T> var, Operando <T> alpha, Operando <T> l1, Operando <T> l2, Operando <T> grad, Operando <? extends TNumber > indici, Opzioni ... opzioni)

Metodo factory per creare una classe che racchiude una nuova operazione SparseApplyProximalGradientDescent.

Parametri
scopo ambito attuale
var Dovrebbe provenire da una variabile().
alfa Fattore di scala. Deve essere uno scalare.
l1 Regolarizzazione L1. Deve essere uno scalare.
l2 Regolarizzazione L2. Deve essere uno scalare.
grado Il gradiente.
indici Un vettore di indici nella prima dimensione di var e accum.
opzioni trasporta valori di attributi opzionali
ritorna
  • una nuova istanza di SparseApplyProximalGradientDescent

Uscita pubblica <T> out ()

Uguale a "var".

public static SparseApplyProximalGradientDescent.Options useLocking (useLocking booleano)

Parametri
utilizzareBlocco Se Vero la sottrazione sarà protetta da un lucchetto; altrimenti il ​​comportamento non è definito, ma può mostrare meno contesa.