ApplyAdam

lezione finale pubblica ApplyAdam

Aggiorna '*var' secondo l'algoritmo di Adam.

$$lr_t := \text{learning\_rate} * \sqrt{1 - beta_2^t} / (1 - beta_1^t)$$$$m_t := beta_1 * m_{t-1} + (1 - beta_1) * g$$$$v_t := beta_2 * v_{t-1} + (1 - beta_2) * g * g$$$$variable := variable - lr_t * m_t / (\sqrt{v_t} + \epsilon)$$

Classi nidificate

classe ApplicaAdam.Options Attributi facoltativi per ApplyAdam

Costanti

Corda OP_NAME Il nome di questa operazione, come noto al motore principale di TensorFlow

Metodi pubblici

Uscita <T>
comeuscita ()
Restituisce l'handle simbolico del tensore.
statico <T estende TType > ApplyAdam <T>
create ( Ambito ambito , Operando <T> var, Operando <T> m, Operando <T> v, Operando <T> beta1Power, Operando <T> beta2Power, Operando <T> lr, Operando <T> beta1, Operando <T > beta2, Operando <T> epsilon, Operando <T> grad, Opzioni... opzioni)
Metodo factory per creare una classe che racchiude una nuova operazione ApplyAdam.
Uscita <T>
fuori ()
Uguale a "var".
ApplyAdam.Options statico
useLocking (useLocking booleano)
ApplyAdam.Options statico
useNesterov (uso booleanoNesterov)

Metodi ereditati

Costanti

Stringa finale statica pubblica OP_NAME

Il nome di questa operazione, come noto al motore principale di TensorFlow

Valore costante: "ApplyAdam"

Metodi pubblici

Uscita pubblica <T> asOutput ()

Restituisce l'handle simbolico del tensore.

Gli input per le operazioni TensorFlow sono output di un'altra operazione TensorFlow. Questo metodo viene utilizzato per ottenere un handle simbolico che rappresenta il calcolo dell'input.

public static ApplyAdam <T> create ( Scope scope, Operando <T> var, Operando <T> m, Operando <T> v, Operando <T> beta1Power, Operando <T> beta2Power, Operando <T> lr, Operando <T > beta1, Operando <T> beta2, Operando <T> epsilon, Operando <T> grad, Opzioni... opzioni)

Metodo factory per creare una classe che racchiude una nuova operazione ApplyAdam.

Parametri
scopo ambito attuale
var Dovrebbe provenire da una variabile().
M Dovrebbe provenire da una variabile().
v Dovrebbe provenire da una variabile().
beta1Power Deve essere uno scalare.
beta2Power Deve essere uno scalare.
lr Fattore di scala. Deve essere uno scalare.
beta1 Fattore di slancio. Deve essere uno scalare.
beta2 Fattore di slancio. Deve essere uno scalare.
epsilon Termine di cresta. Deve essere uno scalare.
grado Il gradiente.
opzioni trasporta valori di attributi opzionali
ritorna
  • una nuova istanza di ApplyAdam

Uscita pubblica <T> out ()

Uguale a "var".

public static ApplyAdam.Options useLocking (useLocking booleano)

Parametri
utilizzareBlocco Se "True", l'aggiornamento dei tensori var, m e v sarà protetto da un blocco; altrimenti il ​​comportamento non è definito, ma può mostrare meno contesa.

public static ApplyAdam.Options useNesterov (booleano useNesterov)

Parametri
utilizzare Nesterov Se "True", utilizza l'aggiornamento nesterov.