ResourceApplyAdam

classe finale pubblica ResourceApplyAdam

Aggiorna '*var' secondo l'algoritmo di Adam.

$$\text{lr}_t := \mathrm{learning_rate} * \sqrt{1 - \beta_2^t} / (1 - \beta_1^t)$$$$m_t := \beta_1 * m_{t-1} + (1 - \beta_1) * g$$$$v_t := \beta_2 * v_{t-1} + (1 - \beta_2) * g * g$$$$\text{variable} := \text{variable} - \text{lr}_t * m_t / (\sqrt{v_t} + \epsilon)$$

Classi nidificate

classe ResourceApplyAdam.Options Attributi facoltativi per ResourceApplyAdam

Costanti

Corda OP_NAME Il nome di questa operazione, come noto al motore principale di TensorFlow

Metodi pubblici

statico <T estende TType > ResourceApplyAdam
create ( Ambito ambito , Operando <?> var, Operando <?> m, Operando <?> v, Operando <T> beta1Power, Operando <T> beta2Power, Operando <T> lr, Operando <T> beta1, Operando <T > beta2, Operando <T> epsilon, Operando <T> grad, Opzioni... opzioni)
Metodo factory per creare una classe che racchiude una nuova operazione ResourceApplyAdam.
static ResourceApplyAdam.Options
useLocking (useLocking booleano)
static ResourceApplyAdam.Options
useNesterov (uso booleanoNesterov)

Metodi ereditati

Costanti

Stringa finale statica pubblica OP_NAME

Il nome di questa operazione, come noto al motore principale di TensorFlow

Valore costante: "ResourceApplyAdam"

Metodi pubblici

public static ResourceApplyAdam create ( Ambito ambito , Operando <?> var, Operando <?> m, Operando <?> v, Operando <T> beta1Power, Operando <T> beta2Power, Operando <T> lr, Operando <T> beta1, Operando <T> beta2, Operando <T> epsilon, Operando <T> grad, Opzioni... opzioni)

Metodo factory per creare una classe che racchiude una nuova operazione ResourceApplyAdam.

Parametri
scopo ambito attuale
var Dovrebbe provenire da una variabile().
M Dovrebbe provenire da una variabile().
v Dovrebbe provenire da una variabile().
beta1Power Deve essere uno scalare.
beta2Power Deve essere uno scalare.
lr Fattore di scala. Deve essere uno scalare.
beta1 Fattore di slancio. Deve essere uno scalare.
beta2 Fattore di slancio. Deve essere uno scalare.
epsilon Termine di cresta. Deve essere uno scalare.
grado Il gradiente.
opzioni trasporta valori di attributi opzionali
ritorna
  • una nuova istanza di ResourceApplyAdam

public static ResourceApplyAdam.Options useLocking (useLocking booleano)

Parametri
utilizzareBlocco Se "True", l'aggiornamento dei tensori var, m e v sarà protetto da un blocco; altrimenti il ​​comportamento non è definito, ma può mostrare meno contesa.

public static ResourceApplyAdam.Options useNesterov (booleano useNesterov)

Parametri
utilizzareNesterov Se "True", utilizza l'aggiornamento nesterov.