ApplyAdam

ApplyAdam classe final pública

Atualize '* var' de acordo com o algoritmo de Adam.

$$lr_t := \text{learning\_rate} * \sqrt{1 - beta_2^t} / (1 - beta_1^t)$$$$m_t := beta_1 * m_{t-1} + (1 - beta_1) * g$$$$v_t := beta_2 * v_{t-1} + (1 - beta_2) * g * g$$$$variable := variable - lr_t * m_t / (\sqrt{v_t} + \epsilon)$$

Classes aninhadas

classe ApplyAdam.Options Atributos opcionais para ApplyAdam

Constantes

Fragmento OP_NAME O nome desta operação, conforme conhecido pelo motor principal TensorFlow

Métodos Públicos

Output <T>
asOutput ()
Retorna o identificador simbólico do tensor.
estática <T estende TType > ApplyAdam <T>
criar ( Âmbito âmbito, Operando <T> var, Operando <T> m, Operando <T> v, Operando <T> beta1Power, Operando <T> beta2Power, Operando <T> lr, Operando <T> beta1, Operando <T > beta2, Operando <T> epsilon, Operando <T> grad, Options ... opções)
Método de fábrica para criar uma classe envolvendo uma nova operação ApplyAdam.
Output <T>
a ()
O mesmo que "var".
estáticos ApplyAdam.Options
useLocking (booleano useLocking)
estáticos ApplyAdam.Options
useNesterov (booleano useNesterov)

Métodos herdados

Constantes

nome_op final String public static

O nome desta operação, conforme conhecido pelo motor principal TensorFlow

Valor constante: "ApplyAdam"

Métodos Públicos

pública Output <T> asOutput ()

Retorna o identificador simbólico do tensor.

As entradas para as operações do TensorFlow são saídas de outra operação do TensorFlow. Este método é usado para obter um identificador simbólico que representa o cálculo da entrada.

public static ApplyAdam <T> create ( Scope escopo, Operando <T> var, Operando <T> m, Operando <T> v, Operando <T> beta1Power, Operando <T> beta2Power, Operando <T> lr, Operando <T > beta1, Operando <T> beta2, Operando <T> epsilon, Operando <T> grad, Options ... opções)

Método de fábrica para criar uma classe envolvendo uma nova operação ApplyAdam.

Parâmetros
alcance escopo atual
var Deve ser de uma variável ().
m Deve ser de uma variável ().
v Deve ser de uma variável ().
beta1Power Deve ser um escalar.
beta2Power Deve ser um escalar.
lr Fator de escala. Deve ser um escalar.
beta1 Fator de momentum. Deve ser um escalar.
beta2 Fator de momentum. Deve ser um escalar.
épsilon Termo de cume. Deve ser um escalar.
grad O gradiente.
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de ApplyAdam

pública Output <T> out ()

O mesmo que "var".

public static ApplyAdam.Options useLocking (Boolean useLocking)

Parâmetros
useLocking Se for `True`, a atualização dos tensores var, m e v será protegida por um bloqueio; caso contrário, o comportamento é indefinido, mas pode exibir menos contenção.

public static ApplyAdam.Options useNesterov (Boolean useNesterov)

Parâmetros
useNesterov Se `True`, usa a atualização nesterov.