ResourceApplyAdam

classe final pública ResourceApplyAdam

Atualize '*var' de acordo com o algoritmo Adam.

$$\text{lr}_t := \mathrm{learning_rate} * \sqrt{1 - \beta_2^t} / (1 - \beta_1^t)$$$$m_t := \beta_1 * m_{t-1} + (1 - \beta_1) * g$$$$v_t := \beta_2 * v_{t-1} + (1 - \beta_2) * g * g$$$$\text{variable} := \text{variable} - \text{lr}_t * m_t / (\sqrt{v_t} + \epsilon)$$

Classes aninhadas

aula ResourceApplyAdam.Options Atributos opcionais para ResourceApplyAdam

Constantes

Corda OP_NAME O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow

Métodos Públicos

estático <T estende TType > ResourceApplyAdam
create ( Escopo do escopo , Operando <?> var, Operando <?> m, Operando <?> v, Operando <T> beta1Power, Operando <T> beta2Power, Operando <T> lr, Operando <T> beta1, Operando <T > beta2, Operando <T> épsilon, Operando <T> grad, Opções... opções)
Método de fábrica para criar uma classe que agrupa uma nova operação ResourceApplyAdam.
ResourceApplyAdam.Options estático
useLocking (booleano useLocking)
ResourceApplyAdam.Options estático
useNesterov (booleano useNesterov)

Métodos herdados

Constantes

String final estática pública OP_NAME

O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow

Valor Constante: "ResourceApplyAdam"

Métodos Públicos

public static ResourceApplyAdam create (Escopo escopo , Operando <?> var, Operando <?> m, Operando <?> v, Operando <T> beta1Power, Operando <T> beta2Power, Operando <T> lr, Operando <T> beta1, Operando <T> beta2, Operando <T> épsilon, Operando <T> grad, Opções... opções)

Método de fábrica para criar uma classe que agrupa uma nova operação ResourceApplyAdam.

Parâmetros
escopo escopo atual
var Deve ser de uma variável().
eu Deve ser de uma variável().
v Deve ser de uma variável().
beta1Power Deve ser um escalar.
beta2Power Deve ser um escalar.
lr Fator de escala. Deve ser um escalar.
beta1 Fator de impulso. Deve ser um escalar.
beta2 Fator de impulso. Deve ser um escalar.
épsilon Termo de cume. Deve ser um escalar.
graduado O gradiente.
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de ResourceApplyAdam

public static ResourceApplyAdam.Options useLocking (booleano useLocking)

Parâmetros
useLocking Se `True`, a atualização dos tensores var, m e v será protegida por um bloqueio; caso contrário, o comportamento será indefinido, mas poderá apresentar menos contenção.

public static ResourceApplyAdam.Options useNesterov (booleano useNesterov)

Parâmetros
usarNesterov Se `True`, usa a atualização desterov.