ResourceApplyMomentum

ResourceApplyMomentum classe final pública

Atualize '* var' de acordo com o esquema de momentum.

Defina use_nesterov = True se quiser usar o momentum de Nesterov.

acum = acum * momentum + grad var - = lr * acum

Classes aninhadas

classe ResourceApplyMomentum.Options Atributos opcionais para ResourceApplyMomentum

Constantes

Fragmento OP_NAME O nome desta operação, conforme conhecido pelo motor principal TensorFlow

Métodos Públicos

estática <T estende TType > ResourceApplyMomentum
criar ( Scope escopo, Operando <?> var, Operando <?> accum, Operando <T> lr, Operando <T> grad, Operando <T> impulso, Options ... Opções)
Método de fábrica para criar uma classe que envolve uma nova operação ResourceApplyMomentum.
estáticos ResourceApplyMomentum.Options
useLocking (booleano useLocking)
estáticos ResourceApplyMomentum.Options
useNesterov (booleano useNesterov)

Métodos herdados

Constantes

nome_op final String public static

O nome desta operação, conforme conhecido pelo motor principal TensorFlow

Valor constante: "ResourceApplyMomentum"

Métodos Públicos

public static ResourceApplyMomentum criar ( Scope escopo, Operando <?> var, Operando <?> accum, Operando <T> lr, Operando <T> grad, Operando <T> impulso, Options ... Opções)

Método de fábrica para criar uma classe que envolve uma nova operação ResourceApplyMomentum.

Parâmetros
alcance escopo atual
var Deve ser de uma variável ().
acum Deve ser de uma variável ().
lr Fator de escala. Deve ser um escalar.
grad O gradiente.
impulso Momentum. Deve ser um escalar.
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de ResourceApplyMomentum

public static ResourceApplyMomentum.Options useLocking (Boolean useLocking)

Parâmetros
useLocking Se for `True`, a atualização dos tensores var e Accum será protegida por um bloqueio; caso contrário, o comportamento é indefinido, mas pode exibir menos contenção.

public static ResourceApplyMomentum.Options useNesterov (Boolean useNesterov)

Parâmetros
useNesterov Se for `True`, o tensor passado para calcular grad será var - lr * momento * acum, então, no final, o var que você obtém é na verdade var - lr * momento * acum.