ApplyProximalAdagrad

classe final pública ApplyProximalAdagrad

Atualize '*var' e '*accum' de acordo com FOBOS com taxa de aprendizagem Adagrad.

acumular += grad grad prox_v = var - lr grad (1 / sqrt(accum)) var = sign(prox_v)/(1+lr l2) max{|prox_v|-lr l1,0}

Classes aninhadas

aula ApplyProximalAdagrad.Options Atributos opcionais para ApplyProximalAdagrad

Constantes

Corda OP_NAME O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow

Métodos Públicos

Saída <T>
asOutput ()
Retorna o identificador simbólico do tensor.
estático <T estende TType > ApplyProximalAdagrad <T>
create ( Escopo , Operando <T> var, Operando <T> accum, Operando <T> lr, Operando <T> l1, Operando <T> l2, Operando <T> grad, Opções... opções)
Método de fábrica para criar uma classe que envolve uma nova operação ApplyProximalAdagrad.
Saída <T>
fora ()
O mesmo que "var".
ApplyProximalAdagrad.Options estático
useLocking (booleano useLocking)

Métodos herdados

Constantes

String final estática pública OP_NAME

O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow

Valor Constante: "ApplyProximalAdagrad"

Métodos Públicos

Saída pública <T> asOutput ()

Retorna o identificador simbólico do tensor.

As entradas para operações do TensorFlow são saídas de outra operação do TensorFlow. Este método é usado para obter um identificador simbólico que representa o cálculo da entrada.

public static ApplyProximalAdagrad <T> create ( Escopo escopo , Operando <T> var, Operando <T> accum, Operando <T> lr, Operando <T> l1, Operando <T> l2, Operando <T> grad, Opções.. .opções )

Método de fábrica para criar uma classe que envolve uma nova operação ApplyProximalAdagrad.

Parâmetros
escopo escopo atual
var Deve ser de uma variável().
acumular Deve ser de uma variável().
lr Fator de escala. Deve ser um escalar.
l1 Regularização L1. Deve ser um escalar.
l2 Regularização L2. Deve ser um escalar.
graduado O gradiente.
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de ApplyProximalAdagrad

Saída pública <T> out ()

O mesmo que "var".

public static ApplyProximalAdagrad.Options useLocking (Boolean useLocking)

Parâmetros
useLocking Se for True, a atualização dos tensores var e accum será protegida por um bloqueio; caso contrário, o comportamento será indefinido, mas poderá apresentar menos contenção.