ApplyAdagradV2

ApplyAdagradV2 classe final pública

Atualize '* var' de acordo com o esquema adagrad.

acum + = grad * grad var - = lr * grad * (1 / sqrt (acum))

Classes aninhadas

classe ApplyAdagradV2.Options Atributos opcionais para ApplyAdagradV2

Métodos Públicos

Output <T>
asOutput ()
Retorna o identificador simbólico de um tensor.
estática <T> ApplyAdagradV2 <T>
criar ( Scope escopo, Operando <T> var, Operando <T> accum, Operando <T> lr, Operando <T> epsilon, Operando <T> grad, Options ... Opções)
Método de fábrica para criar uma classe envolvendo uma nova operação ApplyAdagradV2.
Output <T>
a ()
O mesmo que "var".
estáticos ApplyAdagradV2.Options
updateSlots (booleanas updateSlots)
estáticos ApplyAdagradV2.Options
useLocking (booleano useLocking)

Métodos herdados

Métodos Públicos

pública Output <T> asOutput ()

Retorna o identificador simbólico de um tensor.

As entradas para as operações do TensorFlow são saídas de outra operação do TensorFlow. Este método é usado para obter um identificador simbólico que representa o cálculo da entrada.

public static ApplyAdagradV2 <T> create ( Scope escopo, Operando <T> var, Operando <T> accum, Operando <T> lr, Operando <T> epsilon, Operando <T> grad, Options ... Opções)

Método de fábrica para criar uma classe envolvendo uma nova operação ApplyAdagradV2.

Parâmetros
alcance escopo atual
var Deve ser de uma variável ().
acum Deve ser de uma variável ().
lr Fator de escala. Deve ser um escalar.
épsilon Fator constante. Deve ser um escalar.
grad O gradiente.
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de ApplyAdagradV2

pública Output <T> out ()

O mesmo que "var".

public static ApplyAdagradV2.Options updateSlots (boolean updateSlots)

public static ApplyAdagradV2.Options useLocking (Boolean useLocking)

Parâmetros
useLocking Se for `True`, a atualização dos tensores var e Accum será protegida por um bloqueio; caso contrário, o comportamento é indefinido, mas pode exibir menos contenção.