ApplyAdadelta

ApplyAdadelta classe final pública

Atualize '* var' de acordo com o esquema adadelta.

acum = rho () * acum + (1 - rho ()) * grad.square (); update = (update_accum + epsilon) .sqrt () * (acum + epsilon ()). rsqrt () * grad; update_accum = rho () * update_accum + (1 - rho ()) * update.square (); var - = atualização;

Classes aninhadas

classe ApplyAdadelta.Options Atributos opcionais para ApplyAdadelta

Constantes

Fragmento OP_NAME O nome desta operação, conforme conhecido pelo motor principal TensorFlow

Métodos Públicos

Output <T>
asOutput ()
Retorna o identificador simbólico do tensor.
estática <T estende TType > ApplyAdadelta <T>
criar ( Scope escopo, Operando <T> var, Operando <T> accum, Operando <T> accumUpdate, Operando <T> lr, Operando <T> ró, Operando <T> epsilon, Operando <T> formando, Opções .. . opções)
Método de fábrica para criar uma classe envolvendo uma nova operação ApplyAdadelta.
Output <T>
a ()
O mesmo que "var".
estáticos ApplyAdadelta.Options
useLocking (booleano useLocking)

Métodos herdados

Constantes

nome_op final String public static

O nome desta operação, conforme conhecido pelo motor principal TensorFlow

Valor constante: "ApplyAdadelta"

Métodos Públicos

pública Output <T> asOutput ()

Retorna o identificador simbólico do tensor.

As entradas para as operações do TensorFlow são saídas de outra operação do TensorFlow. Este método é usado para obter um identificador simbólico que representa o cálculo da entrada.

public static ApplyAdadelta <T> create ( Scope escopo, Operando <T> var, Operando <T> accum, Operando <T> accumUpdate, Operando <T> lr, Operando <T> ró, Operando <T> epsilon, Operando <T > grad, Options ... opções)

Método de fábrica para criar uma classe envolvendo uma nova operação ApplyAdadelta.

Parâmetros
alcance escopo atual
var Deve ser de uma variável ().
acum Deve ser de uma variável ().
acúmulo de atualização Deve ser de uma variável ().
lr Fator de escala. Deve ser um escalar.
rho Fator de deterioração. Deve ser um escalar.
épsilon Fator constante. Deve ser um escalar.
grad O gradiente.
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de ApplyAdadelta

pública Output <T> out ()

O mesmo que "var".

public static ApplyAdadelta.Options useLocking (Boolean useLocking)

Parâmetros
useLocking Se for True, a atualização dos tensores var ,ument e update_accum será protegida por uma trava; caso contrário, o comportamento é indefinido, mas pode exibir menos contenção.