SparseApplyAdagrad

SparseApplyAdagrad classe final pública

Atualize as entradas relevantes em '* var' e '* acum' de acordo com o esquema adagrad.

Isso é para linhas temos grad, nós atualizar var e accum da seguinte forma: $$accum += grad * grad$$$$var -= lr * grad * (1 / sqrt(accum))$$

Classes aninhadas

classe SparseApplyAdagrad.Options Atributos opcionais para SparseApplyAdagrad

Constantes

Fragmento OP_NAME O nome desta operação, conforme conhecido pelo motor principal TensorFlow

Métodos Públicos

Output <T>
asOutput ()
Retorna o identificador simbólico do tensor.
estática <T estende TType > SparseApplyAdagrad <T>
criar ( Scope escopo, Operando <T> var, Operando <T> accum, Operando <T> lr, Operando <T> epsilon, Operando <T> grad, Operando <? estende TNumber > índices, Options ... Opções)
Método de fábrica para criar uma classe envolvendo uma nova operação SparseApplyAdagrad.
Output <T>
a ()
O mesmo que "var".
estáticos SparseApplyAdagrad.Options
updateSlots (booleanas updateSlots)
estáticos SparseApplyAdagrad.Options
useLocking (booleano useLocking)

Métodos herdados

Constantes

nome_op final String public static

O nome desta operação, conforme conhecido pelo motor principal TensorFlow

Valor constante: "SparseApplyAdagradV2"

Métodos Públicos

pública Output <T> asOutput ()

Retorna o identificador simbólico do tensor.

As entradas para as operações do TensorFlow são saídas de outra operação do TensorFlow. Este método é usado para obter um identificador simbólico que representa o cálculo da entrada.

public static SparseApplyAdagrad <T> Criar ( Scope escopo, Operando <T> var, Operando <T> Acumulado, Operando <T> lr, Operando <T> epsilon, Operando <T> formando, Operando <? estende TNumber > índices, opções ... opções)

Método de fábrica para criar uma classe envolvendo uma nova operação SparseApplyAdagrad.

Parâmetros
alcance escopo atual
var Deve ser de uma variável ().
acum Deve ser de uma variável ().
lr Taxa de Aprendizagem. Deve ser um escalar.
épsilon Fator constante. Deve ser um escalar.
grad O gradiente.
índices Um vetor de índices na primeira dimensão de var e acum.
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de SparseApplyAdagrad

pública Output <T> out ()

O mesmo que "var".

public static SparseApplyAdagrad.Options updateSlots (boolean updateSlots)

public static SparseApplyAdagrad.Options useLocking (Boolean useLocking)

Parâmetros
useLocking Se for `True`, a atualização dos tensores var e Accum será protegida por um bloqueio; caso contrário, o comportamento é indefinido, mas pode exibir menos contenção.