ResourceSparseApplyAdagradDa

public final class ResourceSparseApplyAdagradDa

Atualize as entradas em '* var' e '* acum' de acordo com o esquema adagrad proximal.

Classes aninhadas

classe ResourceSparseApplyAdagradDa.Options Atributos opcionais para ResourceSparseApplyAdagradDa

Constantes

Fragmento OP_NAME O nome desta operação, conforme conhecido pelo motor principal TensorFlow

Métodos Públicos

estática <T estende TType > ResourceSparseApplyAdagradDa
criar ( Scope escopo, Operando <?> var, Operando <?> gradientAccumulator, Operando <?> gradientSquaredAccumulator, Operando <T> grad, Operando <? estende TNumber > índices, Operando <T> lr, Operando <T> L1, Operando <T> l2, Operando < TInt64 > globalStep, Options ... opções)
Método de fábrica para criar uma classe envolvendo uma nova operação ResourceSparseApplyAdagradDa.
estáticos ResourceSparseApplyAdagradDa.Options
useLocking (booleano useLocking)

Métodos herdados

Constantes

nome_op final String public static

O nome desta operação, conforme conhecido pelo motor principal TensorFlow

Valor constante: "ResourceSparseApplyAdagradDA"

Métodos Públicos

public static ResourceSparseApplyAdagradDa criar ( Scope escopo, Operando <?> var, Operando <?> gradientAccumulator, Operando <?> gradientSquaredAccumulator, Operando <T> grad, Operando <? estende TNumber > índices, Operando <T> lr, Operando <T> L1, Operando <T> l2, Operando < TInt64 > globalStep, Options ... opções)

Método de fábrica para criar uma classe envolvendo uma nova operação ResourceSparseApplyAdagradDa.

Parâmetros
alcance escopo atual
var Deve ser de uma variável ().
gradiente Acumulador Deve ser de uma variável ().
gradientSquaredAccumulator Deve ser de uma variável ().
grad O gradiente.
índices Um vetor de índices na primeira dimensão de var e acum.
lr Taxa de Aprendizagem. Deve ser um escalar.
l1 Regularização L1. Deve ser um escalar.
12 Regularização L2. Deve ser um escalar.
globalStep Número da etapa de treinamento. Deve ser um escalar.
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de ResourceSparseApplyAdagradDa

public static ResourceSparseApplyAdagradDa.Options useLocking (Boolean useLocking)

Parâmetros
useLocking Se for True, a atualização dos tensores var e Accum será protegida por um bloqueio; caso contrário, o comportamento é indefinido, mas pode exibir menos contenção.