ResourceSparseApplyAdagradDa

classe final pública ResourceSparseApplyAdagradDa

Atualize as entradas em '*var' e '*accum' de acordo com o esquema proximal do adagrad.

Classes aninhadas

aula ResourceSparseApplyAdagradDa.Options Atributos opcionais para ResourceSparseApplyAdagradDa

Constantes

Corda OP_NAME O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow

Métodos Públicos

estático <T estende TType > ResourceSparseApplyAdagradDa
create ( Escopo do escopo , Operando <?> var, Operando <?> gradienteAccumulator, Operando <?> gradienteSquaredAccumulator, Operando <T> grad, Operando <? estende TNumber > índices, Operando <T> lr, Operando <T> l1, Operando <T> l2, Operando < TInt64 > globalStep, Opções... opções)
Método de fábrica para criar uma classe que agrupa uma nova operação ResourceSparseApplyAdagradDa.
ResourceSparseApplyAdagradDa.Options estático
useLocking (booleano useLocking)

Métodos herdados

Constantes

String final estática pública OP_NAME

O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow

Valor constante: "ResourceSparseApplyAdagradDA"

Métodos Públicos

public static ResourceSparseApplyAdagradDa create ( Escopo de escopo , Operando <?> var, Operando <?> gradienteAccumulator, Operando <?> gradienteSquaredAccumulator, Operando <T> grad, Operando <? estende TNumber > índices, Operando <T> lr, Operando <T> l1, Operando <T> l2, Operando < TInt64 > globalStep, Opções... opções)

Método de fábrica para criar uma classe que agrupa uma nova operação ResourceSparseApplyAdagradDa.

Parâmetros
escopo escopo atual
var Deve ser de uma variável().
gradienteAcumulador Deve ser de uma variável().
gradienteSquaredAccumulator Deve ser de uma variável().
graduado O gradiente.
índices Um vetor de índices na primeira dimensão de var e accum.
lr Taxa de Aprendizagem. Deve ser um escalar.
l1 Regularização L1. Deve ser um escalar.
l2 Regularização L2. Deve ser um escalar.
etapa global Número da etapa de treinamento. Deve ser um escalar.
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de ResourceSparseApplyAdagradDa

public static ResourceSparseApplyAdagradDa.Options useLocking (booleano useLocking)

Parâmetros
useLocking Se for True, a atualização dos tensores var e accum será protegida por um bloqueio; caso contrário, o comportamento será indefinido, mas poderá apresentar menos contenção.