ResourceSparseApplyAdagradDa

clase final pública ResourceSparseApplyAdagradDa

Actualice las entradas en '*var' y '*accum' según el esquema adagrad proximal.

Clases anidadas

clase ResourceSparseApplyAdagradDa.Options Atributos opcionales para ResourceSparseApplyAdagradDa

Constantes

Cadena OP_NOMBRE El nombre de esta operación, como lo conoce el motor central de TensorFlow.

Métodos públicos

estático <T extiende TType > ResourceSparseApplyAdagradDa
crear ( Alcance alcance, Operando <?> var, Operando <?> gradientAccumulator, Operando <?> gradientSquaredAccumulator, Operando <T> grad, Operando <? extiende TNumber > índices, Operando <T> lr, Operando <T> l1, Operando <T> l2, Operando < TInt64 > globalStep, Opciones... opciones)
Método de fábrica para crear una clase que envuelve una nueva operación ResourceSparseApplyAdagradDa.
estático ResourceSparseApplyAdagradDa.Options
useLocking (uso booleano Locking)

Métodos heredados

Constantes

Cadena final estática pública OP_NAME

El nombre de esta operación, como lo conoce el motor central de TensorFlow.

Valor constante: "ResourceSparseApplyAdagradDA"

Métodos públicos

public static ResourceSparseApplyAdagradDa create ( Alcance alcance, Operando <?> var, Operando <?> gradientAccumulator, Operando <?> gradientSquaredAccumulator, Operando <T> grad, Operando <? extiende TNumber > índices, Operando <T> lr, Operando <T> l1, Operando <T> l2, Operando < TInt64 > globalStep, Opciones... opciones)

Método de fábrica para crear una clase que envuelve una nueva operación ResourceSparseApplyAdagradDa.

Parámetros
alcance alcance actual
var Debe ser de una Variable().
gradienteacumulador Debe ser de una Variable().
gradienteCuadradoAcumulador Debe ser de una Variable().
graduado El gradiente.
índices Un vector de índices en la primera dimensión de var y accum.
lr Tasa de aprendizaje. Debe ser un escalar.
l1 Regularización L1. Debe ser un escalar.
l2 Regularización L2. Debe ser un escalar.
paso global Número de paso de entrenamiento. Debe ser un escalar.
opciones lleva valores de atributos opcionales
Devoluciones
  • una nueva instancia de ResourceSparseApplyAdagradDa

ResourceSparseApplyAdagradDa.Options estático público useLocking (useLocking booleano)

Parámetros
utilizarBloqueo Si es Verdadero, la actualización de los tensores var y accum estará protegida por un bloqueo; de lo contrario, el comportamiento no está definido, pero puede presentar menos contención.