SparseApplyAdagradDa

Clase public final SparseApplyAdagradDa

Actualice las entradas en '* var' y '* acumula' de acuerdo con el esquema de adagrad proximal.

Clases anidadas

clase SparseApplyAdagradDa.Options Los atributos opcionales para SparseApplyAdagradDa

Constantes

Cuerda OP_NAME El nombre de esta operación, como lo conoce el motor central de TensorFlow

Métodos públicos

Salida <T>
asOutput ()
Devuelve el identificador simbólico del tensor.
estática <T se extiende Ttype > SparseApplyAdagradDa <T>
crear ( Alcance alcance, operando <T> var, operando <T> gradientAccumulator, operando <T> gradientSquaredAccumulator, operando <T> grad, operando <? extiende TNumber > índices, operando <T> lr, operando <T> L1, operando <T> L2, operando < TInt64 > globalStep, opciones ... opciones)
Método de fábrica para crear una clase que envuelva una nueva operación SparseApplyAdagradDa.
Salida <T>
fuera ()
Igual que "var".
estáticas SparseApplyAdagradDa.Options
useLocking (Boolean useLocking)

Métodos heredados

Constantes

OP_NAME pública final static String

El nombre de esta operación, como lo conoce el motor central de TensorFlow

Valor constante: "SparseApplyAdagradDA"

Métodos públicos

pública de salida <T> asOutput ()

Devuelve el identificador simbólico del tensor.

Las entradas a las operaciones de TensorFlow son salidas de otra operación de TensorFlow. Este método se utiliza para obtener un identificador simbólico que representa el cálculo de la entrada.

public static SparseApplyAdagradDa <T> crear ( Alcance alcance, operando <T> var, operando <T> gradientAccumulator, operando <T> gradientSquaredAccumulator, operando <T> graduado, operando <? extiende TNumber > índices, operando <T> lr, operando <T> L1, operando <T> L2, operando < TInt64 > globalStep, opciones ... opciones)

Método de fábrica para crear una clase que envuelva una nueva operación SparseApplyAdagradDa.

Parámetros
alcance alcance actual
var Debe ser de una variable ().
gradiente acumulador Debe ser de una variable ().
gradientSquaredAccumulator Debe ser de una variable ().
graduado El gradiente.
índices Un vector de índices en la primera dimensión de var y acum.
lr Tasa de aprendizaje. Debe ser un escalar.
l1 Regularización L1. Debe ser un escalar.
l2 Regularización L2. Debe ser un escalar.
globalStep Número de paso de entrenamiento. Debe ser un escalar.
opciones lleva valores de atributos opcionales
Devoluciones
  • una nueva instancia de SparseApplyAdagradDa

pública de salida <T> a cabo ()

Igual que "var".

estáticas pública SparseApplyAdagradDa.Options useLocking (booleano useLocking)

Parámetros
useLocking Si es Verdadero, la actualización de los tensores var y acumuladores estará protegida por un candado; de lo contrario, el comportamiento no está definido, pero puede presentar menos contención.