SparseApplyProximalAdagrad

clase final pública SparseApplyProximalAdagrad

Entradas de actualización escasas en '*var' y '*accum' según el algoritmo FOBOS.

Es decir, para las filas para las que hemos graduado, actualizamos var y accum de la siguiente manera: $$accum += grad grad$$$$prox_v = var$$$$prox_v -= lr grad (1 / sqrt(accum))$$$$var = sign(prox_v)/(1+lrl2) max{|prox_v|-lrl1,0}$$

Clases anidadas

clase SparseApplyProximalAdagrad.Options Atributos opcionales para SparseApplyProximalAdagrad

Constantes

Cadena OP_NOMBRE El nombre de esta operación, como lo conoce el motor central de TensorFlow.

Métodos públicos

Salida <T>
como salida ()
Devuelve el identificador simbólico del tensor.
estático <T extiende TType > SparseApplyProximalAdagrad <T>
crear ( Alcance alcance, Operando <T> var, Operando <T> accum, Operando <T> lr, Operando <T> l1, Operando <T> l2, Operando <T> grad, Operando <? extiende TNumber > índices, Opciones ... opciones)
Método de fábrica para crear una clase que envuelve una nueva operación SparseApplyProximalAdagrad.
Salida <T>
afuera ()
Igual que "var".
Estático SparseApplyProximalAdagrad.Options
useLocking (uso booleano Locking)

Métodos heredados

Constantes

Cadena final estática pública OP_NAME

El nombre de esta operación, como lo conoce el motor central de TensorFlow.

Valor constante: "SparseApplyProximalAdagrad"

Métodos públicos

Salida pública <T> como Salida ()

Devuelve el identificador simbólico del tensor.

Las entradas a las operaciones de TensorFlow son salidas de otra operación de TensorFlow. Este método se utiliza para obtener un identificador simbólico que representa el cálculo de la entrada.

public static SparseApplyProximalAdagrad <T> create ( Alcance alcance, Operando <T> var, Operando <T> accum, Operando <T> lr, Operando <T> l1, Operando <T> l2, Operando <T> grad, Operando <? extiende TNumber > índices, Opciones... opciones)

Método de fábrica para crear una clase que envuelve una nueva operación SparseApplyProximalAdagrad.

Parámetros
alcance alcance actual
var Debe ser de una Variable().
acumular Debe ser de una Variable().
lr Tasa de aprendizaje. Debe ser un escalar.
l1 Regularización L1. Debe ser un escalar.
l2 Regularización L2. Debe ser un escalar.
graduado El gradiente.
índices Un vector de índices en la primera dimensión de var y accum.
opciones lleva valores de atributos opcionales
Devoluciones
  • una nueva instancia de SparseApplyProximalAdagrad

Salida pública <T> salida ()

Igual que "var".

público estático SparseApplyProximalAdagrad.Options useLocking (uso booleano)

Parámetros
utilizarBloqueo Si es Verdadero, la actualización de los tensores var y accum estará protegida por un bloqueo; de lo contrario, el comportamiento no está definido, pero puede presentar menos contención.