SparseApplyAdagradV2

SparseApplyAdagradV2 public final class

Actualice las entradas relevantes en '* var' y '* acumula' de acuerdo con el esquema adagrad.

Es decir, para las filas para las que hemos graduado, actualizamos var y acumulamos de la siguiente manera:

$$accum += grad * grad$$
$$var -= lr * grad * (1 / sqrt(accum))$$

Clases anidadas

clase SparseApplyAdagradV2.Options Los atributos opcionales para SparseApplyAdagradV2

Métodos públicos

Salida <T>
asOutput ()
Devuelve el identificador simbólico de un tensor.
estática <T, U se extiende Número> SparseApplyAdagradV2 <T>
crear ( Alcance alcance, operando <T> var, operando <T> acum, operando <T> lr, operando <T> épsilon, operando <T> graduado, operando <U> índices, opciones ... opciones)
Método de fábrica para crear una clase que envuelva una nueva operación SparseApplyAdagradV2.
Salida <T>
fuera ()
Igual que "var".
estáticas SparseApplyAdagradV2.Options
updateSlots (updateSlots booleanas)
estáticas SparseApplyAdagradV2.Options
useLocking (Boolean useLocking)

Métodos heredados

Métodos públicos

pública de salida <T> asOutput ()

Devuelve el identificador simbólico de un tensor.

Las entradas a las operaciones de TensorFlow son salidas de otra operación de TensorFlow. Este método se utiliza para obtener un identificador simbólico que representa el cálculo de la entrada.

public static SparseApplyAdagradV2 <T> crear ( Alcance alcance, operando <T> var, operando <T> acum, operando <T> lr, operando <T> épsilon, operando <T> graduado, operando <u> índices, opciones .. . opciones)

Método de fábrica para crear una clase que envuelva una nueva operación SparseApplyAdagradV2.

Parámetros
alcance alcance actual
var Debe ser de una variable ().
acumular Debe ser de una variable ().
lr Tasa de aprendizaje. Debe ser un escalar.
épsilon Factor constante. Debe ser un escalar.
graduado El gradiente.
índices Un vector de índices en la primera dimensión de var y acum.
opciones lleva valores de atributos opcionales
Devoluciones
  • una nueva instancia de SparseApplyAdagradV2

pública de salida <T> a cabo ()

Igual que "var".

estáticas pública SparseApplyAdagradV2.Options updateSlots (updateSlots booleanas)

estáticas pública SparseApplyAdagradV2.Options useLocking (booleano useLocking)

Parámetros
useLocking Si es "Verdadero", la actualización de los tensores var y acumuladores estará protegida por un bloqueo; de lo contrario, el comportamiento no está definido, pero puede presentar menos contención.