ApplyAdagradV2

clase final pública ApplyAdagradV2

Actualice '*var' según el esquema adagrad.

acumulación += grad * grad var -= lr * grad * (1 / sqrt(acumulación))

Clases anidadas

clase AplicarAdagradV2.Opciones Atributos opcionales para ApplyAdagradV2

Constantes

Cadena OP_NOMBRE El nombre de esta operación, como lo conoce el motor central de TensorFlow.

Métodos públicos

Salida <T>
como salida ()
Devuelve el identificador simbólico del tensor.
estático <T extiende TType > ApplyAdagradV2 <T>
crear (alcance alcance , operando <T> var, operando <T> accum, operando <T> lr, operando <T> épsilon, operando <T> grad, opciones... opciones)
Método de fábrica para crear una clase que envuelve una nueva operación ApplyAdagradV2.
Salida <T>
afuera ()
Igual que "var".
estático ApplyAdagradV2.Options
updateSlots (actualización booleana)
estático ApplyAdagradV2.Options
useLocking (uso booleano Locking)

Métodos heredados

Constantes

Cadena final estática pública OP_NAME

El nombre de esta operación, como lo conoce el motor central de TensorFlow.

Valor constante: "ApplyAdagradV2"

Métodos públicos

Salida pública <T> como Salida ()

Devuelve el identificador simbólico del tensor.

Las entradas a las operaciones de TensorFlow son salidas de otra operación de TensorFlow. Este método se utiliza para obtener un identificador simbólico que representa el cálculo de la entrada.

pública estática ApplyAdagradV2 <T> crear (alcance alcance , operando <T> var, operando <T> accum, operando <T> lr, operando <T> épsilon, operando <T> grad, opciones... opciones)

Método de fábrica para crear una clase que envuelve una nueva operación ApplyAdagradV2.

Parámetros
alcance alcance actual
var Debe ser de una Variable().
acumular Debe ser de una Variable().
lr Factor de escala. Debe ser un escalar.
épsilon Factor constante. Debe ser un escalar.
graduado El gradiente.
opciones lleva valores de atributos opcionales
Devoluciones
  • una nueva instancia de ApplyAdagradV2

Salida pública <T> salida ()

Igual que "var".

estático público ApplyAdagradV2.Options updateSlots (updateSlots booleanos)

estático público ApplyAdagradV2.Options useLocking (useLocking booleano)

Parámetros
utilizarBloqueo Si es "True", la actualización de los tensores var y accum estará protegida por un bloqueo; de lo contrario, el comportamiento no está definido, pero puede presentar menos contención.