Actualice '*var' de acuerdo con el esquema adagrad.
accum += grad * grad var -= lr * grad * (1 / sqrt(accum))
Clases anidadas
clase | AplicarAdagradV2.Opciones | Atributos opcionales para ApplyAdagradV2 |
Métodos públicos
Salida <T> | como salida () Devuelve el identificador simbólico de un tensor. |
estático <T> AplicarAdagradV2 <T> | |
Salida <T> | fuera () Igual que "var". |
estático ApplyAdagradV2.Opciones | updateSlots (Booleano updateSlots) |
estático ApplyAdagradV2.Opciones | useLocking (booleano useLocking) |
Métodos Heredados
Métodos públicos
salida pública <T> como salida ()
Devuelve el identificador simbólico de un tensor.
Las entradas de las operaciones de TensorFlow son salidas de otra operación de TensorFlow. Este método se utiliza para obtener un identificador simbólico que representa el cálculo de la entrada.
public static ApplyAdagradV2 <T> create ( Scope scope, Operand <T> var, Operand <T> accum, Operand <T> lr, Operand <T> epsilon, Operand <T> grad, Options... options)
Método de fábrica para crear una clase que envuelve una nueva operación ApplyAdagradV2.
Parámetros
alcance | alcance actual |
---|---|
variable | Debe ser de una Variable(). |
acumular | Debe ser de una Variable(). |
yo | Factor de escala. Debe ser un escalar. |
épsilon | Factor constante. Debe ser un escalar. |
graduado | el gradiente |
opciones | lleva valores de atributos opcionales |
Devoluciones
- una nueva instancia de ApplyAdagradV2
public static ApplyAdagradV2.Options useLocking (booleano useLocking)
Parámetros
usarBloqueo | Si `True`, la actualización de los tensores var y accum estará protegida por un candado; de lo contrario, el comportamiento no está definido, pero puede exhibir menos contención. |
---|