Actualice '*var' según el esquema adadelta.
acumulación = rho() * acumulación + (1 - rho()) * grad.square(); actualizar = (update_accum + epsilon).sqrt() * (accum + epsilon()).rsqrt() * graduado; update_accum = rho() * update_accum + (1 - rho()) * update.square(); var -= actualizar;
Clases anidadas
clase | ResourceApplyAdadelta.Opciones | Atributos opcionales para ResourceApplyAdadelta |
Constantes
Cadena | OP_NOMBRE | El nombre de esta operación, como lo conoce el motor central de TensorFlow. |
Métodos públicos
estático <T extiende TType > ResourceApplyAdadelta | |
ResourceApplyAdadelta.Options estático | useLocking (uso booleano Locking) |
Métodos heredados
Constantes
Cadena final estática pública OP_NAME
El nombre de esta operación, como lo conoce el motor central de TensorFlow.
Métodos públicos
pública estática ResourceApplyAdadelta crear (alcance alcance , Operando <?> var, Operando <?> accum, Operando <?> accumUpdate, Operando <T> lr, Operando <T> rho, Operando <T> épsilon, Operando <T> grad, Opciones... opciones)
Método de fábrica para crear una clase que envuelve una nueva operación ResourceApplyAdadelta.
Parámetros
alcance | alcance actual |
---|---|
var | Debe ser de una Variable(). |
acumular | Debe ser de una Variable(). |
acumularActualización | Debe ser de una Variable(). |
lr | Factor de escala. Debe ser un escalar. |
rho | Factor de decadencia. Debe ser un escalar. |
épsilon | Factor constante. Debe ser un escalar. |
graduado | El gradiente. |
opciones | lleva valores de atributos opcionales |
Devoluciones
- una nueva instancia de ResourceApplyAdadelta
ResourceApplyAdadelta.Options estático público useLocking (useLocking booleano)
Parámetros
utilizarBloqueo | Si es Verdadero, la actualización de los tensores var, accum y update_accum estará protegida por un bloqueo; de lo contrario, el comportamiento no está definido, pero puede presentar menos contención. |
---|