Actualice '*var' según el esquema adadelta.
acumulación = rho() * acumulación + (1 - rho()) * grad.square(); actualizar = (update_accum + epsilon).sqrt() * (accum + epsilon()).rsqrt() * graduado; update_accum = rho() * update_accum + (1 - rho()) * update.square(); var -= actualizar;
Clases anidadas
| clase | ResourceApplyAdadelta.Opciones | Atributos opcionales para ResourceApplyAdadelta | |
Constantes
| Cadena | OP_NOMBRE | El nombre de esta operación, como lo conoce el motor central de TensorFlow. |
Métodos públicos
| estático <T extiende TType > ResourceApplyAdadelta | |
| ResourceApplyAdadelta.Options estático | useLocking (uso booleano Locking) |
Métodos heredados
Constantes
Cadena final estática pública OP_NAME
El nombre de esta operación, como lo conoce el motor central de TensorFlow.
Métodos públicos
pública estática ResourceApplyAdadelta crear (alcance alcance , Operando <?> var, Operando <?> accum, Operando <?> accumUpdate, Operando <T> lr, Operando <T> rho, Operando <T> épsilon, Operando <T> grad, Opciones... opciones)
Método de fábrica para crear una clase que envuelve una nueva operación ResourceApplyAdadelta.
Parámetros
| alcance | alcance actual |
|---|---|
| var | Debe ser de una Variable(). |
| acumular | Debe ser de una Variable(). |
| acumularActualización | Debe ser de una Variable(). |
| lr | Factor de escala. Debe ser un escalar. |
| rho | Factor de decadencia. Debe ser un escalar. |
| épsilon | Factor constante. Debe ser un escalar. |
| graduado | El gradiente. |
| opciones | lleva valores de atributos opcionales |
Devoluciones
- una nueva instancia de ResourceApplyAdadelta
ResourceApplyAdadelta.Options estático público useLocking (useLocking booleano)
Parámetros
| utilizarBloqueo | Si es Verdadero, la actualización de los tensores var, accum y update_accum estará protegida por un bloqueo; de lo contrario, el comportamiento no está definido, pero puede presentar menos contención. |
|---|