Actualice '*var' según el algoritmo de Adam.
$$\text{lr}_t := \mathrm{learning_rate} * \sqrt{1 - \beta_2^t} / (1 - \beta_1^t)$$$$m_t := \beta_1 * m_{t-1} + (1 - \beta_1) * g$$$$v_t := \beta_2 * v_{t-1} + (1 - \beta_2) * g * g$$$$\text{variable} := \text{variable} - \text{lr}_t * m_t / (\sqrt{v_t} + \epsilon)$$
Clases anidadas
| clase | ResourceApplyAdam.Opciones | Atributos opcionales para ResourceApplyAdam | |
Constantes
| Cadena | OP_NOMBRE | El nombre de esta operación, como lo conoce el motor central de TensorFlow. |
Métodos públicos
| estático <T extiende TType > ResourceApplyAdam | crear ( Alcance alcance, Operando <?> var, Operando <?> m, Operando <?> v, Operando <T> beta1Power, Operando <T> beta2Power, Operando <T> lr, Operando <T> beta1, Operando <T > beta2, Operando <T> épsilon, Operando <T> grad, Opciones... opciones) Método de fábrica para crear una clase que envuelve una nueva operación ResourceApplyAdam. |
| ResourceApplyAdam.Options estático | useLocking (uso booleano Locking) |
| ResourceApplyAdam.Options estático | useNesterov (uso booleanoNesterov) |
Métodos heredados
Constantes
Cadena final estática pública OP_NAME
El nombre de esta operación, como lo conoce el motor central de TensorFlow.
Métodos públicos
public static ResourceApplyAdam create ( Alcance alcance, Operando <?> var, Operando <?> m, Operando <?> v, Operando <T> beta1Power, Operando <T> beta2Power, Operando <T> lr, Operando <T> beta1, Operando <T> beta2, Operando <T> épsilon, Operando <T> grad, Opciones... opciones)
Método de fábrica para crear una clase que envuelve una nueva operación ResourceApplyAdam.
Parámetros
| alcance | alcance actual |
|---|---|
| var | Debe ser de una Variable(). |
| metro | Debe ser de una Variable(). |
| v | Debe ser de una Variable(). |
| beta1potencia | Debe ser un escalar. |
| beta2potencia | Debe ser un escalar. |
| lr | Factor de escala. Debe ser un escalar. |
| beta1 | Factor de impulso. Debe ser un escalar. |
| beta2 | Factor de impulso. Debe ser un escalar. |
| épsilon | Término de cresta. Debe ser un escalar. |
| graduado | El gradiente. |
| opciones | lleva valores de atributos opcionales |
Devoluciones
- una nueva instancia de ResourceApplyAdam
ResourceApplyAdam.Options estático público useLocking (useLocking booleano)
Parámetros
| utilizarBloqueo | Si es "True", la actualización de los tensores var, m y v estará protegida por un bloqueo; de lo contrario, el comportamiento no está definido, pero puede presentar menos contención. |
|---|
ResourceApplyAdam.Options estático público useNesterov (uso booleanoNesterov)
Parámetros
| utilizarNesterov | Si es "True", utiliza la actualización de Nesterov. |
|---|