ApplyAdam

clase final pública ApplyAdam

Actualice '*var' según el algoritmo de Adam.

$$lr_t := \text{learning\_rate} * \sqrt{1 - beta_2^t} / (1 - beta_1^t)$$$$m_t := beta_1 * m_{t-1} + (1 - beta_1) * g$$$$v_t := beta_2 * v_{t-1} + (1 - beta_2) * g * g$$$$variable := variable - lr_t * m_t / (\sqrt{v_t} + \epsilon)$$

Clases anidadas

clase AplicarAdam.Opciones Atributos opcionales para ApplyAdam

Constantes

Cadena OP_NOMBRE El nombre de esta operación, como lo conoce el motor central de TensorFlow.

Métodos públicos

Salida <T>
como salida ()
Devuelve el identificador simbólico del tensor.
estático <T extiende TType > ApplyAdam <T>
crear ( Alcance alcance, Operando <T> var, Operando <T> m, Operando <T> v, Operando <T> beta1Power, Operando <T> beta2Power, Operando <T> lr, Operando <T> beta1, Operando <T > beta2, Operando <T> épsilon, Operando <T> grad, Opciones... opciones)
Método de fábrica para crear una clase que envuelve una nueva operación de ApplyAdam.
Salida <T>
afuera ()
Igual que "var".
AplicarAdam.Options estático
useLocking (uso booleano Locking)
AplicarAdam.Options estático
useNesterov (uso booleanoNesterov)

Métodos heredados

Constantes

Cadena final estática pública OP_NAME

El nombre de esta operación, como lo conoce el motor central de TensorFlow.

Valor constante: "ApplyAdam"

Métodos públicos

Salida pública <T> como Salida ()

Devuelve el identificador simbólico del tensor.

Las entradas a las operaciones de TensorFlow son salidas de otra operación de TensorFlow. Este método se utiliza para obtener un identificador simbólico que representa el cálculo de la entrada.

public static ApplyAdam <T> create ( Alcance alcance, Operando <T> var, Operando <T> m, Operando <T> v, Operando <T> beta1Power, Operando <T> beta2Power, Operando <T> lr, Operando <T > beta1, Operando <T> beta2, Operando <T> épsilon, Operando <T> grad, Opciones... opciones)

Método de fábrica para crear una clase que envuelve una nueva operación de ApplyAdam.

Parámetros
alcance alcance actual
var Debe ser de una Variable().
metro Debe ser de una Variable().
v Debe ser de una Variable().
beta1potencia Debe ser un escalar.
beta2potencia Debe ser un escalar.
lr Factor de escala. Debe ser un escalar.
beta1 Factor de impulso. Debe ser un escalar.
beta2 Factor de impulso. Debe ser un escalar.
épsilon Término de cresta. Debe ser un escalar.
graduado El gradiente.
opciones lleva valores de atributos opcionales
Devoluciones
  • una nueva instancia de ApplyAdam

Salida pública <T> salida ()

Igual que "var".

público estático ApplyAdam.Options useLocking (useLocking booleano)

Parámetros
utilizarBloqueo Si es "True", la actualización de los tensores var, m y v estará protegida por un bloqueo; de lo contrario, el comportamiento no está definido, pero puede presentar menos contención.

público estático ApplyAdam.Options useNesterov (uso booleanoNesterov)

Parámetros
utilizarNesterov Si es "True", utiliza la actualización de Nesterov.