ApplyAdam

ApplyAdam public final class

Actualice '* var' según el algoritmo de Adam.

$$lr_t := \text{learning\_rate} * \sqrt{1 - beta_2^t} / (1 - beta_1^t)$$$$m_t := beta_1 * m_{t-1} + (1 - beta_1) * g$$$$v_t := beta_2 * v_{t-1} + (1 - beta_2) * g * g$$$$variable := variable - lr_t * m_t / (\sqrt{v_t} + \epsilon)$$

Clases anidadas

clase ApplyAdam.Options Los atributos opcionales para ApplyAdam

Constantes

Cuerda OP_NAME El nombre de esta operación, como lo conoce el motor central de TensorFlow

Métodos públicos

Salida <T>
asOutput ()
Devuelve el identificador simbólico del tensor.
estática <T se extiende Ttype > ApplyAdam <T>
crear ( Alcance alcance, operando <T> var, operando <T> m, operando <T> v, operando <T> beta1Power, operando <T> beta2Power, operando <T> lr, operando <T> beta1, operando <T > beta2, operando <T> épsilon, operando <T> graduado, opciones ... opciones)
Método de fábrica para crear una clase que envuelva una nueva operación de ApplyAdam.
Salida <T>
fuera ()
Igual que "var".
estáticas ApplyAdam.Options
useLocking (Boolean useLocking)
estáticas ApplyAdam.Options
useNesterov (Boolean useNesterov)

Métodos heredados

Constantes

OP_NAME pública final static String

El nombre de esta operación, como lo conoce el motor central de TensorFlow

Valor constante: "ApplyAdam"

Métodos públicos

pública de salida <T> asOutput ()

Devuelve el identificador simbólico del tensor.

Las entradas a las operaciones de TensorFlow son salidas de otra operación de TensorFlow. Este método se utiliza para obtener un identificador simbólico que representa el cálculo de la entrada.

public static ApplyAdam <T> crear ( Alcance alcance, operando <T> var, operando <T> m, operando <T> v, operando <T> beta1Power, operando <T> beta2Power, operando <T> lr, operando <T > beta1, operando <T> beta2, operando <T> épsilon, operando <T> graduado, opciones ... opciones)

Método de fábrica para crear una clase que envuelva una nueva operación de ApplyAdam.

Parámetros
alcance alcance actual
var Debe ser de una variable ().
metro Debe ser de una variable ().
v Debe ser de una variable ().
beta1Power Debe ser un escalar.
beta2Power Debe ser un escalar.
lr Factor de escala. Debe ser un escalar.
beta1 Factor de momento. Debe ser un escalar.
beta2 Factor de momento. Debe ser un escalar.
épsilon Término de cresta. Debe ser un escalar.
graduado El gradiente.
opciones lleva valores de atributos opcionales
Devoluciones
  • una nueva instancia de ApplyAdam

pública de salida <T> a cabo ()

Igual que "var".

public static ApplyAdam.Options useLocking (booleano useLocking)

Parámetros
useLocking Si es "True", la actualización de los tensores var, myv estará protegida por un bloqueo; de lo contrario, el comportamiento no está definido, pero puede presentar menos contención.

public static ApplyAdam.Options useNesterov (booleano useNesterov)

Parámetros
useNesterov Si es "Verdadero", utiliza la actualización nesterov.