Adamax

clase pública Adamax

Optimizador que implementa el algoritmo Adamax.

Es una variante de Adán basada en la norma del infinito. Los parámetros predeterminados siguen los proporcionados en el documento. Adamax es a veces superior a Adam, especialmente en modelos con incrustaciones.

Ver también

Constantes

flotador BETA_ONE_DEFAULT
flotador BETA_TWO_DEFAULT
flotador EPSILON_DEFAULT
Cuerda PRIMER MOMENTO
flotador LEARNING_RATE_DEFAULT
Cuerda SEGUNDO_MOMENTO

Constantes heredadas

Constructores públicos

Adamax ( gráfico gráfico)
Crea un Optimizador que implementa el algoritmo Adamax.
Adamax ( gráfico de gráfico, nombre de cadena)
Crea un Optimizador que implementa el algoritmo Adamax.
Adamax ( gráfico gráfico, tasa de aprendizaje flotante)
Crea un Optimizador que implementa el algoritmo Adamax.
Adamax ( gráfico de gráfico, nombre de cadena, tasa de aprendizaje flotante)
Crea un Optimizador que implementa el algoritmo Adamax.
Adamax ( gráfico gráfico, tasa de aprendizaje flotante, flotante betaOne, flotante betaTwo, flotante épsilon)
Crea un Optimizador que implementa el algoritmo Adamax.
Adamax ( gráfico de gráfico, nombre de cadena, tasa de aprendizaje flotante, flotante betaOne, flotante betaTwo, flotante épsilon)
Crea un Optimizador que implementa el algoritmo Adamax.

Métodos públicos

Cuerda
getOptimizerName ()
Obtenga el nombre del optimizador.

Métodos heredados

Constantes

flotador final estático público BETA_ONE_DEFAULT

Valor constante: 0.9

flotador final estático público BETA_TWO_DEFAULT

Valor constante: 0.999

flotador final estático público EPSILON_DEFAULT

Valor constante: 1.0E-7

Cadena final estática pública FIRST_MOMENT

Valor constante: "m"

flotador final estático público LEARNING_RATE_DEFAULT

Valor constante: 0,001

Cadena final estática pública SECOND_MOMENT

Valor constante: "v"

Constructores públicos

público Adamax ( gráfico gráfico)

Crea un Optimizador que implementa el algoritmo Adamax.

Parámetros
grafico el gráfico de TensorFlow

public Adamax ( gráfico gráfico, nombre de cadena)

Crea un Optimizador que implementa el algoritmo Adamax.

Parámetros
grafico el gráfico de TensorFlow
nombre nombre de las operaciones creadas al aplicar degradados. El valor predeterminado es "Adamax".

público Adamax ( gráfico gráfico, tasa de aprendizaje flotante)

Crea un Optimizador que implementa el algoritmo Adamax.

Parámetros
grafico el gráfico de TensorFlow
tasa de aprendizaje La tasa de aprendizaje.

public Adamax ( gráfico de gráfico, nombre de cadena, tasa de aprendizaje flotante)

Crea un Optimizador que implementa el algoritmo Adamax.

Parámetros
grafico el gráfico de TensorFlow
nombre nombre de las operaciones creadas al aplicar degradados. El valor predeterminado es "Adamax".
tasa de aprendizaje La tasa de aprendizaje.

public Adamax ( gráfico gráfico, tasa de aprendizaje flotante, flotante betaOne, flotante betaTwo, flotante épsilon)

Crea un Optimizador que implementa el algoritmo Adamax.

Parámetros
grafico el gráfico de TensorFlow
tasa de aprendizaje La tasa de aprendizaje.
betaOne La tasa de caída exponencial para las estimaciones del primer momento.
betaTwo La tasa de caída exponencial para la norma infinita ponderada exponencialmente.
épsilon Una pequeña constante para la estabilidad numérica.

public Adamax ( gráfico de gráfico, nombre de cadena, tasa de aprendizaje flotante, betaOne flotante, betaTwo flotante, epsilon flotante)

Crea un Optimizador que implementa el algoritmo Adamax.

Parámetros
grafico el gráfico de TensorFlow
nombre nombre de las operaciones creadas al aplicar degradados. El valor predeterminado es "Adamax".
tasa de aprendizaje La tasa de aprendizaje.
betaOne La tasa de caída exponencial para las estimaciones del primer momento.
betaTwo La tasa de caída exponencial para la norma infinita ponderada exponencialmente.
épsilon Una pequeña constante para la estabilidad numérica.

Métodos públicos

public String getOptimizerName ()

Obtenga el nombre del optimizador.

Devoluciones
  • El nombre del optimizador.