Adamax

clase pública Adamax

Optimizador que implementa el algoritmo Adamax.

Es una variante de Adán basada en la norma del infinito. Los parámetros predeterminados siguen los proporcionados en el documento. Adamax es en ocasiones superior a Adam, especialmente en modelos con incrustaciones.

Ver también

Constantes

flotar BETA_ONE_DEFAULT
flotar BETA_TWO_DEFAULT
flotar EPSILON_DEFAULT
Cadena PRIMER MOMENTO
flotar APRENDIZAJE_RATE_DEFAULT
Cadena SEGUNDO_MOMENTO

Constantes heredadas

Constructores Públicos

Adamax (gráfico gráfico )
Crea un Optimizador que implementa el algoritmo Adamax.
Adamax (gráfico gráfico , nombre de cadena)
Crea un Optimizador que implementa el algoritmo Adamax.
Adamax (gráfico gráfico , tasa de aprendizaje flotante)
Crea un Optimizador que implementa el algoritmo Adamax.
Adamax (gráfico gráfico , nombre de cadena, tasa de aprendizaje flotante)
Crea un Optimizador que implementa el algoritmo Adamax.
Adamax (gráfico gráfico , tasa de aprendizaje flotante, beta uno flotante, beta dos flotante, épsilon flotante)
Crea un Optimizador que implementa el algoritmo Adamax.
Adamax ( gráfico , nombre de cadena, tasa de aprendizaje flotante, betaOne flotante, betaTwo flotante, épsilon flotante)
Crea un Optimizador que implementa el algoritmo Adamax.

Métodos públicos

Cadena
getOptimizerName ()
Obtenga el nombre del optimizador.

Métodos heredados

Constantes

flotación final estática pública BETA_ONE_DEFAULT

Valor constante: 0,9

flotación final estática pública BETA_TWO_DEFAULT

Valor constante: 0,999

flotación final estática pública EPSILON_DEFAULT

Valor constante: 1.0E-7

Cadena final estática pública FIRST_MOMENT

Valor constante: "m"

flotación final estática pública LEARNING_RATE_DEFAULT

Valor constante: 0,001

Cadena final estática pública SECOND_MOMENT

Valor constante: "v"

Constructores Públicos

Adamax público (gráfico gráfico )

Crea un Optimizador que implementa el algoritmo Adamax.

Parámetros
grafico el gráfico de TensorFlow

Adamax público (gráfico gráfico , nombre de cadena)

Crea un Optimizador que implementa el algoritmo Adamax.

Parámetros
grafico el gráfico de TensorFlow
nombre nombre de las operaciones creadas al aplicar gradientes. El valor predeterminado es "Adamax".

Adamax público (gráfico gráfico , tasa de aprendizaje flotante)

Crea un Optimizador que implementa el algoritmo Adamax.

Parámetros
grafico el gráfico de TensorFlow
tasa de aprendizaje La tasa de aprendizaje.

Adamax público (gráfico gráfico , nombre de cadena, tasa de aprendizaje flotante)

Crea un Optimizador que implementa el algoritmo Adamax.

Parámetros
grafico el gráfico de TensorFlow
nombre nombre de las operaciones creadas al aplicar gradientes. El valor predeterminado es "Adamax".
tasa de aprendizaje La tasa de aprendizaje.

Adamax público ( gráfico , tasa de aprendizaje flotante, betaOne flotante, betaTwo flotante, épsilon flotante)

Crea un Optimizador que implementa el algoritmo Adamax.

Parámetros
grafico el gráfico de TensorFlow
tasa de aprendizaje La tasa de aprendizaje.
betauno La tasa de caída exponencial para las estimaciones del primer momento.
betados La tasa de caída exponencial de la norma infinita ponderada exponencialmente.
épsilon Una pequeña constante para la estabilidad numérica.

Adamax público ( gráfico , nombre de cadena, tasa de aprendizaje flotante, betaUno flotante, betaTwo flotante, épsilon flotante)

Crea un Optimizador que implementa el algoritmo Adamax.

Parámetros
grafico el gráfico de TensorFlow
nombre nombre de las operaciones creadas al aplicar gradientes. El valor predeterminado es "Adamax".
tasa de aprendizaje La tasa de aprendizaje.
betauno La tasa de caída exponencial para las estimaciones del primer momento.
betados La tasa de caída exponencial de la norma infinita ponderada exponencialmente.
épsilon Una pequeña constante para la estabilidad numérica.

Métodos públicos

cadena pública getOptimizerName ()

Obtenga el nombre del optimizador.

Devoluciones
  • El nombre del optimizador.