Optimizador que implementa el algoritmo Adagrad.
Adagrad es un optimizador con tasas de aprendizaje específicas de parámetros, que se adaptan en relación con la frecuencia con la que se actualiza un parámetro durante el entrenamiento. Cuantas más actualizaciones reciba un parámetro, menores serán las actualizaciones.
Constantes
| Cadena | ACUMULADOR | |
| flotar | INITIAL_ACCUMULATOR_DEFAULT | |
| flotar | APRENDIZAJE_RATE_DEFAULT |
Constantes heredadas
Constructores Públicos
Métodos públicos
| Cadena | getOptimizerName () Obtenga el nombre del optimizador. |
| Cadena | Encadenar () |
Métodos heredados
Constantes
ACUMULADOR de cadena final estático público
flotación final estática pública INITIAL_ACCUMULATOR_DEFAULT
flotación final estática pública LEARNING_RATE_DEFAULT
Constructores Públicos
AdaGrad público (gráfico gráfico )
Crea un optimizador AdaGrad
Parámetros
| grafico | el gráfico de TensorFlow |
|---|
AdaGrad público (gráfico gráfico , tasa de aprendizaje flotante)
Crea un optimizador AdaGrad
Parámetros
| grafico | el gráfico de TensorFlow |
|---|---|
| tasa de aprendizaje | la tasa de aprendizaje |
AdaGrad público (gráfico gráfico , tasa de aprendizaje flotante, valor acumulador inicial flotante)
Crea un optimizador AdaGrad
Parámetros
| grafico | el gráfico de TensorFlow |
|---|---|
| tasa de aprendizaje | la tasa de aprendizaje |
| valoracumuladorinicial | El valor inicial de los acumuladores no debe ser negativo. |
Lanza
| Argumento de excepción ilegal | si el valor acumulador inicial es negativo |
|---|
AdaGrad público (gráfico gráfico , nombre de cadena, tasa de aprendizaje flotante)
Crea un optimizador AdaGrad
Parámetros
| grafico | el gráfico de TensorFlow |
|---|---|
| nombre | el nombre de este Optimizador (el valor predeterminado es 'Adagrad') |
| tasa de aprendizaje | la tasa de aprendizaje |
AdaGrad público ( gráfico , nombre de cadena, tasa de aprendizaje flotante, valor acumulador inicial flotante)
Crea un optimizador AdaGrad
Parámetros
| grafico | el gráfico de TensorFlow |
|---|---|
| nombre | el nombre de este Optimizador (el valor predeterminado es 'Adagrad') |
| tasa de aprendizaje | la tasa de aprendizaje |
| valoracumuladorinicial | El valor inicial de los acumuladores no debe ser negativo. |
Lanza
| Argumento de excepción ilegal | si el valor acumulador inicial es negativo |
|---|
Métodos públicos
cadena pública getOptimizerName ()
Obtenga el nombre del optimizador.
Devoluciones
- El nombre del optimizador.