Otimizador que implementa o algoritmo Adamax.
É uma variante de Adão baseada na norma do infinito. Os parâmetros padrão seguem aqueles fornecidos no artigo. Adamax às vezes é superior ao adam, especialmente em modelos com embeddings.
Veja também
Constantes
| flutuador | BETA_ONE_DEFAULT | |
| flutuador | BETA_TWO_DEFAULT | |
| flutuador | EPSILON_DEFAULT | |
| Corda | FIRST_MOMENT | |
| flutuador | LEARNING_RATE_DEFAULT | |
| Corda | SECOND_MOMENT |
Constantes herdadas
Construtores Públicos
Métodos Públicos
| Corda | getOptimizerName () Obtenha o nome do otimizador. |
Métodos herdados
Constantes
flutuador final estático público BETA_ONE_DEFAULT
flutuador final estático público BETA_TWO_DEFAULT
flutuador final estático público EPSILON_DEFAULT
String final estática pública FIRST_MOMENT
flutuador final estático público LEARNING_RATE_DEFAULT
String final estática pública SECOND_MOMENT
Construtores Públicos
Adamax público (gráfico gráfico )
Cria um otimizador que implementa o algoritmo Adamax.
Parâmetros
| gráfico | o gráfico do TensorFlow |
|---|
público Adamax (gráfico gráfico , nome da string)
Cria um otimizador que implementa o algoritmo Adamax.
Parâmetros
| gráfico | o gráfico do TensorFlow |
|---|---|
| nome | nome para as operações criadas ao aplicar gradientes. O padrão é "Adamax". |
public Adamax (gráfico gráfico , float learningRate)
Cria um otimizador que implementa o algoritmo Adamax.
Parâmetros
| gráfico | o gráfico do TensorFlow |
|---|---|
| taxa de Aprendizagem | A taxa de aprendizagem. |
public Adamax ( gráfico , nome da string, float learningRate)
Cria um otimizador que implementa o algoritmo Adamax.
Parâmetros
| gráfico | o gráfico do TensorFlow |
|---|---|
| nome | nome para as operações criadas ao aplicar gradientes. O padrão é "Adamax". |
| taxa de Aprendizagem | A taxa de aprendizagem. |
public Adamax (gráfico gráfico , float learningRate, float betaOne, float betaTwo, float epsilon)
Cria um otimizador que implementa o algoritmo Adamax.
Parâmetros
| gráfico | o gráfico do TensorFlow |
|---|---|
| taxa de Aprendizagem | A taxa de aprendizagem. |
| betaOne | A taxa de decaimento exponencial para as estimativas do primeiro momento. |
| betaDois | A taxa de decaimento exponencial para a norma infinita ponderada exponencialmente. |
| épsilon | Uma pequena constante para estabilidade numérica. |
public Adamax (gráfico gráfico , nome da string, float learningRate, float betaOne, float betaTwo, float epsilon)
Cria um otimizador que implementa o algoritmo Adamax.
Parâmetros
| gráfico | o gráfico do TensorFlow |
|---|---|
| nome | nome para as operações criadas ao aplicar gradientes. O padrão é "Adamax". |
| taxa de Aprendizagem | A taxa de aprendizagem. |
| betaOne | A taxa de decaimento exponencial para as estimativas do primeiro momento. |
| betaDois | A taxa de decaimento exponencial para a norma infinita ponderada exponencialmente. |
| épsilon | Uma pequena constante para estabilidade numérica. |
Métodos Públicos
String pública getOptimizerName ()
Obtenha o nome do otimizador.
Devoluções
- O nome do otimizador.