Ottimizzatore che implementa l'algoritmo Adamax.
È una variante di Adamo basata sulla norma dell'infinito. I parametri predefiniti seguono quelli forniti nel documento. Adamax è talvolta superiore ad Adam, soprattutto nei modelli con incastri.
Guarda anche
Costanti
| galleggiante | BETA_ONE_DEFAULT | |
| galleggiante | BETA_TWO_DEFAULT | |
| galleggiante | EPSILON_DEFAULT | |
| Corda | PRIMO_MOMENTO | |
| galleggiante | LEARNING_RATE_DEFAULT | |
| Corda | SECONDO_MOMENTO |
Costanti ereditate
Costruttori pubblici
Metodi pubblici
| Corda | getOptimizerName () Ottieni il nome dell'ottimizzatore. |
Metodi ereditati
Costanti
float finale statico pubblico BETA_ONE_DEFAULT
float finale statico pubblico BETA_TWO_DEFAULT
float finale statico pubblico EPSILON_DEFAULT
Stringa finale statica pubblica FIRST_MOMENT
float finale statico pubblico LEARNING_RATE_DEFAULT
Stringa finale statica pubblica SECOND_MOMENT
Costruttori pubblici
pubblico Adamax (grafico grafico )
Crea un ottimizzatore che implementa l'algoritmo Adamax.
Parametri
| grafico | il grafico TensorFlow |
|---|
public Adamax (grafico grafico , nome stringa)
Crea un ottimizzatore che implementa l'algoritmo Adamax.
Parametri
| grafico | il grafico TensorFlow |
|---|---|
| nome | nome per le operazioni create durante l'applicazione dei gradienti. Il valore predefinito è "Adamax". |
Adamax pubblico (grafico grafico , tasso di apprendimento float)
Crea un ottimizzatore che implementa l'algoritmo Adamax.
Parametri
| grafico | il grafico TensorFlow |
|---|---|
| tasso di apprendimento | Il tasso di apprendimento. |
public Adamax (grafico grafico , nome stringa, tasso di apprendimento float)
Crea un ottimizzatore che implementa l'algoritmo Adamax.
Parametri
| grafico | il grafico TensorFlow |
|---|---|
| nome | nome per le operazioni create durante l'applicazione dei gradienti. Il valore predefinito è "Adamax". |
| tasso di apprendimento | Il tasso di apprendimento. |
pubblico Adamax (grafico grafico , float learningRate, float betaOne, float betaTwo, float epsilon)
Crea un ottimizzatore che implementa l'algoritmo Adamax.
Parametri
| grafico | il grafico TensorFlow |
|---|---|
| tasso di apprendimento | Il tasso di apprendimento. |
| betaOne | Il tasso di decadimento esponenziale per le stime del primo momento. |
| betaDue | Il tasso di decadimento esponenziale per la norma dell'infinito ponderata in modo esponenziale. |
| epsilon | Una piccola costante per la stabilità numerica. |
public Adamax (grafico grafico , nome stringa, float learningRate, float betaOne, float betaTwo, float epsilon)
Crea un ottimizzatore che implementa l'algoritmo Adamax.
Parametri
| grafico | il grafico TensorFlow |
|---|---|
| nome | nome per le operazioni create durante l'applicazione dei gradienti. Il valore predefinito è "Adamax". |
| tasso di apprendimento | Il tasso di apprendimento. |
| betaOne | Il tasso di decadimento esponenziale per le stime del primo momento. |
| betaDue | Il tasso di decadimento esponenziale per la norma dell'infinito ponderata in modo esponenziale. |
| epsilon | Una piccola costante per la stabilità numerica. |
Metodi pubblici
public String getOptimizerName ()
Ottieni il nome dell'ottimizzatore.
ritorna
- Il nome dell'ottimizzatore.