Ottimizzatore che implementa l'algoritmo Adamax.
È una variante di Adamo basata sulla norma dell'infinito. I parametri predefiniti seguono quelli forniti nel documento. Adamax è talvolta superiore ad Adam, soprattutto nei modelli con incastri.
Guarda anche
Costanti
galleggiante | BETA_ONE_DEFAULT | |
galleggiante | BETA_TWO_DEFAULT | |
galleggiante | EPSILON_DEFAULT | |
Corda | PRIMO_MOMENTO | |
galleggiante | LEARNING_RATE_DEFAULT | |
Corda | SECONDO_MOMENTO |
Costanti ereditate
Costruttori pubblici
Metodi pubblici
Corda | getOptimizerName () Ottieni il nome dell'ottimizzatore. |
Metodi ereditati
Costanti
float finale statico pubblico BETA_ONE_DEFAULT
float finale statico pubblico BETA_TWO_DEFAULT
float finale statico pubblico EPSILON_DEFAULT
Stringa finale statica pubblica FIRST_MOMENT
float finale statico pubblico LEARNING_RATE_DEFAULT
Stringa finale statica pubblica SECOND_MOMENT
Costruttori pubblici
pubblico Adamax (grafico grafico )
Crea un ottimizzatore che implementa l'algoritmo Adamax.
Parametri
grafico | il grafico TensorFlow |
---|
public Adamax (grafico grafico , nome stringa)
Crea un ottimizzatore che implementa l'algoritmo Adamax.
Parametri
grafico | il grafico TensorFlow |
---|---|
nome | nome per le operazioni create durante l'applicazione dei gradienti. Il valore predefinito è "Adamax". |
Adamax pubblico (grafico grafico , tasso di apprendimento float)
Crea un ottimizzatore che implementa l'algoritmo Adamax.
Parametri
grafico | il grafico TensorFlow |
---|---|
tasso di apprendimento | Il tasso di apprendimento. |
public Adamax (grafico grafico , nome stringa, tasso di apprendimento float)
Crea un ottimizzatore che implementa l'algoritmo Adamax.
Parametri
grafico | il grafico TensorFlow |
---|---|
nome | nome per le operazioni create durante l'applicazione dei gradienti. Il valore predefinito è "Adamax". |
tasso di apprendimento | Il tasso di apprendimento. |
pubblico Adamax (grafico grafico , float learningRate, float betaOne, float betaTwo, float epsilon)
Crea un ottimizzatore che implementa l'algoritmo Adamax.
Parametri
grafico | il grafico TensorFlow |
---|---|
tasso di apprendimento | Il tasso di apprendimento. |
betaOne | Il tasso di decadimento esponenziale per le stime del primo momento. |
betaDue | Il tasso di decadimento esponenziale per la norma dell'infinito ponderata in modo esponenziale. |
epsilon | Una piccola costante per la stabilità numerica. |
public Adamax (grafico grafico , nome stringa, float learningRate, float betaOne, float betaTwo, float epsilon)
Crea un ottimizzatore che implementa l'algoritmo Adamax.
Parametri
grafico | il grafico TensorFlow |
---|---|
nome | nome per le operazioni create durante l'applicazione dei gradienti. Il valore predefinito è "Adamax". |
tasso di apprendimento | Il tasso di apprendimento. |
betaOne | Il tasso di decadimento esponenziale per le stime del primo momento. |
betaDue | Il tasso di decadimento esponenziale per la norma dell'infinito ponderata in modo esponenziale. |
epsilon | Una piccola costante per la stabilità numerica. |
Metodi pubblici
public String getOptimizerName ()
Ottieni il nome dell'ottimizzatore.
ritorna
- Il nome dell'ottimizzatore.