Optymalizator implementujący algorytm Adamax.
Jest to odmiana Adama oparta na normie nieskończoności. Domyślne parametry są zgodne z podanymi w artykule. Adamax jest czasami lepszy od adama, szczególnie w modelach z osadzaniami.
Zobacz też
Stałe
| platforma | BETA_ONE_DEFAULT | |
| platforma | BETA_TWO_DEFAULT | |
| platforma | EPSILON_DEFAULT | |
| Strunowy | FIRST_MOMENT | |
| platforma | LEARNING_RATE_DEFAULT | |
| Strunowy | SECOND_MOMENT |
Dziedziczone stałe
Konstruktorzy publiczni
Metody publiczne
| Strunowy | getOptimizerName () Uzyskaj nazwę optymalizatora. |
Metody dziedziczone
Stałe
publiczny statyczny końcowy float BETA_ONE_DEFAULT
publiczny statyczny końcowy float BETA_TWO_DEFAULT
publiczny statyczny końcowy float EPSILON_DEFAULT
publiczny statyczny końcowy ciąg FIRST_MOMENT
publiczny statyczny końcowy float LEARNING_RATE_DEFAULT
publiczny statyczny końcowy ciąg znaków SECOND_MOMENT
Konstruktorzy publiczni
publiczny Adamax (wykres graficzny )
Tworzy optymalizator, który implementuje algorytm Adamax.
Parametry
| wykres | wykres TensorFlow |
|---|
publiczny Adamax (wykres graficzny , nazwa ciągu)
Tworzy optymalizator, który implementuje algorytm Adamax.
Parametry
| wykres | wykres TensorFlow |
|---|---|
| nazwa | nazwa operacji tworzonych podczas stosowania gradientów. Domyślnie jest to „Adamax”. |
publiczny Adamax (wykres graficzny , float learningRate)
Tworzy optymalizator, który implementuje algorytm Adamax.
Parametry
| wykres | wykres TensorFlow |
|---|---|
| Szybkość uczenia się | Szybkość uczenia się. |
publiczny Adamax (wykres wykresu , nazwa ciągu, współczynnik uczenia się typu float)
Tworzy optymalizator, który implementuje algorytm Adamax.
Parametry
| wykres | wykres TensorFlow |
|---|---|
| nazwa | nazwa operacji tworzonych podczas stosowania gradientów. Domyślnie jest to „Adamax”. |
| Szybkość uczenia się | Szybkość uczenia się. |
publiczny Adamax (wykres wykresu , float learningRate, float betaOne, float betaTwo, float epsilon)
Tworzy optymalizator, który implementuje algorytm Adamax.
Parametry
| wykres | wykres TensorFlow |
|---|---|
| Szybkość uczenia się | Szybkość uczenia się. |
| betaOne | Wykładnicza szybkość zaniku dla szacunków pierwszego momentu. |
| betaTwo | Wykładniczy współczynnik zaniku wykładniczej normy nieskończoności. |
| epsilon | Mała stała zapewniająca stabilność numeryczną. |
publiczny Adamax (wykres wykresu , nazwa ciągu, float learningRate, float betaOne, float betaTwo, float epsilon)
Tworzy optymalizator, który implementuje algorytm Adamax.
Parametry
| wykres | wykres TensorFlow |
|---|---|
| nazwa | nazwa operacji tworzonych podczas stosowania gradientów. Domyślnie jest to „Adamax”. |
| Szybkość uczenia się | Szybkość uczenia się. |
| betaOne | Wykładnicza szybkość zaniku dla szacunków pierwszego momentu. |
| betaTwo | Wykładniczy współczynnik zaniku wykładniczej normy nieskończoności. |
| epsilon | Mała stała zapewniająca stabilność numeryczną. |
Metody publiczne
public String getOptimizerName ()
Uzyskaj nazwę optymalizatora.
Zwroty
- Nazwa optymalizatora.