Optymalizator implementujący algorytm Adagrad Dual-Averaging.
Optymalizator ten dba o regularyzację niewidocznych funkcji w mini-partiach, aktualizując je, gdy są widoczne, za pomocą reguły aktualizacji w formularzu zamkniętym, co jest równoznaczne z aktualizacją ich w każdej mini-partii.
AdagradDA jest zwykle używany, gdy istnieje potrzeba dużej rzadkości w wyuczonym modelu. Optymalizator ten gwarantuje rzadkość jedynie w przypadku modeli liniowych. Zachowaj ostrożność podczas korzystania z AdagradDA w głębokich sieciach, ponieważ będzie wymagało to starannej inicjalizacji akumulatorów gradientu, aby mógł zostać uczony.
Stałe
| Strunowy | AKUMULATOR | |
| platforma | INITIAL_ACCUMULATOR_DEFAULT | |
| platforma | L1_STRENGTH_DEFAULT | |
| platforma | L2_STRENGTH_DEFAULT | |
| platforma | LEARNING_RATE_DEFAULT | |
| Strunowy | KWADRAT_AKUMULATOR |
Dziedziczone stałe
Konstruktorzy publiczni
Metody publiczne
| Strunowy | getOptimizerName () Uzyskaj nazwę optymalizatora. |
| Strunowy | doString () |
Metody dziedziczone
Stałe
publiczny statyczny końcowy akumulator AKUMULATORA
publiczny statyczny końcowy float INITIAL_ACCUMULATOR_DEFAULT
publiczny statyczny końcowy float L1_STRENGTH_DEFAULT
publiczny statyczny końcowy float L2_STRENGTH_DEFAULT
publiczny statyczny końcowy float LEARNING_RATE_DEFAULT
publiczny statyczny końcowy ciąg znaków SQUARED_ACCUMULATOR
Konstruktorzy publiczni
publiczny AdaGradDA (wykres graficzny )
Tworzy optymalizator AdaGradDA
Parametry
| wykres | wykres TensorFlow |
|---|
publiczny AdaGradDA (wykres graficzny , float learningRate)
Tworzy optymalizator AdaGradDA
Parametry
| wykres | wykres TensorFlow |
|---|---|
| Szybkość uczenia się | tempo uczenia się |
public AdaGradDA (wykres wykresu , float learningRate, float originAccumulatorValue, float l1Strength, float l2Strength)
Tworzy optymalizator AdaGradDA
Parametry
| wykres | wykres TensorFlow |
|---|---|
| Szybkość uczenia się | tempo uczenia się |
| początkowa wartość akumulatora | Wartość początkowa akumulatorów musi być większa od zera. |
| l1Siła | l1 siła regularyzacji musi być większa lub równa zeru. |
| l2Siła | l2 siła regularyzacji musi być większa lub równa zeru. |
Rzuca
| Wyjątek IllegalArgument | jeśli wartość początkowaAccumulatorValue nie jest większa od zera lub l1Strength lub l2Strength jest mniejsza od zera |
|---|
public AdaGradDA (wykres wykresu , nazwa ciągu, współczynnik uczenia się typu float)
Tworzy optymalizator AdaGradDA
Parametry
| wykres | wykres TensorFlow |
|---|---|
| nazwa | nazwa tego Optymalizatora (domyślnie to „adagrad-da”) |
| Szybkość uczenia się | tempo uczenia się |
public AdaGradDA (wykres wykresu , nazwa ciągu, float learningRate, float początkowaAccumulatorValue, float l1Strength, float l2Strength)
Tworzy optymalizator AdaGradDA
Parametry
| wykres | wykres TensorFlow |
|---|---|
| nazwa | nazwa tego Optymalizatora (domyślnie to „adagrad-da”) |
| Szybkość uczenia się | tempo uczenia się |
| początkowa wartość akumulatora | Wartość początkowa akumulatorów musi być dodatnia |
| l1Siła | l1 siła regularyzacji musi być większa lub równa zeru. |
| l2Siła | l2 siła regularyzacji musi być większa lub równa zeru. |
Rzuca
| Wyjątek IllegalArgument | jeśli wartość początkowaAccumulatorValue nie jest większa od zera lub * l1Strength lub l2Strength jest mniejsza od zera |
|---|
Metody publiczne
public String getOptimizerName ()
Uzyskaj nazwę optymalizatora.
Zwroty
- Nazwa optymalizatora.