AdaGradDA

klasa publiczna AdaGradDA

Optymalizator implementujący algorytm Adagrad Dual-Averaging.

Optymalizator ten dba o regularyzację niewidocznych funkcji w mini-partiach, aktualizując je, gdy są widoczne, za pomocą reguły aktualizacji w formularzu zamkniętym, co jest równoznaczne z aktualizacją ich w każdej mini-partii.

AdagradDA jest zwykle używany, gdy istnieje potrzeba dużej rzadkości w wyuczonym modelu. Optymalizator ten gwarantuje rzadkość jedynie w przypadku modeli liniowych. Zachowaj ostrożność podczas korzystania z AdagradDA w głębokich sieciach, ponieważ będzie wymagało to starannej inicjalizacji akumulatorów gradientu, aby mógł zostać uczony.

Stałe

Strunowy AKUMULATOR
platforma INITIAL_ACCUMULATOR_DEFAULT
platforma L1_STRENGTH_DEFAULT
platforma L2_STRENGTH_DEFAULT
platforma LEARNING_RATE_DEFAULT
Strunowy KWADRAT_AKUMULATOR

Dziedziczone stałe

Konstruktorzy publiczni

AdaGradDA ( wykres graficzny )
Tworzy optymalizator AdaGradDA
AdaGradDA (wykres graficzny , płynna naukaRate)
Tworzy optymalizator AdaGradDA
AdaGradDA (wykres wykresu , float learningRate, float początkowaAccumulatorValue, float l1Strength, float l2Strength)
Tworzy optymalizator AdaGradDA
AdaGradDA (wykres graficzny , nazwa ciągu, współczynnik uczenia się typu float)
Tworzy optymalizator AdaGradDA
AdaGradDA (wykres wykresu , nazwa łańcucha, float learningRate, float początkowaAccumulatorValue, float l1Strength, float l2Strength)
Tworzy optymalizator AdaGradDA

Metody publiczne

Strunowy
getOptimizerName ()
Uzyskaj nazwę optymalizatora.
Strunowy

Metody dziedziczone

Stałe

publiczny statyczny końcowy akumulator AKUMULATORA

Wartość stała: „gradient_akumulator”

publiczny statyczny końcowy float INITIAL_ACCUMULATOR_DEFAULT

Wartość stała: 0,1

publiczny statyczny końcowy float L1_STRENGTH_DEFAULT

Wartość stała: 0,0

publiczny statyczny końcowy float L2_STRENGTH_DEFAULT

Wartość stała: 0,0

publiczny statyczny końcowy float LEARNING_RATE_DEFAULT

Wartość stała: 0,001

publiczny statyczny końcowy ciąg znaków SQUARED_ACCUMULATOR

Stała wartość: „gradient_squared_akumulator”

Konstruktorzy publiczni

publiczny AdaGradDA (wykres graficzny )

Tworzy optymalizator AdaGradDA

Parametry
wykres wykres TensorFlow

publiczny AdaGradDA (wykres graficzny , float learningRate)

Tworzy optymalizator AdaGradDA

Parametry
wykres wykres TensorFlow
Szybkość uczenia się tempo uczenia się

public AdaGradDA (wykres wykresu , float learningRate, float originAccumulatorValue, float l1Strength, float l2Strength)

Tworzy optymalizator AdaGradDA

Parametry
wykres wykres TensorFlow
Szybkość uczenia się tempo uczenia się
początkowa wartość akumulatora Wartość początkowa akumulatorów musi być większa od zera.
l1Siła l1 siła regularyzacji musi być większa lub równa zeru.
l2Siła l2 siła regularyzacji musi być większa lub równa zeru.
Rzuca
Wyjątek IllegalArgument jeśli wartość początkowaAccumulatorValue nie jest większa od zera lub l1Strength lub l2Strength jest mniejsza od zera

public AdaGradDA (wykres wykresu , nazwa ciągu, współczynnik uczenia się typu float)

Tworzy optymalizator AdaGradDA

Parametry
wykres wykres TensorFlow
nazwa nazwa tego Optymalizatora (domyślnie to „adagrad-da”)
Szybkość uczenia się tempo uczenia się

public AdaGradDA (wykres wykresu , nazwa ciągu, float learningRate, float początkowaAccumulatorValue, float l1Strength, float l2Strength)

Tworzy optymalizator AdaGradDA

Parametry
wykres wykres TensorFlow
nazwa nazwa tego Optymalizatora (domyślnie to „adagrad-da”)
Szybkość uczenia się tempo uczenia się
początkowa wartość akumulatora Wartość początkowa akumulatorów musi być dodatnia
l1Siła l1 siła regularyzacji musi być większa lub równa zeru.
l2Siła l2 siła regularyzacji musi być większa lub równa zeru.
Rzuca
Wyjątek IllegalArgument jeśli wartość początkowaAccumulatorValue nie jest większa od zera lub * l1Strength lub l2Strength jest mniejsza od zera

Metody publiczne

public String getOptimizerName ()

Uzyskaj nazwę optymalizatora.

Zwroty
  • Nazwa optymalizatora.

publiczny ciąg do ciągu ()