Adagrad İkili Ortalama Algoritmasını uygulayan optimizer.
Bu optimize edici, mini bir grupta görünmeyen özelliklerin, her mini grupta güncellenmesine eşdeğer olan kapalı bir form güncelleme kuralıyla görüldüklerinde güncellenerek düzenlenmesiyle ilgilenir.
AdagradDA genellikle eğitilen modelde büyük bir seyrekliğe ihtiyaç duyulduğunda kullanılır. Bu optimize edici yalnızca doğrusal modeller için seyrekliği garanti eder. AdagradDA'yı derin ağlar için kullanırken dikkatli olun; çünkü eğitilmesi için gradyan akümülatörlerinin dikkatli bir şekilde başlatılması gerekir.
Sabitler
Sicim | AKÜMÜLATÖR | |
batmadan yüzmek | INITIAL_ACCUMULATOR_DEFAULT | |
batmadan yüzmek | L1_STRENGTH_DEFAULT | |
batmadan yüzmek | L2_STRENGTH_DEFAULT | |
batmadan yüzmek | LEARNING_RATE_DEFAULT | |
Sicim | SQUARED_ACUMULATOR |
Devralınan Sabitler
Sicim | DEĞİŞKEN_V2 |
Kamu İnşaatçıları
Genel Yöntemler
Sicim | getOptimizerName () Optimize edicinin Adını alın. |
Sicim | toString () |
Kalıtsal Yöntemler
Operasyon | ApplyGradients (Liste< GradAndVar <?, TType >> gradsAndVars, Dize adını genişletir) Değişkenlere degradeler uygular |
<T extends TType > Listele< GradAndVar <?>> | |
statik Dize | createName ( Output <? extends TType > değişken, String slotName) Bir değişken adı ile yuva adını birleştirerek bir ad oluşturur |
soyut Dize | getOptimizerName () Optimize edicinin Adını alın. |
<T TType'ı genişletir > İsteğe bağlı< Değişken <T>> | |
son Operasyonlar | getTF () Optimizer'ın Ops örneğini alır |
Operasyon | |
Operasyon | simge durumuna küçült ( İşlenen <?> kaybı, Dize adı) Değişkenleri güncelleyerek kaybı en aza indirir |
boolean | eşittir (Nesne arg0) |
son Sınıf<?> | getClass () |
int | hash kodu () |
son boşluk | bildir () |
son boşluk | tümünü bildir () |
Sicim | toString () |
son boşluk | bekle (uzun arg0, int arg1) |
son boşluk | bekle (uzun arg0) |
son boşluk | Beklemek () |
Sabitler
genel statik final Dize AKÜMÜLATÖRÜ
genel statik son kayan nokta INITIAL_ACCUMULATOR_DEFAULT
genel statik son kayan nokta L1_STRENGTH_DEFAULT
genel statik son kayan nokta L2_STRENGTH_DEFAULT
genel statik son kayan nokta LEARNING_RATE_DEFAULT
genel statik son Dize SQUARED_ACCUMULATOR
Kamu İnşaatçıları
herkese açık AdaGradDA ( Grafik grafiği)
AdaGradDA Optimize Edici oluşturur
Parametreler
grafik | TensorFlow Grafiği |
---|
herkese açık AdaGradDA ( Grafik grafiği, kayan öğrenme oranı)
AdaGradDA Optimize Edici oluşturur
Parametreler
grafik | TensorFlow Grafiği |
---|---|
öğrenme oranı | öğrenme oranı |
public AdaGradDA ( Grafik grafiği, float öğrenme Oranı, floatbaşlangıçAccumulatorValue, float l1Strength, float l2Strength)
AdaGradDA Optimize Edici oluşturur
Parametreler
grafik | TensorFlow Grafiği |
---|---|
öğrenme oranı | öğrenme oranı |
ilkBiriktiriciDeğeri | Akümülatörlerin başlangıç değeri sıfırdan büyük olmalıdır. |
l1Güç | l1 düzenleme gücü, sıfırdan büyük veya sıfıra eşit olmalıdır. |
l2Güç | l2 düzenleme gücü, sıfırdan büyük veya sıfıra eşit olmalıdır. |
Atar
YasadışıTartışmaİstisna | startupAccumulatorValue sıfırdan büyük değilse veya l1Strength veya l2Strength sıfırdan küçükse |
---|
public AdaGradDA ( Grafik grafiği, Dize adı, değişken öğrenme Hızı)
AdaGradDA Optimize Edici oluşturur
Parametreler
grafik | TensorFlow Grafiği |
---|---|
isim | bu Optimize Edicinin adı (varsayılanı 'adagrad-da'dır) |
öğrenme oranı | öğrenme oranı |
public AdaGradDA ( Grafik grafiği, Dize adı, float LearningRate, floatbaşlangıçAccumulatorValue, float l1Strength, float l2Strength)
AdaGradDA Optimize Edici oluşturur
Parametreler
grafik | TensorFlow Grafiği |
---|---|
isim | bu Optimize Edicinin adı (varsayılanı 'adagrad-da'dır) |
öğrenme oranı | öğrenme oranı |
ilkBiriktiriciDeğeri | Akümülatörlerin başlangıç değeri pozitif olmalıdır |
l1Güç | l1 düzenleme gücü, sıfırdan büyük veya sıfıra eşit olmalıdır. |
l2Güç | l2 düzenleme gücü, sıfırdan büyük veya sıfıra eşit olmalıdır. |
Atar
YasadışıTartışmaİstisna | startupAccumulatorValue sıfırdan büyük değilse veya * l1Strength veya l2Strength sıfırdan küçükse |
---|
Genel Yöntemler
public String getOptimizerName ()
Optimize edicinin Adını alın.
İadeler
- Optimize edici adı.