FOBOS algoritmasına göre '*var' ve '*accum' içindeki seyrek güncelleme girişleri.
Yani grad yaptığımız satırlar için var ve accum'u şu şekilde güncelliyoruz: accum += grad grad prox_v = var prox_v -= lr grad (1 / sqrt(accum)) var =sign(prox_v)/(1+lr l2 ) maksimum{|prox_v|-lr l1,0}
İç İçe Sınıflar
| sınıf | ResourceSparseApplyProximalAdagrad.Options | ResourceSparseApplyProximalAdagradiçin isteğe bağlı özellikler | |
Sabitler
| Sicim | OP_NAME | Bu operasyonun TensorFlow çekirdek motoru tarafından bilinen adı | 
Genel Yöntemler
| static <T, TType'ı genişletir > ResourceSparseApplyProximalAdagrad | |
| statik ResourceSparseApplyProximalAdagrad.Options |  useLocking (Boolean useLocking)  | 
Kalıtsal Yöntemler
Sabitler
genel statik son Dize OP_NAME
Bu operasyonun TensorFlow çekirdek motoru tarafından bilinen adı
Genel Yöntemler
public static ResourceSparseApplyProximalAdagrad create ( Kapsam kapsamı, İşlenen <?> var, İşlenen <?> accum, İşlenen <T> lr, İşlenen <T> l1, İşlenen <T> l2, İşlenen <T> grad, İşlenen <? extends TNumber > endeksler, Seçenekler... seçenekler)
Yeni bir ResourceSparseApplyProximalAdagrad işlemini saran bir sınıf oluşturmaya yönelik fabrika yöntemi.
Parametreler
| kapsam | mevcut kapsam | 
|---|---|
| var | Bir Variable()'dan olmalıdır. | 
| birikim | Bir Variable()'dan olmalıdır. | 
| IR | Öğrenme oranı. Bir skaler olmalı. | 
| l1 | L1 düzenlemesi. Bir skaler olmalı. | 
| l2 | L2 düzenlemesi. Bir skaler olmalı. | 
| mezun | Gradyan. | 
| endeksler | var ve accum'un birinci boyutuna ait indekslerin bir vektörü. | 
| seçenekler | isteğe bağlı nitelik değerlerini taşır | 
İadeler
- ResourceSparseApplyProximalAdagrad'ın yeni bir örneği
public static ResourceSparseApplyProximalAdagrad.Seçenekler useLocking (Boolean useLocking)
Parametreler
| KullanımKilitleme | True ise var ve accum tensörlerinin güncellenmesi bir kilitle korunacaktır; aksi takdirde davranış tanımsızdır ancak daha az çekişme sergileyebilir. | 
|---|