genel son sınıf ResourceApplyProximalAdagrad
'*var' ve '*accum' değerlerini Adagrad öğrenme oranıyla FOBOS'a göre güncelleyin.
accum += grad grad prox_v = var - lr grad (1 / sqrt(accum)) var =sign(prox_v)/(1+lr l2) max{|prox_v|-lr l1,0}
İç İçe Sınıflar
sınıf | ResourceApplyProximalAdagrad.Options | ResourceApplyProximalAdagrad için isteğe bağlı özellikler |
Sabitler
Sicim | OP_NAME | Bu operasyonun TensorFlow çekirdek motoru tarafından bilinen adı |
Genel Yöntemler
static <T, TType'ı genişletir > ResourceApplyProximalAdagrad | |
statik ResourceApplyProximalAdagrad.Options | useLocking (Boolean useLocking) |
Kalıtsal Yöntemler
Sabitler
genel statik son Dize OP_NAME
Bu operasyonun TensorFlow çekirdek motoru tarafından bilinen adı
Sabit Değer: "ResourceApplyProximalAdagrad"
Genel Yöntemler
public static ResourceApplyProximalAdagrad create ( Kapsam kapsamı, İşlenen <?> var, İşlenen <?> accum, İşlenen <T> lr, İşlenen <T> l1, İşlenen <T> l2, İşlenen <T> grad, Seçenekler... seçenekler)
Yeni bir ResourceApplyProximalAdagrad işlemini saran bir sınıf oluşturmaya yönelik fabrika yöntemi.
Parametreler
kapsam | mevcut kapsam |
---|---|
var | Bir Variable()'dan olmalıdır. |
birikim | Bir Variable()'dan olmalıdır. |
IR | Ölçekleme faktörü. Bir skaler olmalı. |
l1 | L1 düzenlemesi. Bir skaler olmalı. |
l2 | L2 düzenlemesi. Bir skaler olmalı. |
mezun | Gradyan. |
seçenekler | isteğe bağlı nitelik değerlerini taşır |
İadeler
- ResourceApplyProximalAdagrad'ın yeni bir örneği
public static ResourceApplyProximalAdagrad.Options useLocking (Boolean useLocking)
Parametreler
KullanımKilitleme | True ise var ve accum tensörlerinin güncellenmesi bir kilitle korunacaktır; aksi takdirde davranış tanımsızdır ancak daha az çekişme sergileyebilir. |
---|