genel son sınıf ResourceSparseApplyAdagrad
Adagrad şemasına göre '*var' ve '*accum'daki ilgili girişleri güncelleyin.
Yani grad kullandığımız satırlar için var ve accum'u şu şekilde güncelliyoruz: accum += grad * grad var -= lr * grad * (1 / sqrt(accum))
İç İçe Sınıflar
sınıf | ResourceSparseApplyAdagrad.Options | ResourceSparseApplyAdagrad için isteğe bağlı özellikler |
Sabitler
Sicim | OP_NAME | Bu operasyonun TensorFlow çekirdek motoru tarafından bilinen adı |
Genel Yöntemler
static <T , TType'ı genişletir > ResourceSparseApplyAdagrad | |
statik ResourceSparseApplyAdagrad.Options | updateSlots (Boolean updateSlots) |
statik ResourceSparseApplyAdagrad.Options | useLocking (Boolean useLocking) |
Kalıtsal Yöntemler
Sabitler
genel statik son Dize OP_NAME
Bu operasyonun TensorFlow çekirdek motoru tarafından bilinen adı
Sabit Değer: "ResourceSparseApplyAdagrad"
Genel Yöntemler
public static ResourceSparseApplyAdagrad create ( Kapsam kapsamı, İşlenen <?> var, İşlenen <?> accum, İşlenen <T> lr, İşlenen <T> grad, İşlenen <? extends TNumber > indeksler, Seçenekler... seçenekler)
Yeni bir ResourceSparseApplyAdagrad işlemini saran bir sınıf oluşturmaya yönelik fabrika yöntemi.
Parametreler
kapsam | mevcut kapsam |
---|---|
var | Bir Variable()'dan olmalıdır. |
birikim | Bir Variable()'dan olmalıdır. |
IR | Öğrenme oranı. Bir skaler olmalı. |
mezun | Gradyan. |
endeksler | var ve accum'un birinci boyutuna ait indekslerin bir vektörü. |
seçenekler | isteğe bağlı nitelik değerlerini taşır |
İadeler
- ResourceSparseApplyAdagrad'ın yeni bir örneği
public static ResourceSparseApplyAdagrad.Options useLocking (Boolean useLocking)
Parametreler
KullanımKilitleme | 'Doğru' ise var ve accum tensörlerinin güncellenmesi bir kilitle korunacaktır; aksi takdirde davranış tanımsızdır ancak daha az çekişme sergileyebilir. |
---|