ApplyAdagradV2

genel final sınıfı ApplyAdagradV2

Adagrad şemasına göre '*var'ı güncelleyin.

birikim += grad * grad var -= lr * grad * (1 / sqrt(birikim))

İç İçe Sınıflar

sınıf ApplyAdagradV2.Seçenekler ApplyAdagradV2 için isteğe bağlı özellikler

Genel Yöntemler

Çıkış <T>
Çıkış olarak ()
Bir tensörün sembolik tutamacını döndürür.
statik <T> ApplyAdagradV2 <T>
create ( Kapsam kapsamı, İşlenen <T> var, İşlenen <T> birikimi, İşlenen <T> lr, İşlenen <T> epsilon, İşlenen <T> grad, Seçenekler... seçenekler)
Yeni bir ApplyAdagradV2 işlemini saran bir sınıf oluşturmaya yönelik fabrika yöntemi.
Çıkış <T>
dışarı ()
"Var" ile aynı.
statik ApplyAdagradV2.Options
updateSlots (Boolean updateSlots)
statik ApplyAdagradV2.Options
useLocking (Boolean useLocking)

Kalıtsal Yöntemler

Genel Yöntemler

genel Çıkış <T> asOutput ()

Bir tensörün sembolik tutamacını döndürür.

TensorFlow işlemlerinin girdileri, başka bir TensorFlow işleminin çıktılarıdır. Bu yöntem, girişin hesaplanmasını temsil eden sembolik bir tanıtıcı elde etmek için kullanılır.

public static ApplyAdagradV2 <T> create ( Kapsam kapsamı, İşlenen <T> var, İşlenen <T> birikimi, İşlenen <T> lr, İşlenen <T> epsilon, İşlenen <T> grad, Seçenekler... seçenekler)

Yeni bir ApplyAdagradV2 işlemini saran bir sınıf oluşturmaya yönelik fabrika yöntemi.

Parametreler
kapsam mevcut kapsam
var Bir Variable()'dan olmalıdır.
birikim Bir Variable()'dan olmalıdır.
IR Ölçekleme faktörü. Bir skaler olmalı.
epsilon Sabit faktör. Bir skaler olmalı.
mezun Gradyan.
seçenekler isteğe bağlı nitelik değerlerini taşır
İadeler
  • ApplyAdagradV2'nin yeni bir örneği

genel Çıkış <T> out ()

"Var" ile aynı.

public static ApplyAdagradV2.Options updateSlots (Boolean updateSlots)

public static ApplyAdagradV2.Options useLocking (Boolean useLocking)

Parametreler
KullanımKilitleme 'Doğru' ise var ve accum tensörlerinin güncellenmesi bir kilitle korunacaktır; aksi takdirde davranış tanımsızdır ancak daha az çekişme sergileyebilir.