Adagrad şemasına göre '*var'ı güncelleyin.
birikim += grad * grad var -= lr * grad * (1 / sqrt(birikim))
İç İçe Sınıflar
| sınıf | ApplyAdagrad.Options | ApplyAdagrad için isteğe bağlı özellikler | |
Sabitler
| Sicim | OP_NAME | Bu operasyonun TensorFlow çekirdek motoru tarafından bilinen adı |
Genel Yöntemler
| Çıkış <T> | Çıkış olarak () Tensörün sembolik tutamacını döndürür. |
| static <T, TType'ı genişletir > ApplyAdagrad <T> | |
| Çıkış <T> | dışarı () "Var" ile aynı. |
| statik ApplyAdagrad.Options | updateSlots (Boolean updateSlots) |
| statik ApplyAdagrad.Options | useLocking (Boolean useLocking) |
Kalıtsal Yöntemler
Sabitler
genel statik son Dize OP_NAME
Bu operasyonun TensorFlow çekirdek motoru tarafından bilinen adı
Genel Yöntemler
genel Çıkış <T> asOutput ()
Tensörün sembolik tutamacını döndürür.
TensorFlow işlemlerinin girdileri, başka bir TensorFlow işleminin çıktılarıdır. Bu yöntem, girişin hesaplanmasını temsil eden sembolik bir tanıtıcı elde etmek için kullanılır.
public static ApplyAdagrad <T> create ( Kapsam kapsamı, İşlenen <T> var, İşlenen <T> birikimi, İşlenen <T> lr, İşlenen <T> grad, Seçenekler... seçenekler)
Yeni bir ApplyAdagrad işlemini saran bir sınıf oluşturmaya yönelik fabrika yöntemi.
Parametreler
| kapsam | mevcut kapsam |
|---|---|
| var | Bir Variable()'dan olmalıdır. |
| birikim | Bir Variable()'dan olmalıdır. |
| IR | Ölçekleme faktörü. Bir skaler olmalı. |
| mezun | Gradyan. |
| seçenekler | isteğe bağlı nitelik değerlerini taşır |
İadeler
- ApplyAdagrad'ın yeni bir örneği
public static ApplyAdagrad.Options useLocking (Boolean useLocking)
Parametreler
| KullanımKilitleme | 'Doğru' ise var ve accum tensörlerinin güncellenmesi bir kilitle korunacaktır; aksi takdirde davranış tanımsızdır ancak daha az çekişme sergileyebilir. |
|---|