Perbarui '*var' sesuai dengan skema adagrad.
akum += lulusan * lulusan var -= lr * lulusan * (1 / sqrt(akum))
Kelas Bersarang
kelas | TerapkanAdagradV2.Options | Atribut opsional untuk ApplyAdagradV2 |
Metode Publik
Output <T> | asOutput () Mengembalikan pegangan simbolis tensor. |
statis <T> ApplyAdagradV2 <T> | |
Output <T> | keluar () Sama dengan "var". |
statis ApplyAdagradV2.Options | updateSlots (Boolean updateSlots) |
statis ApplyAdagradV2.Options | useLocking (Boolean useLocking) |
Metode yang Diwarisi
Metode Publik
publik Keluaran <T> asOutput ()
Mengembalikan pegangan simbolis tensor.
Input ke operasi TensorFlow adalah output dari operasi TensorFlow lainnya. Metode ini digunakan untuk mendapatkan pegangan simbolis yang mewakili perhitungan input.
public static ApplyAdagradV2 <T> membuat ( Lingkup lingkup, Operan <T> var, Operan <T> accum, Operan <T> lr, Operan <T> epsilon, Operan <T> grad, Options ... pilihan)
Metode pabrik untuk membuat kelas yang membungkus operasi ApplyAdagradV2 baru.
Parameter
cakupan | lingkup saat ini |
---|---|
var | Harus dari Variabel(). |
mengumpulkan | Harus dari Variabel(). |
lr | Faktor skala. Harus skalar. |
epsilon | Faktor konstan. Harus skalar. |
lulusan | Gradien. |
pilihan | membawa nilai atribut opsional |
Kembali
- contoh baru dari ApplyAdagradV2
public static ApplyAdagradV2.Options useLocking (Boolean useLocking)
Parameter
gunakanPenguncian | Jika `True`, pembaruan tensor var dan accum akan dilindungi oleh kunci; jika tidak, perilaku tidak terdefinisi, tetapi mungkin menunjukkan lebih sedikit pertentangan. |
---|