Peringatan: API ini tidak digunakan lagi dan akan dihapus di versi TensorFlow mendatang setelah penggantinya stabil.

ResourceApplyAdagradV2

public class akhir ResourceApplyAdagradV2

Perbarui '*var' sesuai dengan skema adagrad.

accum += grad * grad var -= lr * grad * (1 / (sqrt(accum) + epsilon))

Kelas Bersarang

kelas ResourceApplyAdagradV2.Options Atribut opsional untuk ResourceApplyAdagradV2

Metode Publik

statis <T> ResourceApplyAdagradV2
membuat ( Lingkup lingkup, Operan <?> var, Operan <?> accum, Operan <T> lr, Operan <T> epsilon, Operan <T> grad, Options ... pilihan)
Metode pabrik untuk membuat kelas yang membungkus operasi ResourceApplyAdagradV2 baru.
statis ResourceApplyAdagradV2.Options
updateSlots (Boolean updateSlots)
statis ResourceApplyAdagradV2.Options
useLocking (Boolean useLocking)

Metode yang Diwarisi

Metode Publik

public static ResourceApplyAdagradV2 membuat ( Scope lingkup, Operan <?> var, Operan <?> accum, Operan <T> lr, Operan <T> epsilon, Operan <T> grad, Options ... pilihan)

Metode pabrik untuk membuat kelas yang membungkus operasi ResourceApplyAdagradV2 baru.

Parameter
cakupan lingkup saat ini
var Harus dari Variabel().
mengumpulkan Harus dari Variabel().
lr Faktor skala. Harus skalar.
epsilon Faktor konstan. Harus skalar.
lulusan Gradien.
pilihan membawa nilai atribut opsional
Kembali
  • contoh baru ResourceApplyAdagradV2

public static ResourceApplyAdagradV2.Options updateSlots (Boolean updateSlots)

public static ResourceApplyAdagradV2.Options useLocking (Boolean useLocking)

Parameter
gunakanPenguncian Jika `True`, pembaruan tensor var dan accum akan dilindungi oleh kunci; jika tidak, perilaku tidak terdefinisi, tetapi mungkin menunjukkan lebih sedikit pertentangan.