Perbarui entri yang relevan di '*var' dan '*accum' sesuai dengan skema adagrad.
Itu untuk baris yang kami miliki gradnya, kami memperbarui var dan accum sebagai berikut: $$accum += grad * grad$$$$var -= lr * grad * (1 / sqrt(accum))$$
Kelas Bersarang
kelas | SparseApplyAdagradV2.Options | Atribut opsional untuk SparseApplyAdagradV2 |
Metode Publik
Keluaran <T> | sebagai Keluaran () Mengembalikan pegangan simbolis dari sebuah tensor. |
statis <T, U memperpanjang Angka> SparseApplyAdagradV2 <T> | |
Keluaran <T> | keluar () Sama dengan "var". |
static SparseApplyAdagradV2.Options | updateSlots (Boolean updateSlots) |
static SparseApplyAdagradV2.Options | useLocking (Penguncian penggunaan Boolean) |
Metode yang Diwarisi
Metode Publik
Output publik <T> sebagai Output ()
Mengembalikan pegangan simbolis dari sebuah tensor.
Input ke operasi TensorFlow adalah output dari operasi TensorFlow lainnya. Metode ini digunakan untuk mendapatkan pegangan simbolis yang mewakili perhitungan input.
public static SparseApplyAdagradV2 <T> create ( Scope scope, Operand <T> var, Operand <T> accum, Operand <T> lr, Operand <T> epsilon, Operand <T> grad, Operand <U> indeks, Opsi.. . pilihan)
Metode pabrik untuk membuat kelas yang membungkus operasi SparseApplyAdagradV2 baru.
Parameter
cakupan | lingkup saat ini |
---|---|
var | Harus dari Variabel(). |
mengumpulkan | Harus dari Variabel(). |
lr | Tingkat belajar. Harus skalar. |
epsilon | Faktor konstan. Harus skalar. |
lulusan | Gradien. |
indeks | Vektor indeks ke dalam dimensi pertama var dan accum. |
pilihan | membawa nilai atribut opsional |
Kembali
- contoh baru dari SparseApplyAdagradV2
public static SparseApplyAdagradV2.Options useLocking (Boolean useLocking)
Parameter
gunakanPenguncian | Jika `True`, pembaruan tensor var dan accum akan dilindungi oleh kunci; jika tidak, perilaku tidak terdefinisi, tetapi mungkin menunjukkan lebih sedikit pertentangan. |
---|