Perbarui '*var' sebagai algoritma FOBOS dengan kecepatan pembelajaran tetap.
prox_v = var - alfa delta var = tanda(prox_v)/(1+alpha l2) maks{|prox_v|-alpha l1,0}
Kelas Bersarang
| kelas | TerapkanProximalGradientDescent.Options | Atribut opsional untuk ApplyProximalGradientDescent | |
Konstanta
| Rangkaian | OP_NAME | Nama operasi ini dikenal dengan mesin inti TensorFlow |
Metode Publik
| Keluaran <T> | sebagai Keluaran () Mengembalikan pegangan simbolis tensor. |
| statis <T memperluas TType > ApplyProximalGradientDescent <T> | |
| Keluaran <T> | keluar () Sama seperti "var". |
| ApplyProximalGradientDescent.Options statis | useLocking (penguncian penggunaan Boolean) |
Metode Warisan
Konstanta
String akhir statis publik OP_NAME
Nama operasi ini dikenal dengan mesin inti TensorFlow
Metode Publik
Keluaran publik <T> sebagai Keluaran ()
Mengembalikan pegangan simbolis tensor.
Masukan ke operasi TensorFlow adalah keluaran dari operasi TensorFlow lainnya. Metode ini digunakan untuk mendapatkan pegangan simbolis yang mewakili perhitungan input.
public static ApplyProximalGradientDescent <T> buat ( Lingkup cakupan , Operan <T> var, Operan <T> alpha, Operan <T> l1, Operan <T> l2, Operan <T> delta, Opsi... opsi)
Metode pabrik untuk membuat kelas yang membungkus operasi ApplyProximalGradientDescent baru.
Parameter
| cakupan | ruang lingkup saat ini |
|---|---|
| var | Harus dari Variabel(). |
| alfa | Faktor skala. Pasti skalar. |
| l1 | Regularisasi L1. Pasti skalar. |
| l2 | Regularisasi L2. Pasti skalar. |
| delta | Perubahan. |
| pilihan | membawa nilai atribut opsional |
Kembali
- contoh baru dari ApplyProximalGradientDescent
public static ApplyProximalGradientDescent.Options useLocking (Boolean useLocking)
Parameter
| gunakan Penguncian | Jika Benar, pengurangan akan dilindungi oleh gembok; jika tidak, perilaku tersebut tidak terdefinisikan, namun mungkin menunjukkan lebih sedikit pertentangan. |
|---|