جریان تنسور:: عملیات:: ApplyProximalAdagrad
#include <training_ops.h>
«*var» و «*accum» را مطابق با FOBOS با نرخ یادگیری Adagrad بهروزرسانی کنید.
خلاصه
accum += grad * grad prox_v = var - lr * grad * (1 / sqrt(accum)) var = sign(prox_v)/(1+lr*l2) * max{|prox_v|-lr*l1,0}
استدلال ها:
- scope: یک شی Scope
- var: باید از یک متغیر () باشد.
- accum: باید از یک متغیر () باشد.
- lr: ضریب مقیاس. باید اسکالر باشد.
- l1: تنظیم L1. باید اسکالر باشد.
- l2: تنظیم L2. باید اسکالر باشد.
- grad: گرادیان.
ویژگی های اختیاری (به Attrs
مراجعه کنید):
- use_locking: اگر True باشد، بهروزرسانی تانسورهای var و accum توسط یک قفل محافظت میشود. در غیر این صورت رفتار تعریف نشده است، اما ممکن است اختلاف کمتری از خود نشان دهد.
برمیگرداند:
-
Output
: مانند "var".
سازندگان و ویرانگرها | |
---|---|
ApplyProximalAdagrad (const :: | |
ApplyProximalAdagrad (const :: |
توابع عمومی | |
---|---|
node () const | ::tensorflow::Node * |
operator::tensorflow::Input () const | |
operator::tensorflow::Output () const |
توابع استاتیک عمومی | |
---|---|
UseLocking (bool x) |
سازه ها | |
---|---|
tensorflow:: ops:: ApplyProximalAdagrad:: Attrs | تنظیم کننده های ویژگی اختیاری برای ApplyProximalAdagrad . |
صفات عمومی
عملیات
Operation operation
بیرون
::tensorflow::Output out
توابع عمومی
ApplyProximalAdagrad
ApplyProximalAdagrad(
const ::tensorflow::Scope & scope,
::tensorflow::Input var,
::tensorflow::Input accum,
::tensorflow::Input lr,
::tensorflow::Input l1,
::tensorflow::Input l2,
::tensorflow::Input grad
)
ApplyProximalAdagrad
ApplyProximalAdagrad(
const ::tensorflow::Scope & scope,
::tensorflow::Input var,
::tensorflow::Input accum,
::tensorflow::Input lr,
::tensorflow::Input l1,
::tensorflow::Input l2,
::tensorflow::Input grad,
const ApplyProximalAdagrad::Attrs & attrs
)
گره
::tensorflow::Node * node() const
عملگر::tensorflow::ورودی
operator::tensorflow::Input() const
عملگر::tensorflow::خروجی
operator::tensorflow::Output() const
توابع استاتیک عمومی
استفاده از قفل
Attrs UseLocking(
bool x
)