کلاس نهایی عمومی ResourceApplyProximalGradientDescent
"*var" را به عنوان الگوریتم FOBOS با نرخ یادگیری ثابت به روز کنید.
prox_v = var - آلفا دلتا var = sign(prox_v)/(1+alpha l2) max{|prox_v|-alpha l1,0}
کلاس های تو در تو
کلاس | ResourceApplyProximalGradientDescent.Options | ویژگی های اختیاری برای ResourceApplyProximalGradientDescent |
ثابت ها
رشته | OP_NAME | نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود |
روش های عمومی
static <T TType > ResourceApplyProximalGradientDescent را گسترش می دهد | |
استاتیک ResourceApplyProximalGradientDescent.Options | useLocking (قفل کردن استفاده بولی) |
روش های ارثی
ثابت ها
رشته نهایی ثابت عمومی OP_NAME
نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود
مقدار ثابت: "ResourceApplyProximalGradientDescent"
روش های عمومی
ایجاد منبع استاتیک عمومی ApplyProximalGradientDescent ( دامنه دامنه ، عملوند <?> var، عملوند <T> آلفا، عملوند <T> l1، عملوند <T> l2، عملوند <T> دلتا، گزینهها... گزینهها)
روش کارخانه برای ایجاد کلاسی که یک عملیات ResourceApplyProximalGradientDescent جدید را بسته بندی می کند.
مولفه های
محدوده | محدوده فعلی |
---|---|
var | باید از یک متغیر () باشد. |
آلفا | ضریب پوسته پوسته شدن باید اسکالر باشد. |
l1 | تنظیم L1. باید اسکالر باشد. |
l2 | تنظیم L2. باید اسکالر باشد. |
دلتا | تغییر. |
گزینه ها | مقادیر ویژگی های اختیاری را حمل می کند |
برمی گرداند
- یک نمونه جدید از ResourceApplyProximalGradientDescent
Public Static ResourceApplyProximalGradientDescent.Options useLocking (useLocking بولی)
مولفه های
استفاده از قفل کردن | اگر True باشد، تفریق با یک قفل محافظت می شود. در غیر این صورت رفتار تعریف نشده است، اما ممکن است اختلاف کمتری از خود نشان دهد. |
---|