ResourceApplyProximalGradientDescent

کلاس نهایی عمومی ResourceApplyProximalGradientDescent

"*var" را به عنوان الگوریتم FOBOS با نرخ یادگیری ثابت به روز کنید.

prox_v = var - آلفا دلتا var = sign(prox_v)/(1+alpha l2) max{|prox_v|-alpha l1,0}

کلاس های تو در تو

کلاس ResourceApplyProximalGradientDescent.Options ویژگی های اختیاری برای ResourceApplyProximalGradientDescent

ثابت ها

رشته OP_NAME نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود

روش های عمومی

static <T TType > ResourceApplyProximalGradientDescent را گسترش می دهد
ایجاد ( دامنه دامنه ، عملوند <?> var، عملوند <T> آلفا، عملوند <T> l1، عملوند <T> l2، عملوند <T> دلتا، گزینه‌ها... گزینه‌ها)
روش کارخانه برای ایجاد کلاسی که یک عملیات ResourceApplyProximalGradientDescent جدید را بسته بندی می کند.
استاتیک ResourceApplyProximalGradientDescent.Options
useLocking (قفل کردن استفاده بولی)

روش های ارثی

ثابت ها

رشته نهایی ثابت عمومی OP_NAME

نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود

مقدار ثابت: "ResourceApplyProximalGradientDescent"

روش های عمومی

ایجاد منبع استاتیک عمومی ApplyProximalGradientDescent ( دامنه دامنه ، عملوند <?> var، عملوند <T> آلفا، عملوند <T> l1، عملوند <T> l2، عملوند <T> دلتا، گزینه‌ها... گزینه‌ها)

روش کارخانه برای ایجاد کلاسی که یک عملیات ResourceApplyProximalGradientDescent جدید را بسته بندی می کند.

مولفه های
محدوده محدوده فعلی
var باید از یک متغیر () باشد.
آلفا ضریب پوسته پوسته شدن باید اسکالر باشد.
l1 تنظیم L1. باید اسکالر باشد.
l2 تنظیم L2. باید اسکالر باشد.
دلتا تغییر.
گزینه ها مقادیر ویژگی های اختیاری را حمل می کند
برمی گرداند
  • یک نمونه جدید از ResourceApplyProximalGradientDescent

Public Static ResourceApplyProximalGradientDescent.Options useLocking (useLocking بولی)

مولفه های
استفاده از قفل کردن اگر True باشد، تفریق با یک قفل محافظت می شود. در غیر این صورت رفتار تعریف نشده است، اما ممکن است اختلاف کمتری از خود نشان دهد.