ResourceApplyProximalAdagrad

کلاس نهایی عمومی ResourceApplyProximalAdagrad

«*var» و «*accum» را مطابق با FOBOS با نرخ یادگیری Adagrad به‌روزرسانی کنید.

accum += grad grad prox_v = var - lr grad (1 / sqrt(accum)) var = sign(prox_v)/(1+lr l2) max{|prox_v|-lr l1,0}

کلاس های تو در تو

کلاس ResourceApplyProximalAdagrad.Options ویژگی های اختیاری برای ResourceApplyProximalAdagrad

ثابت ها

رشته OP_NAME نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود

روش های عمومی

static <T TType > ResourceApplyProximalAdagrad را گسترش می دهد
ایجاد ( Scope scope، Operand <?> var، Operand <?> accum، Operand <T> lr، Operand <T> l1، Operand <T> l2، Operand <T> grad، Options... گزینه ها)
روش کارخانه برای ایجاد کلاسی که یک عملیات ResourceApplyProximalAdagrad جدید را بسته بندی می کند.
استاتیک ResourceApplyProximalAdagrad.Options
useLocking (قفل کردن استفاده بولی)

روش های ارثی

ثابت ها

رشته نهایی ثابت عمومی OP_NAME

نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود

مقدار ثابت: "ResourceApplyProximalAdagrad"

روش های عمومی

ایجاد ResourceApplyProximalAdagrad عمومی ایستا ( Scope scope، Operand <?> var، Operand <?> accum، Operand <T> lr، Operand <T> l1، Operand <T> l2، Operand <T> grad، Options... گزینه ها)

روش کارخانه برای ایجاد کلاسی که یک عملیات ResourceApplyProximalAdagrad جدید را بسته بندی می کند.

مولفه های
محدوده محدوده فعلی
var باید از یک متغیر () باشد.
تجمع باید از یک متغیر () باشد.
lr ضریب پوسته پوسته شدن باید اسکالر باشد.
l1 تنظیم L1. باید اسکالر باشد.
l2 تنظیم L2. باید اسکالر باشد.
درجه گرادیان.
گزینه ها مقادیر ویژگی های اختیاری را حمل می کند
برمی گرداند
  • یک نمونه جدید از ResourceApplyProximalAdagrad

Public Static ResourceApplyProximalAdagrad.Options useLocking (useLocking بولی)

مولفه های
استفاده از قفل کردن اگر درست باشد، به‌روزرسانی تانسورهای var و accum توسط یک قفل محافظت می‌شود. در غیر این صورت رفتار تعریف نشده است، اما ممکن است اختلاف کمتری از خود نشان دهد.