"*var" را طبق طرح adadelta به روز کنید.
accum = rho() * accum + (1 - rho()) * grad.square(); به روز رسانی = (update_accum + epsilon).sqrt() * (accum + epsilon()).rsqrt() * grad; update_accum = rho() * update_accum + (1 - rho()) * update.square(); var -= به روز رسانی;
کلاس های تو در تو
| کلاس | ResourceApplyAdadelta.Options | ویژگی های اختیاری برای ResourceApplyAdadelta | |
ثابت ها
| رشته | OP_NAME | نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود |
روش های عمومی
| static <T TType > ResourceApplyAdadelta را گسترش می دهد | |
| استاتیک ResourceApplyAdadelta.Options | useLocking (قفل کردن استفاده بولی) |
روش های ارثی
ثابت ها
رشته نهایی ثابت عمومی OP_NAME
نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود
روش های عمومی
Public Static ResourceApplyAdadelta create ( Scope scope, Operand <?> var, Operand <?> accum, Operand <?> accumUpdate, Operand <T> lr, Operand <T> rho, Operand <T> epsilon, Operand <T> grad, گزینه ها ... گزینه ها)
روش کارخانه برای ایجاد کلاسی که یک عملیات ResourceApplyAdadelta جدید را بسته بندی می کند.
مولفه های
| محدوده | محدوده فعلی |
|---|---|
| var | باید از یک متغیر () باشد. |
| تجمع | باید از یک متغیر () باشد. |
| انباشته کردن | باید از یک متغیر () باشد. |
| lr | ضریب پوسته پوسته شدن باید اسکالر باشد. |
| rho | عامل پوسیدگی باید اسکالر باشد. |
| اپسیلون | عامل ثابت. باید اسکالر باشد. |
| درجه | گرادیان. |
| گزینه ها | مقادیر ویژگی های اختیاری را حمل می کند |
برمی گرداند
- یک نمونه جدید از ResourceApplyAdadelta
عمومی استاتیک ResourceApplyAdadelta.Options useLocking (useLocking بولی)
مولفه های
| استفاده از قفل کردن | اگر True باشد، بهروزرسانی تانسورهای var، accum و update_accum توسط یک قفل محافظت میشود. در غیر این صورت رفتار تعریف نشده است، اما ممکن است اختلاف کمتری از خود نشان دهد. |
|---|