کلاس نهایی عمومی ResourceApplyAdagrad
"*var" را طبق طرح adagrad به روز کنید.
accum += grad * grad var -= lr * grad * (1 / (sqrt(accum) + epsilon))
کلاس های تو در تو
| کلاس | ResourceApplyAdagrad.Options | ویژگی های اختیاری برای ResourceApplyAdagrad | |
ثابت ها
| رشته | OP_NAME | نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود |
روش های عمومی
| static <T TType > ResourceApplyAdagrad را گسترش می دهد | |
| استاتیک ResourceApplyAdagrad.Options | UpdateSlots (Bolean updateSlots) |
| استاتیک ResourceApplyAdagrad.Options | useLocking (قفل کردن استفاده بولی) |
روش های ارثی
ثابت ها
رشته نهایی ثابت عمومی OP_NAME
نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود
مقدار ثابت: "ResourceApplyAdagradV2"
روش های عمومی
ایجاد ResourceApplyAdagrad static عمومی ( Scope scope، Operand <?> var، Operand <?> accum، Operand <T> lr، Operand <T> epsilon، Operand <T> grad، Options... گزینه ها)
روش کارخانه برای ایجاد کلاسی که یک عملیات ResourceApplyAdagrad جدید را بسته بندی می کند.
مولفه های
| محدوده | محدوده فعلی |
|---|---|
| var | باید از یک متغیر () باشد. |
| تجمع | باید از یک متغیر () باشد. |
| lr | ضریب پوسته پوسته شدن باید اسکالر باشد. |
| اپسیلون | عامل ثابت. باید اسکالر باشد. |
| درجه | گرادیان. |
| گزینه ها | مقادیر ویژگی های اختیاری را حمل می کند |
برمی گرداند
- یک نمونه جدید از ResourceApplyAdagrad
عمومی استاتیک ResourceApplyAdagrad.Options useLocking (مصرف بولی قفل)
مولفه های
| استفاده از قفل کردن | اگر «درست» باشد، بهروزرسانی تانسور var و accum توسط یک قفل محافظت میشود. در غیر این صورت رفتار تعریف نشده است، اما ممکن است اختلاف کمتری از خود نشان دهد. |
|---|