کلاس نهایی عمومی ResourceApplyGradientDescent
«*var» را با کم کردن «alpha» * «delta» از آن بهروزرسانی کنید.
کلاس های تو در تو
| کلاس | ResourceApplyGradientDescent.Options | ویژگی های اختیاری برای ResourceApplyGradientDescent | |
ثابت ها
| رشته | OP_NAME | نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود | 
روش های عمومی
| static <T TType > ResourceApplyGradientDescent را گسترش می دهد | |
| استاتیک ResourceApplyGradientDescent.Options |  useLocking (قفل کردن استفاده بولی)  | 
روش های ارثی
ثابت ها
رشته نهایی ثابت عمومی OP_NAME
نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود
 مقدار ثابت: "ResourceApplyGradientDescent" 
روش های عمومی
ایجاد ResourceApplyGradientDescent استاتیک عمومی ( Scope scope، Operand <?> var، Operand <T> alpha، Operand <T> delta، Options... گزینه ها)
روش Factory برای ایجاد کلاسی که یک عملیات ResourceApplyGradientDescent جدید را بسته بندی می کند.
مولفه های
| محدوده | محدوده فعلی | 
|---|---|
| var | باید از یک متغیر () باشد. | 
| آلفا | ضریب پوسته پوسته شدن باید اسکالر باشد. | 
| دلتا | تغییر. | 
| گزینه ها | مقادیر ویژگی های اختیاری را حمل می کند | 
برمی گرداند
- یک نمونه جدید از ResourceApplyGradientDescent
عمومی استاتیک ResourceApplyGradientDescent.Options useLocking (useLocking بولی)
مولفه های
| استفاده از قفل کردن | اگر "درست" باشد، تفریق با یک قفل محافظت می شود. در غیر این صورت رفتار تعریف نشده است، اما ممکن است اختلاف کمتری از خود نشان دهد. | 
|---|