الفئة النهائية العامة ResourceApplyAdagradDa
قم بتحديث '*var' وفقًا لمخطط adagrad القريب.
فئات متداخلة
| فصل | ResourceApplyAdagradDa.Options | السمات الاختيارية لـ ResourceApplyAdagradDa | |
الثوابت
| خيط | OP_NAME | اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي |
الأساليب العامة
| ثابت <T يمتد TType > ResourceApplyAdagradDa | |
| ResourceApplyAdagradDa.Options ثابت | useLocking (استخدام منطقي منطقي) |
الطرق الموروثة
الثوابت
السلسلة النهائية الثابتة العامة OP_NAME
اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي
القيمة الثابتة: "ResourceApplyAdagradDA"
الأساليب العامة
إنشاء ResourceApplyAdagradDa الثابت العام (نطاق النطاق ، المعامل <?> var، المعامل <?> gradientAccumulator، المعامل <?> gradientSquaredAccumulator، المعامل <T> grad، المعامل <T> lr، المعامل <T> l1، المعامل <T> l2، المعامل <TInt64> globalStep، خيارات... خيارات)
طريقة المصنع لإنشاء فئة تلتف حول عملية ResourceApplyAdagradDa جديدة.
حدود
| نِطَاق | النطاق الحالي |
|---|---|
| فار | يجب أن يكون من متغير (). |
| gradientAccumulator | يجب أن يكون من متغير (). |
| gradientSquaredAccumulator | يجب أن يكون من متغير (). |
| خريج | التدرج. |
| lr | عامل التحجيم. يجب أن يكون العددية. |
| l1 | تسوية L1. يجب أن يكون العددية. |
| l2 | تسوية L2. يجب أن يكون العددية. |
| globalStep | رقم خطوة التدريب يجب أن يكون العددية. |
| خيارات | يحمل قيم السمات الاختيارية |
عائدات
- مثيل جديد من ResourceApplyAdagradDa
ResourceApplyAdagradDa.Options العام الثابت useLocking (الاستخدام المنطقي)
حدود
| useLocking | إذا كان True، فسيتم حماية تحديث موترتي var وaccum بواسطة قفل؛ وإلا فإن السلوك غير محدد، ولكنه قد يحمل قدرًا أقل من الخلاف. |
|---|