الطبقة النهائية العامة SparseApplyAdagradDa
قم بتحديث الإدخالات في '*var' و'*accum' وفقًا لمخطط adagrad القريب.
فئات متداخلة
فصل | SparseApplyAdagradDa.Options | السمات الاختيارية لـ SparseApplyAdagradDa |
الثوابت
خيط | OP_NAME | اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي |
الأساليب العامة
الإخراج <T> | كإخراج () إرجاع المقبض الرمزي للموتر. |
ثابت <T يمتد TType > SparseApplyAdagradDa <T> | إنشاء ( نطاق النطاق ، المعامل <T> var، المعامل <T> gradientAccumulator، المعامل <T> gradientSquaredAccumulator، المعامل <T> grad، المعامل <? يمتد TNumber > المؤشرات، المعامل <T> lr، المعامل <T> l1، المعامل <T> l2، المعامل <TInt64> globalStep، خيارات... خيارات) طريقة المصنع لإنشاء فئة تغلف عملية SparseApplyAdagradDa جديدة. |
الإخراج <T> | خارج () نفس "فار". |
ثابت SparseApplyAdagradDa.Options | useLocking (استخدام منطقي منطقي) |
الطرق الموروثة
الثوابت
السلسلة النهائية الثابتة العامة OP_NAME
اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي
القيمة الثابتة: "SparseApplyAdagradDA"
الأساليب العامة
الإخراج العام <T> كإخراج ()
إرجاع المقبض الرمزي للموتر.
المدخلات إلى عمليات TensorFlow هي مخرجات عملية TensorFlow أخرى. يتم استخدام هذه الطريقة للحصول على مقبض رمزي يمثل حساب الإدخال.
إنشاء SparseApplyAdagradDa <T> ثابت عام ( نطاق النطاق، المعامل <T> var، المعامل <T> gradientAccumulator، المعامل <T> gradientSquaredAccumulator، المعامل <T> grad، المعامل <؟ يمتد TNumber > المؤشرات، المعامل <T> lr، المعامل <T> l1، المعامل <T> l2، المعامل < TInt64 > globalStep، خيارات... خيارات)
طريقة المصنع لإنشاء فئة تغلف عملية SparseApplyAdagradDa جديدة.
حدود
نِطَاق | النطاق الحالي |
---|---|
فار | يجب أن يكون من متغير (). |
gradientAccumulator | يجب أن يكون من متغير (). |
gradientSquaredAccumulator | يجب أن يكون من متغير (). |
خريج | التدرج. |
المؤشرات | متجه للمؤشرات في البعد الأول من var وaccum. |
lr | معدل التعليم. يجب أن يكون العددية. |
l1 | تسوية L1. يجب أن يكون العددية. |
l2 | تسوية L2. يجب أن يكون العددية. |
globalStep | رقم خطوة التدريب يجب أن يكون العددية. |
خيارات | يحمل قيم السمات الاختيارية |
عائدات
- مثيل جديد لـSparseApplyAdagradDa
SparseApplyAdagradDa.Options العام الثابت useLocking (الاستخدام المنطقي)
حدود
useLocking | إذا كان True، فسيتم حماية تحديث موترتي var وaccum بواسطة قفل؛ وإلا فإن السلوك غير محدد، ولكنه قد يحمل قدرًا أقل من الخلاف. |
---|