SparseApplyAdagradV2

الطبقة النهائية العامة SparseApplyAdagradV2

قم بتحديث الإدخالات ذات الصلة في '*var' و'*accum' وفقًا لمخطط adagrad.

هذا بالنسبة للصفوف التي تم تخريجها، نقوم بتحديث var وaccum كما يلي: $$accum += grad * grad$$$$var -= lr * grad * (1 / sqrt(accum))$$

فئات متداخلة

فصل SparseApplyAdagradV2.Options السمات الاختيارية لـ SparseApplyAdagradV2

الأساليب العامة

الإخراج <T>
كإخراج ()
إرجاع المقبض الرمزي للموتر.
ثابت <T، U يمتد الرقم> SparseApplyAdagradV2 <T>
إنشاء (نطاق النطاق ، المعامل <T> فار، المعامل <T> تراكم، المعامل <T> lr، المعامل <T> إبسيلون، المعامل <T> غراد، المعامل <U> الفهارس، خيارات... خيارات)
طريقة المصنع لإنشاء فئة تغلف عملية SparseApplyAdagradV2 جديدة.
الإخراج <T>
خارج ()
نفس "فار".
ثابت SparseApplyAdagradV2.Options
فتحات التحديث (فتحات التحديث المنطقية)
ثابت SparseApplyAdagradV2.Options
useLocking (استخدام منطقي منطقي)

الطرق الموروثة

الأساليب العامة

الإخراج العام <T> كإخراج ()

إرجاع المقبض الرمزي للموتر.

المدخلات إلى عمليات TensorFlow هي مخرجات عملية TensorFlow أخرى. يتم استخدام هذه الطريقة للحصول على مقبض رمزي يمثل حساب الإدخال.

إنشاء SparseApplyAdagradV2 <T> ثابت عام ( نطاق النطاق، المعامل <T> var، المعامل <T> تراكم، المعامل <T> lr، المعامل <T> epsilon، المعامل <T> grad، المعامل <U> المؤشرات، الخيارات.. . خيارات)

طريقة المصنع لإنشاء فئة تغلف عملية SparseApplyAdagradV2 جديدة.

حدود
نِطَاق النطاق الحالي
فار يجب أن يكون من متغير ().
تراكم يجب أن يكون من متغير ().
lr معدل التعليم. يجب أن يكون العددية.
إبسيلون عامل ثابت. يجب أن يكون العددية.
خريج التدرج.
المؤشرات متجه للمؤشرات في البعد الأول من var وaccum.
خيارات يحمل قيم السمات الاختيارية
عائدات
  • مثيل جديد لـSparseApplyAdagradV2

الإخراج العام <T> خارج ()

نفس "فار".

ثابت عام SparseApplyAdagradV2.Options UpdateSlots (فتحات التحديث المنطقية)

ثابت عام SparseApplyAdagradV2.Options useLocking (useLocking المنطقي)

حدود
useLocking إذا كان "صحيحًا"، فسيتم حماية تحديث موترتي var وaccum بواسطة قفل؛ وإلا فإن السلوك غير محدد، ولكنه قد يحمل قدرًا أقل من الخلاف.