قم بتحديث الإدخالات ذات الصلة في '*var' و'*accum' وفقًا لمخطط adagrad.
هذا بالنسبة للصفوف التي لدينا grad لها، نقوم بتحديث var وaccum على النحو التالي: $$accum += grad * grad$$$$var -= lr * grad * (1 / sqrt(accum))$$
فئات متداخلة
| فصل | SparseApplyAdagrad.Options | السمات الاختيارية لـ SparseApplyAdagrad | |
الثوابت
| خيط | OP_NAME | اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي |
الأساليب العامة
| الإخراج <T> | كإخراج () إرجاع المقبض الرمزي للموتر. |
| ثابت <T يمتد TType > SparseApplyAdagrad <T> | |
| الإخراج <T> | خارج () نفس "فار". |
| ثابت SparseApplyAdagrad.Options | فتحات التحديث (فتحات التحديث المنطقية) |
| ثابت SparseApplyAdagrad.Options | useLocking (استخدام منطقي منطقي) |
الطرق الموروثة
الثوابت
السلسلة النهائية الثابتة العامة OP_NAME
اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي
الأساليب العامة
الإخراج العام <T> كإخراج ()
إرجاع المقبض الرمزي للموتر.
المدخلات إلى عمليات TensorFlow هي مخرجات عملية TensorFlow أخرى. يتم استخدام هذه الطريقة للحصول على مقبض رمزي يمثل حساب الإدخال.
إنشاء SparseApplyAdagrad <T> ثابت عام (نطاق النطاق ، المعامل <T> var، المعامل <T> تراكم، المعامل <T> lr، المعامل <T> epsilon، المعامل <T> grad، المعامل <؟ يمتد TNumber > المؤشرات، الخيارات ... خيارات)
طريقة المصنع لإنشاء فئة تغلف عملية SparseApplyAdagrad جديدة.
حدود
| نِطَاق | النطاق الحالي |
|---|---|
| فار | يجب أن يكون من متغير (). |
| تراكم | يجب أن يكون من متغير (). |
| lr | معدل التعلم. يجب أن يكون العددية. |
| إبسيلون | عامل ثابت. يجب أن يكون العددية. |
| خريج | التدرج. |
| المؤشرات | متجه للمؤشرات في البعد الأول من var وaccum. |
| خيارات | يحمل قيم السمات الاختيارية |
المرتجعات
- مثيل جديد لـSparseApplyAdagrad
SparseApplyAdagrad.Options العام الثابت useLocking (الاستخدام المنطقي)
حدود
| useLocking | إذا كان "صحيحًا"، فسيتم حماية تحديث موترتي var وaccum بواسطة قفل؛ وإلا فإن السلوك غير محدد، ولكنه قد يحمل قدرًا أقل من الخلاف. |
|---|