الطبقة النهائية العامة ApplyAdagrad
قم بتحديث '*var' وفقًا لمخطط adagrad.
تراكم += غراد * غراد var -= lr * غراد * (1 / sqrt(accum))
فئات متداخلة
| فصل | ApplyAdagrad.Options | السمات الاختيارية لـ ApplyAdagrad | |
الثوابت
| خيط | OP_NAME | اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي | 
الأساليب العامة
| الإخراج <T> |  كإخراج ()  إرجاع المقبض الرمزي للموتر. | 
| ثابت <T يمتد TType > ApplyAdagrad <T> | |
| الإخراج <T> |  خارج ()  نفس "فار". | 
| تطبيق ApplyAdagrad.Options ثابت |  فتحات التحديث (فتحات التحديث المنطقية) | 
| تطبيق ApplyAdagrad.Options ثابت |  useLocking (استخدام منطقي منطقي)  | 
الطرق الموروثة
الثوابت
السلسلة النهائية الثابتة العامة OP_NAME
اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي
 القيمة الثابتة: "ApplyAdagrad" 
الأساليب العامة
الإخراج العام <T> كإخراج ()
إرجاع المقبض الرمزي للموتر.
المدخلات إلى عمليات TensorFlow هي مخرجات عملية TensorFlow أخرى. يتم استخدام هذه الطريقة للحصول على مقبض رمزي يمثل حساب الإدخال.
إنشاء ApplyAdagrad <T> ثابت عام ( نطاق النطاق، المعامل <T> var، المعامل <T> تراكم، المعامل <T> lr، المعامل <T> grad، خيارات... خيارات)
طريقة المصنع لإنشاء فئة تغلف عملية ApplyAdagrad جديدة.
حدود
| نِطَاق | النطاق الحالي | 
|---|---|
| فار | يجب أن يكون من متغير (). | 
| تراكم | يجب أن يكون من متغير (). | 
| lr | عامل التحجيم. يجب أن يكون العددية. | 
| خريج | التدرج. | 
| خيارات | يحمل قيم السمات الاختيارية | 
عائدات
- مثيل جديد من ApplyAdagrad
ApplyAdagrad.Options العام الثابت useLocking (الاستخدام المنطقي Boolean useLocking)
حدود
| useLocking | إذا كان "صحيحًا"، فسيتم حماية تحديث موترتي var وaccum بواسطة قفل؛ وإلا فإن السلوك غير محدد، ولكنه قد يحمل قدرًا أقل من الخلاف. | 
|---|