إدخالات تحديث متفرقة في '*var' و'*accum' وفقًا لخوارزمية FOBOS.
هذا بالنسبة للصفوف التي لدينا غراد لها، نقوم بتحديث var وaccum على النحو التالي: accum += grad grad prox_v = var prox_v -= lr grad (1 / sqrt(accum)) var = Sign(prox_v)/(1+lr l2 ) الحد الأقصى {|prox_v|-lr l1,0}
فئات متداخلة
| فصل | ResourceSparseApplyProximalAdagrad.Options | السمات الاختيارية لـ ResourceSparseApplyProximalAdagrad | |
الثوابت
| خيط | OP_NAME | اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي |
الأساليب العامة
| ثابت <T يمتد TType > ResourceSparseApplyProximalAdagrad | |
| ثابت ResourceSparseApplyProximalAdagrad.Options | useLocking (استخدام منطقي منطقي) |
الطرق الموروثة
الثوابت
السلسلة النهائية الثابتة العامة OP_NAME
اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي
الأساليب العامة
إنشاء ResourceSparseApplyProximalAdagrad الثابت العام (نطاق النطاق ، المعامل <?> var، المعامل <?> تراكم، المعامل <T> lr، المعامل <T> l1، المعامل <T> l2، المعامل <T> grad، المعامل <? يمتد TNumber > المؤشرات، الخيارات... الخيارات)
طريقة المصنع لإنشاء فئة تلتف حول عملية ResourceSparseApplyProximalAdagrad الجديدة.
حدود
| نِطَاق | النطاق الحالي |
|---|---|
| فار | يجب أن يكون من متغير (). |
| تراكم | يجب أن يكون من متغير (). |
| lr | معدل التعليم. يجب أن يكون العددية. |
| l1 | تسوية L1. يجب أن يكون العددية. |
| l2 | تسوية L2. يجب أن يكون العددية. |
| خريج | التدرج. |
| المؤشرات | متجه للمؤشرات في البعد الأول من var وaccum. |
| خيارات | يحمل قيم السمات الاختيارية |
عائدات
- مثيل جديد من ResourceSparseApplyProximalAdagrad
ResourceSparseApplyProximalAdagrad.Options العام الثابت useLocking (useLocking المنطقي)
حدود
| useLocking | إذا كان True، فسيتم حماية تحديث موترتي var وaccum بواسطة قفل؛ وإلا فإن السلوك غير محدد، ولكنه قد يحمل قدرًا أقل من الخلاف. |
|---|