ResourceApplyProximalAdagrad

الفئة النهائية العامة ResourceApplyProximalAdagrad

قم بتحديث '*var' و'*accum' وفقًا لـ FOBOS بمعدل تعلم Adagrad.

تراكم += غراد prox_v = var - lr grad (1 / sqrt(accum)) var = Sign(prox_v)/(1+lr l2) max{|prox_v|-lr l1,0}

فئات متداخلة

فصل ResourceApplyProximalAdagrad.Options السمات الاختيارية لـ ResourceApplyProximalAdagrad

الثوابت

خيط OP_NAME اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي

الأساليب العامة

ثابت <T يمتد TType > ResourceApplyProximalAdagrad
إنشاء (نطاق النطاق ، المعامل <?> var، المعامل <?> تراكم، المعامل <T> lr، المعامل <T> l1، المعامل <T> l2، المعامل <T> grad، خيارات... خيارات)
طريقة المصنع لإنشاء فئة تلتف حول عملية ResourceApplyProximalAdagrad جديدة.
ResourceApplyProximalAdagrad.Options ثابت
useLocking (استخدام منطقي منطقي)

الطرق الموروثة

الثوابت

السلسلة النهائية الثابتة العامة OP_NAME

اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي

القيمة الثابتة: "ResourceApplyProximalAdagrad"

الأساليب العامة

إنشاء ResourceApplyProximalAdagrad الثابت العام ( نطاق النطاق، المعامل <?> var، المعامل <?> تراكم، المعامل <T> lr، المعامل <T> l1، المعامل <T> l2، المعامل <T> grad، خيارات... خيارات)

طريقة المصنع لإنشاء فئة تلتف حول عملية ResourceApplyProximalAdagrad جديدة.

حدود
نِطَاق النطاق الحالي
فار يجب أن يكون من متغير ().
تراكم يجب أن يكون من متغير ().
lr عامل التحجيم. يجب أن يكون العددية.
l1 تسوية L1. يجب أن يكون العددية.
l2 تسوية L2. يجب أن يكون العددية.
خريج التدرج.
خيارات يحمل قيم السمات الاختيارية
عائدات
  • مثيل جديد من ResourceApplyProximalAdagrad

ResourceApplyProximalAdagrad.Options العام الثابت useLocking (useLocking المنطقي)

حدود
useLocking إذا كان True، فسيتم حماية تحديث موترتي var وaccum بواسطة قفل؛ وإلا فإن السلوك غير محدد، ولكنه قد يحمل قدرًا أقل من الخلاف.