AdaGradDA

الطبقة العامة AdaGradDA

مُحسِّن يطبق خوارزمية Adagrad Dual-Averaging.

يعتني هذا المُحسِّن بتنظيم الميزات غير المرئية في دفعة صغيرة عن طريق تحديثها عند رؤيتها بقاعدة تحديث نموذج مغلق تعادل تحديثها في كل دفعة صغيرة.

يتم استخدام AdagradDA عادةً عندما تكون هناك حاجة إلى تناثر كبير في النموذج المُدرب. يضمن هذا المحسن التناثر للنماذج الخطية فقط. كن حذرًا عند استخدام AdagradDA للشبكات العميقة حيث سيتطلب الأمر تهيئة دقيقة لمراكم التدرج حتى يتم تدريبه.

الثوابت

الثوابت الموروثة

org.tensorflow.framework.optimizers.Optimizer
خيط VARIABLE_V2

المقاولون العامون

AdaGradDA (الرسم البياني )
يقوم بإنشاء محسن AdaGradDA
AdaGradDA (الرسم البياني ، معدل التعلم العائم)
يقوم بإنشاء محسن AdaGradDA
AdaGradDA (الرسم البياني ، تعويم معدل التعلم، تعويم الأولي قيمة التراكم، تعويم l1 القوة، تعويم l2 القوة)
يقوم بإنشاء محسن AdaGradDA
AdaGradDA (الرسم البياني ، اسم السلسلة، معدل التعلم العائم)
يقوم بإنشاء محسن AdaGradDA
AdaGradDA (رسم بياني ، اسم السلسلة، معدل التعلم العائم، قيمة التراكم الأولية، تعويم l1Strength، تعويم l2Strength)
يقوم بإنشاء محسن AdaGradDA

الأساليب العامة

خيط
getOptimizerName ()
احصل على اسم المحسن.
خيط

الطرق الموروثة

org.tensorflow.framework.optimizers.Optimizer
مرجع سابق
ApplyGradients (القائمة< GradAndVar <؟ تمتد TType >> gradsAndVars، اسم السلسلة)
يطبق التدرجات على المتغيرات
<T يمتد TType > القائمة< GradAndVar <?>>
حساب التدرجات (خسارة المعامل <?>)
يحسب التدرجات على أساس معامل الخسارة.
سلسلة ثابتة
createName ( الإخراج <؟ يمتد TType > متغير، String SlotName)
ينشئ اسمًا من خلال الجمع بين اسم المتغير واسم الفتحة
سلسلة مجردة
getOptimizerName ()
احصل على اسم المحسن.
<T يمتد TType > اختياري< متغير <T>>
getSlot ( الإخراج <T> فار، اسم فتحة السلسلة)
يحصل على الفتحة المرتبطة بالمتغير المحدد واسم الفتحة.
العمليات النهائية
جيتف ()
الحصول على مثيل Ops الخاص بـ Optimizer
مرجع سابق
تقليل (خسارة المعامل <?>)
تقليل الخسارة عن طريق تحديث المتغيرات
مرجع سابق
تقليل (خسارة المعامل <?>، اسم السلسلة)
تقليل الخسارة عن طريق تحديث المتغيرات
منطقية
يساوي (كائن arg0)
الدرجة النهائية<?>
الحصول على كلاس ()
كثافة العمليات
رمز التجزئة ()
الفراغ النهائي
إعلام ()
الفراغ النهائي
إعلام الكل ()
خيط
إلى سلسلة ()
الفراغ النهائي
انتظر (طويل arg0، int arg1)
الفراغ النهائي
انتظر (طويل arg0)
الفراغ النهائي
انتظر ()

الثوابت

تراكم السلسلة النهائية الثابتة العامة

القيمة الثابتة: "gradient_accumulator"

التعويم النهائي الثابت العام INITIAL_ACCUMULATOR_DEFAULT

القيمة الثابتة: 0.1

التعويم النهائي الثابت العام L1_STRENGTH_DEFAULT

القيمة الثابتة: 0.0

التعويم النهائي الثابت العام L2_STRENGTH_DEFAULT

القيمة الثابتة: 0.0

التعويم النهائي الثابت العام LEARNING_RATE_DEFAULT

القيمة الثابتة: 0.001

السلسلة النهائية العامة الثابتة SQUARED_ACCUMULATOR

القيمة الثابتة: "gradient_squared_accumulator"

المقاولون العامون

AdaGradDA العام (الرسم البياني )

يقوم بإنشاء محسن AdaGradDA

حدود
رسم بياني الرسم البياني TensorFlow

AdaGradDA العام (الرسم البياني ، معدل التعلم العائم)

يقوم بإنشاء محسن AdaGradDA

حدود
رسم بياني الرسم البياني TensorFlow
معدل التعليم معدل التعلم

AdaGradDA العام (الرسم البياني ، تعويم معدل التعلم، تعويم الأولي قيمة التراكم، تعويم l1 القوة، تعويم l2 القوة)

يقوم بإنشاء محسن AdaGradDA

حدود
رسم بياني الرسم البياني TensorFlow
معدل التعليم معدل التعلم
initialAccumulatorValue يجب أن تكون القيمة المبدئية للمراكم أكبر من الصفر.
l1 القوة يجب أن تكون قوة التنظيم l1 أكبر من أو تساوي الصفر.
l2 القوة يجب أن تكون قوة التنظيم l2 أكبر من أو تساوي الصفر.
رميات
غير الشرعيين استثناء حجة إذا لم تكن القيمة الأولية للتراكم أكبر من الصفر، أو كانت l1Strength أو l2Strength أقل من الصفر

AdaGradDA العام (الرسم البياني ، اسم السلسلة، معدل التعلم العائم)

يقوم بإنشاء محسن AdaGradDA

حدود
رسم بياني الرسم البياني TensorFlow
اسم اسم المُحسِّن هذا (الافتراضي هو "adagrad-da")
معدل التعليم معدل التعلم

AdaGradDA العام (الرسم البياني ، اسم السلسلة، معدل التعلم العائم، قيمة التراكم الأولية، تعويم l1Strength، تعويم l2Strength)

يقوم بإنشاء محسن AdaGradDA

حدود
رسم بياني الرسم البياني TensorFlow
اسم اسم المُحسِّن هذا (الافتراضي هو "adagrad-da")
معدل التعليم معدل التعلم
initialAccumulatorValue يجب أن تكون القيمة المبدئية للمراكم موجبة
l1 القوة يجب أن تكون قوة التنظيم l1 أكبر من أو تساوي الصفر.
l2 القوة يجب أن تكون قوة التنظيم l2 أكبر من أو تساوي الصفر.
رميات
غير الشرعيين استثناء حجة إذا كانت القيمة الأولية للتراكم ليست أكبر من الصفر، أو * l1Strength أو l2Strength أقل من الصفر

الأساليب العامة

سلسلة getOptimizerName () العامة

احصل على اسم المحسن.

عائدات
  • اسم المحسن.

سلسلة عامة إلى سلسلة ()