مُحسِّن يطبق خوارزمية Adagrad Dual-Averaging.
يعتني هذا المُحسِّن بتنظيم الميزات غير المرئية في دفعة صغيرة عن طريق تحديثها عند رؤيتها بقاعدة تحديث نموذج مغلق تعادل تحديثها في كل دفعة صغيرة.
يتم استخدام AdagradDA عادةً عندما تكون هناك حاجة إلى تناثر كبير في النموذج المُدرب. يضمن هذا المحسن التناثر للنماذج الخطية فقط. كن حذرًا عند استخدام AdagradDA للشبكات العميقة حيث سيتطلب الأمر تهيئة دقيقة لمراكم التدرج حتى يتم تدريبه.
الثوابت
خيط | المجمع | |
يطفو | INITIAL_ACCUMULATOR_DEFAULT | |
يطفو | L1_STRENGTH_DEFAULT | |
يطفو | L2_STRENGTH_DEFAULT | |
يطفو | LEARNING_RATE_DEFAULT | |
خيط | SQUARED_ACCUMULATOR |
الثوابت الموروثة
خيط | VARIABLE_V2 |
المقاولون العامون
الأساليب العامة
خيط | getOptimizerName () احصل على اسم المحسن. |
خيط | إلى سلسلة () |
الطرق الموروثة
مرجع سابق | ApplyGradients (القائمة< GradAndVar <؟ تمتد TType >> gradsAndVars، اسم السلسلة) يطبق التدرجات على المتغيرات |
<T يمتد TType > القائمة< GradAndVar <?>> | |
سلسلة ثابتة | createName ( الإخراج <؟ يمتد TType > متغير، String SlotName) ينشئ اسمًا من خلال الجمع بين اسم المتغير واسم الفتحة |
سلسلة مجردة | getOptimizerName () احصل على اسم المحسن. |
<T يمتد TType > اختياري< متغير <T>> | |
العمليات النهائية | جيتف () الحصول على مثيل Ops الخاص بـ Optimizer |
مرجع سابق | |
مرجع سابق |
منطقية | يساوي (كائن arg0) |
الدرجة النهائية<?> | الحصول على كلاس () |
كثافة العمليات | رمز التجزئة () |
الفراغ النهائي | إعلام () |
الفراغ النهائي | إعلام الكل () |
خيط | إلى سلسلة () |
الفراغ النهائي | انتظر (طويل arg0، int arg1) |
الفراغ النهائي | انتظر (طويل arg0) |
الفراغ النهائي | انتظر () |
الثوابت
تراكم السلسلة النهائية الثابتة العامة
التعويم النهائي الثابت العام INITIAL_ACCUMULATOR_DEFAULT
التعويم النهائي الثابت العام L1_STRENGTH_DEFAULT
التعويم النهائي الثابت العام L2_STRENGTH_DEFAULT
التعويم النهائي الثابت العام LEARNING_RATE_DEFAULT
السلسلة النهائية العامة الثابتة SQUARED_ACCUMULATOR
المقاولون العامون
AdaGradDA العام (الرسم البياني ، معدل التعلم العائم)
يقوم بإنشاء محسن AdaGradDA
حدود
رسم بياني | الرسم البياني TensorFlow |
---|---|
معدل التعليم | معدل التعلم |
AdaGradDA العام (الرسم البياني ، تعويم معدل التعلم، تعويم الأولي قيمة التراكم، تعويم l1 القوة، تعويم l2 القوة)
يقوم بإنشاء محسن AdaGradDA
حدود
رسم بياني | الرسم البياني TensorFlow |
---|---|
معدل التعليم | معدل التعلم |
initialAccumulatorValue | يجب أن تكون القيمة المبدئية للمراكم أكبر من الصفر. |
l1 القوة | يجب أن تكون قوة التنظيم l1 أكبر من أو تساوي الصفر. |
l2 القوة | يجب أن تكون قوة التنظيم l2 أكبر من أو تساوي الصفر. |
رميات
غير الشرعيين استثناء حجة | إذا لم تكن القيمة الأولية للتراكم أكبر من الصفر، أو كانت l1Strength أو l2Strength أقل من الصفر |
---|
AdaGradDA العام (الرسم البياني ، اسم السلسلة، معدل التعلم العائم)
يقوم بإنشاء محسن AdaGradDA
حدود
رسم بياني | الرسم البياني TensorFlow |
---|---|
اسم | اسم المُحسِّن هذا (الافتراضي هو "adagrad-da") |
معدل التعليم | معدل التعلم |
AdaGradDA العام (الرسم البياني ، اسم السلسلة، معدل التعلم العائم، قيمة التراكم الأولية، تعويم l1Strength، تعويم l2Strength)
يقوم بإنشاء محسن AdaGradDA
حدود
رسم بياني | الرسم البياني TensorFlow |
---|---|
اسم | اسم المُحسِّن هذا (الافتراضي هو "adagrad-da") |
معدل التعليم | معدل التعلم |
initialAccumulatorValue | يجب أن تكون القيمة المبدئية للمراكم موجبة |
l1 القوة | يجب أن تكون قوة التنظيم l1 أكبر من أو تساوي الصفر. |
l2 القوة | يجب أن تكون قوة التنظيم l2 أكبر من أو تساوي الصفر. |
رميات
غير الشرعيين استثناء حجة | إذا كانت القيمة الأولية للتراكم ليست أكبر من الصفر، أو * l1Strength أو l2Strength أقل من الصفر |
---|
الأساليب العامة
سلسلة getOptimizerName () العامة
احصل على اسم المحسن.
عائدات
- اسم المحسن.