مُحسِّن يطبق خوارزمية Adagrad Dual-Averaging.
يعتني هذا المُحسِّن بتنظيم الميزات غير المرئية في دفعة صغيرة عن طريق تحديثها عند رؤيتها بقاعدة تحديث نموذج مغلق تعادل تحديثها في كل دفعة صغيرة.
يتم استخدام AdagradDA عادةً عندما تكون هناك حاجة إلى تناثر كبير في النموذج المُدرب. يضمن هذا المحسن التناثر للنماذج الخطية فقط. كن حذرًا عند استخدام AdagradDA للشبكات العميقة حيث سيتطلب الأمر تهيئة دقيقة لمراكم التدرج حتى يتم تدريبه.
الثوابت
خيط | المجمع | |
يطفو | INITIAL_ACCUMULATOR_DEFAULT | |
يطفو | L1_STRENGTH_DEFAULT | |
يطفو | L2_STRENGTH_DEFAULT | |
يطفو | LEARNING_RATE_DEFAULT | |
خيط | SQUARED_ACCUMULATOR |
الثوابت الموروثة
المقاولون العامون
الأساليب العامة
خيط | getOptimizerName () احصل على اسم المحسن. |
خيط | إلى سلسلة () |
الطرق الموروثة
الثوابت
تراكم السلسلة النهائية الثابتة العامة
التعويم النهائي الثابت العام INITIAL_ACCUMULATOR_DEFAULT
التعويم النهائي الثابت العام L1_STRENGTH_DEFAULT
التعويم النهائي الثابت العام L2_STRENGTH_DEFAULT
التعويم النهائي الثابت العام LEARNING_RATE_DEFAULT
السلسلة النهائية العامة الثابتة SQUARED_ACCUMULATOR
المقاولون العامون
AdaGradDA العام (الرسم البياني ، معدل التعلم العائم)
يقوم بإنشاء محسن AdaGradDA
حدود
رسم بياني | الرسم البياني TensorFlow |
---|---|
معدل التعليم | معدل التعلم |
AdaGradDA العام (الرسم البياني ، تعويم معدل التعلم، تعويم الأولي قيمة التراكم، تعويم l1 القوة، تعويم l2 القوة)
يقوم بإنشاء محسن AdaGradDA
حدود
رسم بياني | الرسم البياني TensorFlow |
---|---|
معدل التعليم | معدل التعلم |
initialAccumulatorValue | يجب أن تكون القيمة المبدئية للمراكم أكبر من الصفر. |
l1 القوة | يجب أن تكون قوة التنظيم l1 أكبر من أو تساوي الصفر. |
l2 القوة | يجب أن تكون قوة التنظيم l2 أكبر من أو تساوي الصفر. |
رميات
غير الشرعيين استثناء حجة | إذا لم تكن القيمة الأولية للتراكم أكبر من الصفر، أو كانت l1Strength أو l2Strength أقل من الصفر |
---|
AdaGradDA العام (الرسم البياني ، اسم السلسلة، معدل التعلم العائم)
يقوم بإنشاء محسن AdaGradDA
حدود
رسم بياني | الرسم البياني TensorFlow |
---|---|
اسم | اسم المُحسِّن هذا (الافتراضي هو "adagrad-da") |
معدل التعليم | معدل التعلم |
AdaGradDA العام (الرسم البياني ، اسم السلسلة، معدل التعلم العائم، قيمة التراكم الأولية، تعويم l1Strength، تعويم l2Strength)
يقوم بإنشاء محسن AdaGradDA
حدود
رسم بياني | الرسم البياني TensorFlow |
---|---|
اسم | اسم المُحسِّن هذا (الافتراضي هو "adagrad-da") |
معدل التعليم | معدل التعلم |
initialAccumulatorValue | يجب أن تكون القيمة المبدئية للمراكم موجبة |
l1 القوة | يجب أن تكون قوة التنظيم l1 أكبر من أو تساوي الصفر. |
l2 القوة | يجب أن تكون قوة التنظيم l2 أكبر من أو تساوي الصفر. |
رميات
غير الشرعيين استثناء حجة | إذا كانت القيمة الأولية للتراكم ليست أكبر من الصفر، أو * l1Strength أو l2Strength أقل من الصفر |
---|
الأساليب العامة
سلسلة getOptimizerName () العامة
احصل على اسم المحسن.
عائدات
- اسم المحسن.