الطبقة العامة Ftrl
محسن ينفذ خوارزمية FTRL.
يحتوي هذا الإصدار على دعم لكل من L2 عبر الإنترنت (عقوبة L2 الواردة في الورقة أدناه) ونوع الانكماش L2 (وهو إضافة عقوبة L2 إلى وظيفة الخسارة).
أنظر أيضا
الثوابت
الثوابت الموروثة
المقاولون العامون
الأساليب العامة
خيط | getOptimizerName () احصل على اسم المحسن. |
الطرق الموروثة
الثوابت
تراكم السلسلة النهائية الثابتة العامة
القيمة الثابتة: "gradient_accumulator"
التعويم النهائي الثابت العام INITIAL_ACCUMULATOR_VALUE_DEFAULT
القيمة الثابتة: 0.1
التعويم النهائي الثابت العام L1STRENGTH_DEFAULT
القيمة الثابتة: 0.0
التعويم النهائي الثابت العام L2STRENGTH_DEFAULT
القيمة الثابتة: 0.0
التعويم النهائي الثابت العام L2_SHRINKAGE_REGULARIZATION_STRENGTH_DEFAULT
القيمة الثابتة: 0.0
التعويم النهائي الثابت العام LEARNING_RATE_DEFAULT
القيمة الثابتة: 0.001
التعويم النهائي الثابت العام LEARNING_RATE_POWER_DEFAULT
القيمة الثابتة: -0.5
السلسلة النهائية الثابتة العامة LINEAR_ACCUMULATOR
القيمة الثابتة: "المجمع الخطي"
المقاولون العامون
Ftrl العام (الرسم البياني ، اسم السلسلة)
يقوم بإنشاء محسن Ftrl
حدود
رسم بياني | الرسم البياني TensorFlow |
---|---|
اسم | اسم هذا المحسن |
Ftrl العام (الرسم البياني ، معدل التعلم العائم)
يقوم بإنشاء محسن Ftrl
حدود
رسم بياني | الرسم البياني TensorFlow |
---|---|
معدل التعليم | معدل التعلم |
Ftrl العام (الرسم البياني ، اسم السلسلة، معدل التعلم العائم)
يقوم بإنشاء محسن Ftrl
حدود
رسم بياني | الرسم البياني TensorFlow |
---|---|
اسم | اسم هذا المحسن |
معدل التعليم | معدل التعلم |
Ftrl العام ( الرسم البياني، تعويم معدل التعلم، تعويم معدل التعلم، تعويم الأوليالتراكمالقيمة، تعويم l1 القوة، تعويم l2 القوة، تعويم l2ShrinkageRegularizationStrength)
يقوم بإنشاء محسن Ftrl
حدود
رسم بياني | الرسم البياني TensorFlow |
---|---|
معدل التعليم | معدل التعلم |
LearningRatePower | يتحكم في كيفية انخفاض معدل التعلم أثناء التدريب. استخدم الصفر لمعدل تعلم ثابت. |
initialAccumulatorValue | القيمة المبدئية للمراكم. يُسمح فقط بالقيم الصفرية أو الإيجابية. |
l1 القوة | يجب أن تكون قوة تنظيم L1 أكبر من أو تساوي الصفر. |
l2 القوة | يجب أن تكون قوة تنظيم L2 أكبر من أو تساوي الصفر. |
l2قوة تنظيم الانكماش | وهذا يختلف عن L2 أعلاه في أن L2 أعلاه هو عقوبة تثبيت، في حين أن هذا الانكماش L2 هو عقوبة حجم. يجب أن يكون أكبر من أو يساوي الصفر. |
رميات
غير الشرعيين استثناء حجة | إذا كانت القيمة الأولية للتراكم، أو l1RegularizationStrength، أو l2RegularizationStrength، أو l2ShrinkageRegularizationStrength أقل من 0.0، أو LearningRatePower أكبر من 0.0. |
---|
Ftrl العام (الرسم البياني ، اسم السلسلة، معدل التعلم العائم، معدل التعلم العائم، قيمة التراكم الأولية العائمة، القوة العائمة l1، القوة العائمة l2، القوة العائمة l2ShrinkageRegularizationStrength)
يقوم بإنشاء محسن Ftrl
حدود
رسم بياني | الرسم البياني TensorFlow |
---|---|
اسم | اسم هذا المحسن |
معدل التعليم | معدل التعلم |
LearningRatePower | يتحكم في كيفية انخفاض معدل التعلم أثناء التدريب. استخدم الصفر لمعدل تعلم ثابت. |
initialAccumulatorValue | القيمة المبدئية للمراكم. يُسمح فقط بالقيم الصفرية أو الإيجابية. |
l1 القوة | يجب أن تكون قوة تنظيم L1 أكبر من أو تساوي الصفر. |
l2 القوة | يجب أن تكون قوة تنظيم L2 أكبر من أو تساوي الصفر. |
l2قوة تنظيم الانكماش | وهذا يختلف عن L2 أعلاه في أن L2 أعلاه هو عقوبة تثبيت، في حين أن هذا الانكماش L2 هو عقوبة حجم. يجب أن يكون أكبر من أو يساوي الصفر. |
رميات
غير الشرعيين استثناء حجة | إذا كانت القيمة الأولية للتراكم، أو l1RegularizationStrength، أو l2RegularizationStrength، أو l2ShrinkageRegularizationStrength أقل من 0.0، أو LearningRatePower أكبر من 0.0. |
---|
الأساليب العامة
سلسلة getOptimizerName () العامة
احصل على اسم المحسن.
عائدات
- اسم المحسن.