Ftrl

الطبقة العامة Ftrl

محسن ينفذ خوارزمية FTRL.

يحتوي هذا الإصدار على دعم لكل من L2 عبر الإنترنت (عقوبة L2 الواردة في الورقة أدناه) ونوع الانكماش L2 (وهو إضافة عقوبة L2 إلى وظيفة الخسارة).

الثوابت

خيط المجمع
يطفو INITIAL_ACCUMULATOR_VALUE_DEFAULT
يطفو L1STRENGTH_DEFAULT
يطفو L2STRENGTH_DEFAULT
يطفو L2_SHRINKAGE_REGULARIZATION_STRENGTH_DEFAULT
يطفو LEARNING_RATE_DEFAULT
يطفو LEARNING_RATE_POWER_DEFAULT
خيط LINEAR_ACCUMULATOR

الثوابت الموروثة

المقاولون العامون

Ftrl (الرسم البياني )
يقوم بإنشاء محسن Ftrl
Ftrl (الرسم البياني ، اسم السلسلة)
يقوم بإنشاء محسن Ftrl
Ftrl (الرسم البياني ، معدل التعلم العائم)
يقوم بإنشاء محسن Ftrl
Ftrl (الرسم البياني ، اسم السلسلة، معدل التعلم العائم)
يقوم بإنشاء محسن Ftrl
Ftrl (الرسم البياني ، تعويم معدل التعلم، تعويم معدل التعلم، تعويم الأوليالتراكمالقيمة، تعويم l1 القوة، تعويم l2 القوة، تعويم l2ShrinkageRegularizationStrength)
يقوم بإنشاء محسن Ftrl
Ftrl (الرسم البياني ، اسم السلسلة، معدل التعلم العائم، معدل التعلم العائم، قيمة التراكم الأولية العائمة، القوة العائمة l1، القوة العائمة l2، القوة العائمة l2ShrinkageRegularizationStrength)
يقوم بإنشاء محسن Ftrl

الأساليب العامة

خيط
getOptimizerName ()
احصل على اسم المحسن.

الطرق الموروثة

الثوابت

تراكم السلسلة النهائية الثابتة العامة

القيمة الثابتة: "gradient_accumulator"

التعويم النهائي الثابت العام INITIAL_ACCUMULATOR_VALUE_DEFAULT

القيمة الثابتة: 0.1

التعويم النهائي الثابت العام L1STRENGTH_DEFAULT

القيمة الثابتة: 0.0

التعويم النهائي الثابت العام L2STRENGTH_DEFAULT

القيمة الثابتة: 0.0

التعويم النهائي الثابت العام L2_SHRINKAGE_REGULARIZATION_STRENGTH_DEFAULT

القيمة الثابتة: 0.0

التعويم النهائي الثابت العام LEARNING_RATE_DEFAULT

القيمة الثابتة: 0.001

التعويم النهائي الثابت العام LEARNING_RATE_POWER_DEFAULT

القيمة الثابتة: -0.5

السلسلة النهائية الثابتة العامة LINEAR_ACCUMULATOR

القيمة الثابتة: "المجمع الخطي"

المقاولون العامون

Ftrl العام (الرسم البياني )

يقوم بإنشاء محسن Ftrl

حدود
رسم بياني الرسم البياني TensorFlow

Ftrl العام (الرسم البياني ، اسم السلسلة)

يقوم بإنشاء محسن Ftrl

حدود
رسم بياني الرسم البياني TensorFlow
اسم اسم هذا المحسن

Ftrl العام (الرسم البياني ، معدل التعلم العائم)

يقوم بإنشاء محسن Ftrl

حدود
رسم بياني الرسم البياني TensorFlow
معدل التعليم معدل التعلم

Ftrl العام (الرسم البياني ، اسم السلسلة، معدل التعلم العائم)

يقوم بإنشاء محسن Ftrl

حدود
رسم بياني الرسم البياني TensorFlow
اسم اسم هذا المحسن
معدل التعليم معدل التعلم

Ftrl العام ( الرسم البياني، تعويم معدل التعلم، تعويم معدل التعلم، تعويم الأوليالتراكمالقيمة، تعويم l1 القوة، تعويم l2 القوة، تعويم l2ShrinkageRegularizationStrength)

يقوم بإنشاء محسن Ftrl

حدود
رسم بياني الرسم البياني TensorFlow
معدل التعليم معدل التعلم
LearningRatePower يتحكم في كيفية انخفاض معدل التعلم أثناء التدريب. استخدم الصفر لمعدل تعلم ثابت.
initialAccumulatorValue القيمة المبدئية للمراكم. يُسمح فقط بالقيم الصفرية أو الإيجابية.
l1 القوة يجب أن تكون قوة تنظيم L1 أكبر من أو تساوي الصفر.
l2 القوة يجب أن تكون قوة تنظيم L2 أكبر من أو تساوي الصفر.
l2قوة تنظيم الانكماش وهذا يختلف عن L2 أعلاه في أن L2 أعلاه هو عقوبة تثبيت، في حين أن هذا الانكماش L2 هو عقوبة حجم. يجب أن يكون أكبر من أو يساوي الصفر.
رميات
غير الشرعيين استثناء حجة إذا كانت القيمة الأولية للتراكم، أو l1RegularizationStrength، أو l2RegularizationStrength، أو l2ShrinkageRegularizationStrength أقل من 0.0، أو LearningRatePower أكبر من 0.0.

Ftrl العام (الرسم البياني ، اسم السلسلة، معدل التعلم العائم، معدل التعلم العائم، قيمة التراكم الأولية العائمة، القوة العائمة l1، القوة العائمة l2، القوة العائمة l2ShrinkageRegularizationStrength)

يقوم بإنشاء محسن Ftrl

حدود
رسم بياني الرسم البياني TensorFlow
اسم اسم هذا المحسن
معدل التعليم معدل التعلم
LearningRatePower يتحكم في كيفية انخفاض معدل التعلم أثناء التدريب. استخدم الصفر لمعدل تعلم ثابت.
initialAccumulatorValue القيمة المبدئية للمراكم. يُسمح فقط بالقيم الصفرية أو الإيجابية.
l1 القوة يجب أن تكون قوة تنظيم L1 أكبر من أو تساوي الصفر.
l2 القوة يجب أن تكون قوة تنظيم L2 أكبر من أو تساوي الصفر.
l2قوة تنظيم الانكماش وهذا يختلف عن L2 أعلاه في أن L2 أعلاه هو عقوبة تثبيت، في حين أن هذا الانكماش L2 هو عقوبة حجم. يجب أن يكون أكبر من أو يساوي الصفر.
رميات
غير الشرعيين استثناء حجة إذا كانت القيمة الأولية للتراكم، أو l1RegularizationStrength، أو l2RegularizationStrength، أو l2ShrinkageRegularizationStrength أقل من 0.0، أو LearningRatePower أكبر من 0.0.

الأساليب العامة

سلسلة getOptimizerName () العامة

احصل على اسم المحسن.

عائدات
  • اسم المحسن.