تفعيل الوحدة الخطية المصححة (ReLU).
باستخدام القيم الافتراضية، يُرجع هذا تنشيط ReLU القياسي: max(x, 0) والحد الأقصى من حيث العنصر 0 وموتر الإدخال.
يتيح لك تعديل المعلمات الافتراضية استخدام حدود غير الصفر، وتغيير القيمة القصوى للتنشيط، واستخدام مضاعف غير الصفر للمدخلات للقيم الأقل من الحد.
على سبيل المثال:
Operand<TFloat32> input = tf.constant(
new float[] {-10f, -5f, 0.0f, 5f, 10f});
// With default parameters
ReLU<TFloat32> relu = new ReLU<>(tf);
Operand<TFloat32> result = relu.call(input);
// result is [0.f, 0.f, 0.f, 5.f, 10.f]
// With alpha = 0.5
relu = new ReLU<>(tf, 0.5f, ReLU.MAX_VALUE_DEFAULT, ReLU.THRESHOLD_DEFAULT);
result = relu.call(input);
// result is [-5.f , -2.5f, 0.f , 5.f , 10.f]
// With maxValue = 5
relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, 5f, ReLU.THRESHOLD_DEFAULT);
result = relu.call(input);
// result is [0.f, 0.f, 0.f, 5.f, 5.f]
// With threshold = 5
relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, ReLU.MAX_VALUE_DEFAULT, 5f);
result = relu.call(input);
// result is [-0.f, -0.f, 0.f, 0.f, 10.f]
الثوابت
| يطفو | ALPHA_DEFAULT | |
| يطفو | MAX_VALUE_DEFAULT | |
| يطفو | THRESHOLD_DEFAULT |
المقاولون العامون
ريلو (عمليات tf) | |
ReLU (Ops tf، float alpha، float maxValue، float عتبة) إنشاء ReLU جديد |
الأساليب العامة
| المعامل <T> |
الطرق الموروثة
الثوابت
التعويم النهائي الثابت العام ALPHA_DEFAULT
التعويم النهائي الثابت العام MAX_VALUE_DEFAULT
التعويم النهائي الثابت العام THRESHOLD_DEFAULT
المقاولون العامون
ReLU العامة (Ops tf)
إنشاء ReLU جديد بـ alpha= ALPHA_DEFAULT ، maxValue= MAX_VALUE_DEFAULT ، العتبة= THRESHOLD_DEFAULT ،
حدود
| tf | عمليات TensorFlow |
|---|
ReLU العامة (Ops tf، float alpha، float maxValue، float عتبة)
إنشاء ReLU جديد
حدود
| tf | عمليات TensorFlow |
|---|---|
| ألفا | يحكم المنحدر للقيم أقل من العتبة. |
| maxValue | يضبط عتبة التشبع (أكبر قيمة سترجعها الدالة). |
| عتبة | قيمة العتبة لوظيفة التنشيط والتي سيتم تقليل القيم أدناه أو ضبطها على الصفر. |