فعال سازی واحد خطی اصلاح شده (ReLU).
با مقادیر پیشفرض، این فعالسازی استاندارد ReLU را برمیگرداند: max(x, 0) ، حداکثر عنصر 0 و تانسور ورودی.
اصلاح پارامترهای پیشفرض به شما امکان میدهد از آستانههای غیر صفر استفاده کنید، حداکثر مقدار فعالسازی را تغییر دهید، و برای مقادیر زیر آستانه از مضربی غیر صفر ورودی استفاده کنید.
به عنوان مثال:
Operand<TFloat32> input = tf.constant(
new float[] {-10f, -5f, 0.0f, 5f, 10f});
// With default parameters
ReLU<TFloat32> relu = new ReLU<>(tf);
Operand<TFloat32> result = relu.call(input);
// result is [0.f, 0.f, 0.f, 5.f, 10.f]
// With alpha = 0.5
relu = new ReLU<>(tf, 0.5f, ReLU.MAX_VALUE_DEFAULT, ReLU.THRESHOLD_DEFAULT);
result = relu.call(input);
// result is [-5.f , -2.5f, 0.f , 5.f , 10.f]
// With maxValue = 5
relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, 5f, ReLU.THRESHOLD_DEFAULT);
result = relu.call(input);
// result is [0.f, 0.f, 0.f, 5.f, 5.f]
// With threshold = 5
relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, ReLU.MAX_VALUE_DEFAULT, 5f);
result = relu.call(input);
// result is [-0.f, -0.f, 0.f, 0.f, 10.f]
ثابت ها
| شناور | ALPHA_DEFAULT | |
| شناور | MAX_VALUE_DEFAULT | |
| شناور | THRESHOLD_DEFAULT |
سازندگان عمومی
ReLU (Ops tf) | |
ReLU (Ops tf، float alpha، float maxValue، float threshold) یک ReLU جدید ایجاد می کند |
روش های عمومی
| عملوند <T> |
روش های ارثی
ثابت ها
شناور نهایی استاتیک عمومی ALPHA_DEFAULT
شناور نهایی استاتیک عمومی MAX_VALUE_DEFAULT
شناور نهایی ثابت عمومی THRESHOLD_DEFAULT
سازندگان عمومی
عمومی ReLU (Ops tf)
یک ReLU جدید با alpha= ALPHA_DEFAULT ، maxValue= MAX_VALUE_DEFAULT ، آستانه= THRESHOLD_DEFAULT ،
پارامترها
| tf | TensorFlow Ops |
|---|
عمومی ReLU (Ops tf، float alpha، float maxValue، float threshold)
یک ReLU جدید ایجاد می کند
پارامترها
| tf | TensorFlow Ops |
|---|---|
| آلفا | برای مقادیر کمتر از آستانه، شیب را کنترل می کند. |
| maxValue | آستانه اشباع را تنظیم می کند (بزرگترین مقداری که تابع برمی گرداند). |
| آستانه | مقدار آستانه تابع فعال سازی که زیر آن مقادیر میرا یا صفر می شوند. |