عملکرد فعال سازی Swish. swish(x) = x * sigmoid(x)
.
تابع فعال سازی Swish که x*sigmoid(x)
را برمی گرداند. این یک تابع صاف و غیر یکنواخت است که به طور مداوم با ReLU
در شبکه های عمیق مطابقت دارد یا بهتر از آن عمل می کند، از بالا و پایین محدود است.
مثال استفاده:
Operand<TFloat32> input = tf.constant(new float[] {-20, -1.0, 0.0, 1.0, 20}); Swish<TFloat32> swish = new Swish<>(tf); Operand<TFloat32> result = swish.call(input); // result = [-4.1223075e-08f, -2.6894143e-01f, 0.0000000e+00f, // 7.3105860e-01f, 2.0000000e+01f ]
همچنین ببینید
سازندگان عمومی
Swish (Ops tf) یک فعال سازی Swish ایجاد می کند، swish(x) = x * sigmoid(x) . |
روش های عمومی
عملوند <T> |
روش های ارثی
سازندگان عمومی
Swish عمومی (Ops tf)
یک فعال سازی Swish ایجاد می کند، swish(x) = x * sigmoid(x)
.
تابع فعال سازی Swish که x*sigmoid(x)
را برمی گرداند. این یک تابع صاف و غیر یکنواخت است که به طور مداوم با ReLU در شبکه های عمیق مطابقت دارد یا بهتر از آن عمل می کند، از بالا و پایین محدود است.
پارامترها
tf | TensorFlow Ops |
---|