Fungsi aktivasi desir. swish(x) = x * sigmoid(x)
.
Fungsi aktivasi desir yang mengembalikan x*sigmoid(x)
. Ini adalah fungsi yang mulus dan tidak monoton yang secara konsisten menyamai atau mengungguli ReLU
di jaringan dalam, tidak dibatasi di atas dan dibatasi di bawah.
Contoh Penggunaan:
Operand<TFloat32> input = tf.constant(new float[] {-20, -1.0, 0.0, 1.0, 20}); Swish<TFloat32> swish = new Swish<>(tf); Operand<TFloat32> result = swish.call(input); // result = [-4.1223075e-08f, -2.6894143e-01f, 0.0000000e+00f, // 7.3105860e-01f, 2.0000000e+01f ]
Lihat Juga
Konstruktor Publik
Desir (Ops tf) Membuat aktivasi Swish, swish(x) = x * sigmoid(x) . |
Metode Publik
Operan <T> |
Metode Warisan
Konstruktor Publik
Desir publik (Ops tf)
Membuat aktivasi Swish, swish(x) = x * sigmoid(x)
.
Fungsi aktivasi desir yang mengembalikan x*sigmoid(x)
. Ini adalah fungsi yang mulus dan tidak monoton yang secara konsisten menyamai atau mengungguli ReLU di jaringan dalam, tidak dibatasi di atas dan dibatasi di bawah.
Parameter
tf | Operasi TensorFlow |
---|