Swish aktivasyon fonksiyonu. swish(x) = x * sigmoid(x) .
x*sigmoid(x) değerini döndüren Swish aktivasyon işlevi. Derin ağlarda ReLU sürekli olarak eşleştiren veya ondan daha iyi performans gösteren, pürüzsüz, monoton olmayan bir işlevdir; yukarıdan sınırsız ve aşağıdan sınırlıdır.
Örnek Kullanım:
Operand<TFloat32> input = tf.constant(new float[]
{-20, -1.0, 0.0, 1.0, 20});
Swish<TFloat32> swish = new Swish<>(tf);
Operand<TFloat32> result = swish.call(input);
// result = [-4.1223075e-08f, -2.6894143e-01f, 0.0000000e+00f,
// 7.3105860e-01f, 2.0000000e+01f ]
Ayrıca Bakınız
Kamu İnşaatçıları
Swish (Ops tf) Bir Swish aktivasyonu oluşturur, swish(x) = x * sigmoid(x) . |
Genel Yöntemler
| İşlenen <T> |
Kalıtsal Yöntemler
Kamu İnşaatçıları
herkese açık Swish (Ops tf)
Bir Swish aktivasyonu oluşturur, swish(x) = x * sigmoid(x) .
x*sigmoid(x) değerini döndüren Swish aktivasyon işlevi. Derin ağlarda ReLU'yu sürekli olarak eşleştiren veya ondan daha iyi performans gösteren, pürüzsüz, monoton olmayan bir işlevdir; yukarıdan sınırsız ve aşağıdan sınırlıdır.
Parametreler
| TF | TensorFlow Operasyonları |
|---|