Funkcja aktywacji Swish. swish(x) = x * sigmoid(x) .
Funkcja aktywacji Swish, która zwraca x*sigmoid(x) . Jest to płynna, niemonotoniczna funkcja, która konsekwentnie dorównuje lub przewyższa ReLU w głębokich sieciach, jest nieograniczona powyżej i ograniczona poniżej.
Przykładowe użycie:
Operand<TFloat32> input = tf.constant(new float[]
{-20, -1.0, 0.0, 1.0, 20});
Swish<TFloat32> swish = new Swish<>(tf);
Operand<TFloat32> result = swish.call(input);
// result = [-4.1223075e-08f, -2.6894143e-01f, 0.0000000e+00f,
// 7.3105860e-01f, 2.0000000e+01f ]
Zobacz także
Konstruktorzy publiczni
Świst (Ops tf) Tworzy aktywację Swish, swish(x) = x * sigmoid(x) . |
Metody publiczne
| Argument <T> |
Metody dziedziczone
Konstruktorzy publiczni
publiczny świst (Ops tf)
Tworzy aktywację Swish, swish(x) = x * sigmoid(x) .
Funkcja aktywacji Swish, która zwraca x*sigmoid(x) . Jest to płynna, niemonotoniczna funkcja, która konsekwentnie dorównuje lub przewyższa ReLU w głębokich sieciach, jest nieograniczona powyżej i ograniczona poniżej.
Parametry
| tf | operacji TensorFlow |
|---|