Skalowana wykładnicza jednostka liniowa (SELU).
Funkcja aktywacji skalowanej wykładniczej jednostki liniowej (SELU) jest zdefiniowana jako:
-
if x > 0: return scale * x -
if x < 0: return scale * alpha * (exp(x) - 1)
gdzie alpha i scale są predefiniowanymi stałymi ( alpha=1.67326324 i scale=1.05070098 ).
Zasadniczo funkcja aktywacji SELU mnoży scale (> 1) przez sygnał wyjściowy funkcji elu, aby zapewnić nachylenie większe niż jedność dla wejść dodatnich.
Wartości alpha i scale są dobierane w taki sposób, aby średnia i wariancja danych wejściowych zostały zachowane pomiędzy dwiema kolejnymi warstwami, o ile wagi są poprawnie zainicjowane (patrz LeCun z rozkładem normalnym), a liczba jednostek wejściowych jest „wystarczająco duża”
Uwagi: Do użycia razem z inicjatorem LeCun z rozkładem normalnym.
Zobacz też
Konstruktorzy publiczni
SELU (Ops tf) Tworzy aktywację skalowanej wykładniczej jednostki liniowej (SELU). |
Metody publiczne
| Argument <T> |
Metody dziedziczone
Konstruktorzy publiczni
publiczne SELU (Ops tf)
Tworzy aktywację skalowanej wykładniczej jednostki liniowej (SELU).
Parametry
| tf | operacji TensorFlow |
|---|