Unité linéaire exponentielle mise à l'échelle (SELU).
La fonction d'activation de l'unité linéaire exponentielle à l'échelle (SELU) est définie comme :
-
if x > 0: return scale * x -
if x < 0: return scale * alpha * (exp(x) - 1)
où alpha et scale sont des constantes prédéfinies ( alpha=1.67326324 et scale=1.05070098 ).
Fondamentalement, la fonction d'activation SELU multiplie scale (> 1) avec la sortie de la fonction elu pour garantir une pente supérieure à un pour les entrées positives.
Les valeurs d' alpha et scale sont choisies de manière à ce que la moyenne et la variance des entrées soient préservées entre deux couches consécutives tant que les poids sont initialisés correctement (voir LeCun avec distribution normale) et que le nombre d'unités d'entrée est "assez grand".
Remarques : à utiliser avec l'initialiseur LeCun avec distribution normale.
Voir également
Constructeurs Publics
SELU (Ops tf) Crée une activation d'unité linéaire exponentielle à l'échelle (SELU). |
Méthodes publiques
| Opérande <T> |
Méthodes héritées
Constructeurs Publics
SELU public (Ops tf)
Crée une activation d'unité linéaire exponentielle à l'échelle (SELU).
Paramètres
| tf | les opérations TensorFlow |
|---|
Méthodes publiques
Appel d'opérande public <T> (entrée d'opérande <T>)
Obtient l’opération de calcul pour l’activation.
Paramètres
| saisir | le tenseur d'entrée |
|---|
Retour
- L'opérande d'activation