Calcule un linéaire exponentiel à l'échelle : `scale * alpha * (exp(features) - 1)`
si <0, `scale * Features` sinon.
À utiliser avec `initializer = tf.variance_scaling_initializer(factor=1.0, mode='FAN_IN')`. Pour un abandon correct, utilisez `tf.contrib.nn.alpha_dropout`.
Voir [Réseaux de neurones auto-normalisés](https://arxiv.org/abs/1706.02515)
Constantes
Chaîne | OP_NAME | Le nom de cette opération, tel que connu par le moteur principal TensorFlow |
Méthodes publiques
Sortie <T> | activations () |
Sortie <T> | comme Sortie () Renvoie le handle symbolique du tenseur. |
statique <T étend TNumber > Selu <T> | créer (portée de portée , fonctionnalités de l'opérande <T>) Méthode d'usine pour créer une classe encapsulant une nouvelle opération Selu. |
Méthodes héritées
Constantes
chaîne finale statique publique OP_NAME
Le nom de cette opération, tel que connu par le moteur principal TensorFlow
Méthodes publiques
sortie publique <T> asOutput ()
Renvoie le handle symbolique du tenseur.
Les entrées des opérations TensorFlow sont les sorties d'une autre opération TensorFlow. Cette méthode est utilisée pour obtenir un handle symbolique qui représente le calcul de l’entrée.
public static Selu <T> créer (portée de portée , fonctionnalités de l'opérande <T>)
Méthode d'usine pour créer une classe encapsulant une nouvelle opération Selu.
Paramètres
portée | portée actuelle |
---|
Retour
- une nouvelle instance de Selu