Selu

classe finale publique Selu

Calcule un linéaire exponentiel à l'échelle : `scale * alpha * (exp(features) - 1)`

si <0, `scale * Features` sinon.

À utiliser avec `initializer = tf.variance_scaling_initializer(factor=1.0, mode='FAN_IN')`. Pour un abandon correct, utilisez `tf.contrib.nn.alpha_dropout`.

Voir [Réseaux de neurones auto-normalisés](https://arxiv.org/abs/1706.02515)

Constantes

Chaîne OP_NAME Le nom de cette opération, tel que connu par le moteur principal TensorFlow

Méthodes publiques

Sortie <T>
Sortie <T>
comme Sortie ()
Renvoie le handle symbolique du tenseur.
statique <T étend TNumber > Selu <T>
créer (portée de portée , fonctionnalités de l'opérande <T>)
Méthode d'usine pour créer une classe encapsulant une nouvelle opération Selu.

Méthodes héritées

Constantes

chaîne finale statique publique OP_NAME

Le nom de cette opération, tel que connu par le moteur principal TensorFlow

Valeur constante : "Selu"

Méthodes publiques

public Sortie <T> activations ()

sortie publique <T> asOutput ()

Renvoie le handle symbolique du tenseur.

Les entrées des opérations TensorFlow sont les sorties d'une autre opération TensorFlow. Cette méthode est utilisée pour obtenir un handle symbolique qui représente le calcul de l’entrée.

public static Selu <T> créer (portée de portée , fonctionnalités de l'opérande <T>)

Méthode d'usine pour créer une classe encapsulant une nouvelle opération Selu.

Paramètres
portée portée actuelle
Retour
  • une nouvelle instance de Selu