flux tensoriel : : opérations : : Sélu
#include <nn_ops.h>
Calcule une exponentielle linéaire à l'échelle : scale * alpha * (exp(features) - 1)
Résumé
si <0, scale * features
sinon.
À utiliser avec `initializer = tf.variance_scaling_initializer(factor=1.0, mode='FAN_IN') . For correct dropout, use
tf.contrib.nn.alpha_dropout`.
Voir les réseaux de neurones auto-normalisés
Arguments :
- scope : un objet Scope
Retours :
-
Output
: Le tenseur des activations.
Constructeurs et Destructeurs | |
---|---|
Selu (const :: tensorflow::Scope & scope, :: tensorflow::Input features) |
Attributs publics | |
---|---|
activations | |
operation |
Fonctions publiques | |
---|---|
node () const | ::tensorflow::Node * |
operator::tensorflow::Input () const | |
operator::tensorflow::Output () const |
Attributs publics
activations
::tensorflow::Output activations
opération
Operation operation
Fonctions publiques
Sélu
Selu( const ::tensorflow::Scope & scope, ::tensorflow::Input features )
nœud
::tensorflow::Node * node() const
opérateur :: tensorflow :: Entrée
operator::tensorflow::Input() const
opérateur :: tensorflow :: Sortie
operator::tensorflow::Output() const