tensoreflusso:: ops:: Selu
#include <nn_ops.h>
Calcola il lineare esponenziale scalato: scale * alpha * (exp(features) - 1)
Riepilogo
se < 0, scale * features
altrimenti.
Da utilizzare insieme a `initializer = tf.variance_scaling_initializer(factor=1.0, mode='FAN_IN') . For correct dropout, use
tf.contrib.nn.alpha_dropout`.
Vedi Reti neurali autonormalizzanti
Argomenti:
- scope: un oggetto Scope
Resi:
-
Output
: Il tensore delle attivazioni.
Costruttori e distruttori | |
---|---|
Selu (const :: tensorflow::Scope & scope, :: tensorflow::Input features) |
Attributi pubblici | |
---|---|
activations | |
operation |
Funzioni pubbliche | |
---|---|
node () const | ::tensorflow::Node * |
operator::tensorflow::Input () const | |
operator::tensorflow::Output () const |
Attributi pubblici
attivazioni
::tensorflow::Output activations
operazione
Operation operation
Funzioni pubbliche
Selu
Selu( const ::tensorflow::Scope & scope, ::tensorflow::Input features )
nodo
::tensorflow::Node * node() const
operatore::tensorflow::Input
operator::tensorflow::Input() const
operatore::tensorflow::Output
operator::tensorflow::Output() const