टेंसरफ़्लो :: ऑप्स :: सेलु
#include <nn_ops.h>
गणना घातीय रैखिक रेखीय: scale * alpha * (exp(features) - 1)
सारांश
यदि <0, scale * features
अन्यथा scale * features
।
'Initializer = tf.variance_scaling_initializer (कारक = 1.0, मोड =' FAN_IN ') के साथ एक साथ उपयोग किया जाना है . For correct dropout, use
tf.contrib.nn.alpha_dropout` का . For correct dropout, use
करें।
स्व-सामान्यीकरण तंत्रिका नेटवर्क देखें
तर्क:
- गुंजाइश: एक स्कोप ऑब्जेक्ट
रिटर्न:
-
Output
: एक्टिवेशन टेंसर।
कंस्ट्रक्टर और डिस्ट्रक्टर्स | |
---|---|
Selu (const :: tensorflow::Scope & scope, :: tensorflow::Input features) |
सार्वजनिक विशेषताएँ | |
---|---|
activations | |
operation |
सार्वजनिक कार्य | |
---|---|
node () const | ::tensorflow::Node * |
operator::tensorflow::Input () const | |
operator::tensorflow::Output () const |
सार्वजनिक विशेषताएँ
सक्रियण
::tensorflow::Output activations
ऑपरेशन
Operation operation
सार्वजनिक कार्य
सेलु
Selu( const ::tensorflow::Scope & scope, ::tensorflow::Input features )
नोड
::tensorflow::Node * node() const
ऑपरेटर :: टेंसरफ़्लो :: इनपुट
operator::tensorflow::Input() constहै
ऑपरेटर :: टेंसोफ़्लो :: आउटपुट
operator::tensorflow::Output() const