Google I/O में ट्यूनिंग के लिए धन्यवाद। मांग पर सभी सत्र देखें मांग पर देखें

टेंसरफ़्लो :: ऑप्स :: सेलु

#include <nn_ops.h>

गणना घातीय रैखिक रेखीय: scale * alpha * (exp(features) - 1)

सारांश

यदि <0, scale * features अन्यथा scale * features

'Initializer = tf.variance_scaling_initializer (कारक = 1.0, मोड =' FAN_IN ') के साथ एक साथ उपयोग किया जाना है . For correct dropout, use tf.contrib.nn.alpha_dropout` का . For correct dropout, use करें।

स्व-सामान्यीकरण तंत्रिका नेटवर्क देखें

तर्क:

रिटर्न:

  • Output : एक्टिवेशन टेंसर।

कंस्ट्रक्टर और डिस्ट्रक्टर्स

Selu (const :: tensorflow::Scope & scope, :: tensorflow::Input features)

सार्वजनिक विशेषताएँ

activations
operation

सार्वजनिक कार्य

node () const
::tensorflow::Node *
operator::tensorflow::Input () const
operator::tensorflow::Output () const

सार्वजनिक विशेषताएँ

सक्रियण

::tensorflow::Output activations

ऑपरेशन

Operation operation

सार्वजनिक कार्य

सेलु

 Selu(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features
)

नोड

::tensorflow::Node * node() const 

ऑपरेटर :: टेंसरफ़्लो :: इनपुट

 operator::tensorflow::Input() const 
है

ऑपरेटर :: टेंसोफ़्लो :: आउटपुट

 operator::tensorflow::Output() const