เทนเซอร์โฟลว์ :: ops :: Selu

#include <nn_ops.h>

คำนวณเชิงเส้นเอกซ์โพเนนเชียลที่ปรับขนาด: scale * alpha * (exp(features) - 1)

สรุป

ถ้า <0 ให้ scale * features อย่างอื่น

เพื่อนำมาใช้ร่วมกับ `initializer = tf.variance_scaling_initializer (ปัจจัย = 1.0 โหมด = . For correct dropout, use tf.contrib.nn.alpha_dropout`

ดู Self-Normalizing Neural Networks

อาร์กิวเมนต์:

ผลตอบแทน:

  • Output : การเปิดใช้งานเทนเซอร์

ผู้สร้างและผู้ทำลาย

Selu (const :: tensorflow::Scope & scope, :: tensorflow::Input features)

คุณลักษณะสาธารณะ

activations
operation

หน้าที่สาธารณะ

node () const
::tensorflow::Node *
operator::tensorflow::Input () const
operator::tensorflow::Output () const

คุณลักษณะสาธารณะ

การเปิดใช้งาน

::tensorflow::Output activations

การดำเนินการ

Operation operation

หน้าที่สาธารณะ

Selu

 Selu(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features
)

โหนด

::tensorflow::Node * node() const 

ตัวดำเนินการ :: tensorflow :: อินพุต

 operator::tensorflow::Input() const 

ตัวดำเนินการ :: tensorflow :: เอาท์พุท

 operator::tensorflow::Output() const