เทนเซอร์โฟลว์ :: ops :: Selu
#include <nn_ops.h>
คำนวณเชิงเส้นเอกซ์โพเนนเชียลที่ปรับขนาด: scale * alpha * (exp(features) - 1)
สรุป
ถ้า <0 ให้ scale * features
อย่างอื่น
เพื่อนำมาใช้ร่วมกับ `initializer = tf.variance_scaling_initializer (ปัจจัย = 1.0 โหมด = . For correct dropout, use
tf.contrib.nn.alpha_dropout`
ดู Self-Normalizing Neural Networks
อาร์กิวเมนต์:
- ขอบเขต: วัตถุ ขอบเขต
ผลตอบแทน:
-
Output
: การเปิดใช้งานเทนเซอร์
ผู้สร้างและผู้ทำลาย | |
---|---|
Selu (const :: tensorflow::Scope & scope, :: tensorflow::Input features) |
คุณลักษณะสาธารณะ | |
---|---|
activations | |
operation |
หน้าที่สาธารณะ | |
---|---|
node () const | ::tensorflow::Node * |
operator::tensorflow::Input () const | |
operator::tensorflow::Output () const |
คุณลักษณะสาธารณะ
การเปิดใช้งาน
::tensorflow::Output activations
การดำเนินการ
Operation operation
หน้าที่สาธารณะ
Selu
Selu( const ::tensorflow::Scope & scope, ::tensorflow::Input features )
โหนด
::tensorflow::Node * node() const
ตัวดำเนินการ :: tensorflow :: อินพุต
operator::tensorflow::Input() const
ตัวดำเนินการ :: tensorflow :: เอาท์พุท
operator::tensorflow::Output() const