Selu

Sulu คลาสสุดท้ายสาธารณะ

คำนวณเชิงเส้นแบบเอ็กซ์โปเนนเชียลที่ปรับขนาดแล้ว: `scale * alpha * (exp(features) - 1)`

ถ้า < 0 แสดงว่า `scale * features` เป็นอย่างอื่น

เพื่อใช้ร่วมกับ `initializer = tf.variance_scaling_initializer(factor=1.0, mode='FAN_IN')` เพื่อให้การออกกลางคันที่ถูกต้อง ให้ใช้ `tf.contrib.nn.alpha_dropout`

ดู [การปรับโครงข่ายประสาทเทียมด้วยตนเอง](https://arxiv.org/abs/1706.02515)

ค่าคงที่

สตริง OP_NAME ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow

วิธีการสาธารณะ

เอาท์พุต <T>
เอาท์พุต <T>
เป็นเอาท์พุต ()
ส่งกลับค่าแฮนเดิลสัญลักษณ์ของเทนเซอร์
คงที่ <T ขยาย TNumber > Selu <T>
สร้าง ( ขอบเขต ขอบเขต คุณสมบัติ Operand <T>)
วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ Sulu ใหม่

วิธีการสืบทอด

ค่าคงที่

สตริงสุดท้ายแบบคงที่สาธารณะ OP_NAME

ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow

ค่าคงที่: "Selu"

วิธีการสาธารณะ

การเปิดใช้งาน เอาต์พุต สาธารณะ <T> ()

เอาท์ พุท สาธารณะ <T> asOutput ()

ส่งกลับค่าแฮนเดิลสัญลักษณ์ของเทนเซอร์

อินพุตสำหรับการดำเนินการ TensorFlow คือเอาต์พุตของการดำเนินการ TensorFlow อื่น วิธีการนี้ใช้เพื่อรับหมายเลขอ้างอิงสัญลักษณ์ที่แสดงถึงการคำนวณอินพุต

สร้าง Selu <T> คงที่สาธารณะ ( ขอบเขต ขอบเขตคุณสมบัติ ตัวดำเนินการ <T>)

วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ Sulu ใหม่

พารามิเตอร์
ขอบเขต ขอบเขตปัจจุบัน
การส่งคืน
  • ตัวอย่างใหม่ของเซลู