อัปเดต '*var' ตามรูปแบบ adadelta
สะสม = rho() * สะสม + (1 - rho()) * grad.square(); อัปเดต = (update_accum + เอปไซลอน).sqrt() * (แอคคัม + เอปไซลอน()).rsqrt() * ผู้สำเร็จการศึกษา; update_accum = rho() * update_accum + (1 - rho()) * update.square(); var -= อัพเดต;
คลาสที่ซ้อนกัน
| ระดับ | ApplyAdadelta.ตัวเลือก | คุณลักษณะเพิ่มเติมสำหรับ ApplyAdadelta | |
ค่าคงที่
| สตริง | OP_NAME | ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow |
วิธีการสาธารณะ
| เอาท์พุต <T> | เป็นเอาท์พุต () ส่งกลับค่าแฮนเดิลสัญลักษณ์ของเทนเซอร์ |
| คงที่ <T ขยาย TType > ApplyAdadelta <T> | สร้าง (ขอบเขต ขอบเขต , ตัวดำเนินการ <T> var, ตัวดำเนินการ <T> accum, ตัวดำเนินการ <T> accumUpdate, ตัวดำเนินการ <T> lr, ตัวดำเนินการ <T> rho, ตัวดำเนินการ <T> เอปไซลอน, ตัวดำเนินการ <T> ผู้สำเร็จการศึกษา, ตัวเลือก.. . ตัวเลือก) วิธีการจากโรงงานเพื่อสร้างคลาสที่ห่อการดำเนินการ ApplyAdadelta ใหม่ |
| เอาท์พุต <T> | ออก () เช่นเดียวกับ "var" |
| ApplyAdadelta.Options แบบคงที่ | useLocking (การใช้ล็อคแบบบูลีน) |
วิธีการสืบทอด
ค่าคงที่
สตริงสุดท้ายแบบคงที่สาธารณะ OP_NAME
ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow
วิธีการสาธารณะ
เอาท์ พุท สาธารณะ <T> asOutput ()
ส่งกลับค่าแฮนเดิลสัญลักษณ์ของเทนเซอร์
อินพุตสำหรับการดำเนินการ TensorFlow คือเอาต์พุตของการดำเนินการ TensorFlow อื่น วิธีการนี้ใช้เพื่อรับหมายเลขอ้างอิงสัญลักษณ์ที่แสดงถึงการคำนวณอินพุต
สาธารณะคง ApplyAdadelta <T> สร้าง (ขอบเขต ขอบเขต , ตัวดำเนินการ <T> var, ตัวดำเนินการ <T> accum, ตัวดำเนินการ <T> accumUpdate, ตัวดำเนิน การ <T> lr, ตัวดำเนินการ <T> rho, ตัวดำเนินการ <T> เอปไซลอน, ตัวดำเนินการ <T > ผู้สำเร็จการศึกษา ตัวเลือก... ตัวเลือก)
วิธีการจากโรงงานเพื่อสร้างคลาสที่ห่อการดำเนินการ ApplyAdadelta ใหม่
พารามิเตอร์
| ขอบเขต | ขอบเขตปัจจุบัน |
|---|---|
| var | ควรมาจากตัวแปร () |
| สะสม | ควรมาจากตัวแปร () |
| สะสมUpdate | ควรมาจากตัวแปร () |
| ล | ปัจจัยการปรับขนาด ต้องเป็นสเกลาร์ |
| โร | ปัจจัยการสลายตัว ต้องเป็นสเกลาร์ |
| เอปไซลอน | ปัจจัยคงที่ ต้องเป็นสเกลาร์ |
| ผู้สำเร็จการศึกษา | การไล่ระดับสี |
| ตัวเลือก | มีค่าแอตทริบิวต์ทางเลือก |
การส่งคืน
- ตัวอย่างใหม่ของ ApplyAdadelta
สาธารณะ ApplyAdadelta.Options useLocking แบบคงที่ (useLocking แบบบูลีน)
พารามิเตอร์
| ใช้ล็อค | หากเป็น True การอัปเดต var, accum และ update_accum tensor จะได้รับการปกป้องด้วยการล็อค มิฉะนั้นพฤติกรรมจะไม่ได้กำหนดไว้ แต่อาจแสดงความขัดแย้งน้อยลง |
|---|