ApplyAdadelta

คลาสสุดท้ายสาธารณะ ApplyAdadelta

อัปเดต '*var' ตามรูปแบบ adadelta

สะสม = rho() * สะสม + (1 - rho()) * grad.square(); อัปเดต = (update_accum + เอปไซลอน).sqrt() * (แอคคัม + เอปไซลอน()).rsqrt() * ผู้สำเร็จการศึกษา; update_accum = rho() * update_accum + (1 - rho()) * update.square(); var -= อัพเดต;

คลาสที่ซ้อนกัน

ระดับ ApplyAdadelta.ตัวเลือก คุณลักษณะเพิ่มเติมสำหรับ ApplyAdadelta

ค่าคงที่

สตริง OP_NAME ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow

วิธีการสาธารณะ

เอาท์พุต <T>
เป็นเอาท์พุต ()
ส่งกลับค่าแฮนเดิลสัญลักษณ์ของเทนเซอร์
คงที่ <T ขยาย TType > ApplyAdadelta <T>
สร้าง (ขอบเขต ขอบเขต , ตัวดำเนินการ <T> var, ตัวดำเนินการ <T> accum, ตัวดำเนินการ <T> accumUpdate, ตัวดำเนินการ <T> lr, ตัวดำเนินการ <T> rho, ตัวดำเนินการ <T> เอปไซลอน, ตัวดำเนินการ <T> ผู้สำเร็จการศึกษา, ตัวเลือก.. . ตัวเลือก)
วิธีการจากโรงงานเพื่อสร้างคลาสที่ห่อการดำเนินการ ApplyAdadelta ใหม่
เอาท์พุต <T>
ออก ()
เช่นเดียวกับ "var"
ApplyAdadelta.Options แบบคงที่
useLocking (การใช้ล็อคแบบบูลีน)

วิธีการสืบทอด

ค่าคงที่

สตริงสุดท้ายแบบคงที่สาธารณะ OP_NAME

ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow

ค่าคงที่: "ApplyAdadelta"

วิธีการสาธารณะ

เอาท์ พุท สาธารณะ <T> asOutput ()

ส่งกลับค่าแฮนเดิลสัญลักษณ์ของเทนเซอร์

อินพุตสำหรับการดำเนินการ TensorFlow คือเอาต์พุตของการดำเนินการ TensorFlow อื่น วิธีการนี้ใช้เพื่อรับหมายเลขอ้างอิงสัญลักษณ์ที่แสดงถึงการคำนวณอินพุต

สาธารณะคง ApplyAdadelta <T> สร้าง (ขอบเขต ขอบเขต , ตัวดำเนินการ <T> var, ตัวดำเนินการ <T> accum, ตัวดำเนินการ <T> accumUpdate, ตัวดำเนิน การ <T> lr, ตัวดำเนินการ <T> rho, ตัวดำเนินการ <T> เอปไซลอน, ตัวดำเนินการ <T > ผู้สำเร็จการศึกษา ตัวเลือก... ตัวเลือก)

วิธีการจากโรงงานเพื่อสร้างคลาสที่ห่อการดำเนินการ ApplyAdadelta ใหม่

พารามิเตอร์
ขอบเขต ขอบเขตปัจจุบัน
var ควรมาจากตัวแปร ()
สะสม ควรมาจากตัวแปร ()
สะสมUpdate ควรมาจากตัวแปร ()
ปัจจัยการปรับขนาด ต้องเป็นสเกลาร์
โร ปัจจัยการสลายตัว ต้องเป็นสเกลาร์
เอปไซลอน ปัจจัยคงที่ ต้องเป็นสเกลาร์
ผู้สำเร็จการศึกษา การไล่ระดับสี
ตัวเลือก มีค่าแอตทริบิวต์ทางเลือก
การส่งคืน
  • ตัวอย่างใหม่ของ ApplyAdadelta

เอาท์พุท สาธารณะ <T> ออก ()

เช่นเดียวกับ "var"

สาธารณะ ApplyAdadelta.Options useLocking แบบคงที่ (useLocking แบบบูลีน)

พารามิเตอร์
ใช้ล็อค หากเป็น True การอัปเดต var, accum และ update_accum tensor จะได้รับการปกป้องด้วยการล็อค มิฉะนั้นพฤติกรรมจะไม่ได้กำหนดไว้ แต่อาจแสดงความขัดแย้งน้อยลง