ApplyAdagradDa

คลาสสุดท้ายสาธารณะ ApplyAdagradDa

อัปเดต '*var' ตามรูปแบบ adagrad ที่ใกล้เคียง

คลาสที่ซ้อนกัน

ระดับ ApplyAdagradDa.Options คุณลักษณะเพิ่มเติมสำหรับ ApplyAdagradDa

ค่าคงที่

สตริง OP_NAME ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow

วิธีการสาธารณะ

เอาท์พุต <T>
เป็นเอาท์พุต ()
ส่งกลับค่าแฮนเดิลสัญลักษณ์ของเทนเซอร์
คงที่ <T ขยาย TType > ApplyAdagradDa <T>
สร้าง ( ขอบเขต ขอบเขต ตัวดำเนินการ <T> var, ตัวดำเนินการ <T> การไล่ระดับสะสม, ตัวดำเนินการ <T> การไล่ระดับสีSquaredAccumulator, ตัวดำเนินการ <T> ผู้สำเร็จการศึกษา, ตัว ดำเนิน การ <T> lr, ตัว ดำเนิน การ <T> l1, ตัวถูกดำเนินการ <T> l2, ตัวถูก ดำเนินการ < TInt64 > globalStep, ตัวเลือก... ตัวเลือก)
วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ ApplyAdagradDa ใหม่
เอาท์พุต <T>
ออก ()
เช่นเดียวกับ "var"
ApplyAdagradDa.Options แบบคงที่
useLocking (การใช้ล็อคแบบบูลีน)

วิธีการสืบทอด

ค่าคงที่

สตริงสุดท้ายแบบคงที่สาธารณะ OP_NAME

ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow

ค่าคงที่: "ApplyAdagradDA"

วิธีการสาธารณะ

เอาท์ พุท สาธารณะ <T> asOutput ()

ส่งกลับค่าแฮนเดิลสัญลักษณ์ของเทนเซอร์

อินพุตสำหรับการดำเนินการ TensorFlow คือเอาต์พุตของการดำเนินการ TensorFlow อื่น วิธีการนี้ใช้เพื่อรับหมายเลขอ้างอิงสัญลักษณ์ที่แสดงถึงการคำนวณอินพุต

สาธารณะคง ApplyAdagradDa <T> สร้าง (ขอบเขต ขอบเขต , ตัวดำเนินการ <T> var, ตัวดำเนินการ <T> การไล่ระดับสะสม, ตัวดำเนินการ <T> การไล่ระดับสีSquaredAccumulator, ตัวดำเนินการ <T> ผู้สำเร็จการศึกษา, ตัว ดำเนิน การ <T> lr, ตัวดำเนิน การ <T> l1, ตัวถูกดำเนินการ <T > l2, ตัวดำเนินการ < TInt64 > globalStep, ตัวเลือก... ตัวเลือก)

วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ ApplyAdagradDa ใหม่

พารามิเตอร์
ขอบเขต ขอบเขตปัจจุบัน
var ควรมาจากตัวแปร ()
การไล่ระดับสีสะสม ควรมาจากตัวแปร ()
การไล่ระดับสีSquaredAccumulator ควรมาจากตัวแปร ()
ผู้สำเร็จการศึกษา การไล่ระดับสี
ปัจจัยการปรับขนาด ต้องเป็นสเกลาร์
l1 การทำให้เป็นมาตรฐาน L1 ต้องเป็นสเกลาร์
l2 การทำให้เป็นมาตรฐานของ L2 ต้องเป็นสเกลาร์
globalStep หมายเลขขั้นตอนการฝึกอบรม ต้องเป็นสเกลาร์
ตัวเลือก มีค่าแอตทริบิวต์ทางเลือก
การส่งคืน
  • ตัวอย่างใหม่ของ ApplyAdagradDa

เอาท์พุท สาธารณะ <T> ออก ()

เช่นเดียวกับ "var"

ApplyAdagradDa.Options แบบคงที่สาธารณะ useLocking (useLocking แบบบูลีน)

พารามิเตอร์
ใช้ล็อค หากเป็น True การอัปเดต var และ accum tensor จะได้รับการปกป้องด้วยการล็อค มิฉะนั้นพฤติกรรมจะไม่ได้กำหนดไว้ แต่อาจแสดงความขัดแย้งน้อยลง