ResourceApplyProximalAdagrad คลาสสุดท้ายสาธารณะ
อัปเดต '*var' และ '*accum' ตาม FOBOS ด้วยอัตราการเรียนรู้ของ Adagrad
สะสม += ผู้สำเร็จการศึกษา grad prox_v = var - lr grad (1 / sqrt(accum)) var = sign(prox_v)/(1+lr l2) สูงสุด{|prox_v|-lr l1,0}
คลาสที่ซ้อนกัน
ระดับ | ResourceApplyProximalAdagrad.Options | แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceApplyProximalAdagrad |
ค่าคงที่
สตริง | OP_NAME | ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow |
วิธีการสาธารณะ
คงที่ <T ขยาย TType > ResourceApplyProximalAdagrad | สร้าง ( ขอบเขต ขอบเขต ตัวดำเนินการ <?> var, ตัวดำเนินการ <?> accum, ตัวดำเนินการ <T> lr, ตัวดำเนินการ <T> l1, ตัวดำเนินการ <T> l2, ตัวดำเนินการ <T> ผู้สำเร็จการศึกษา ตัวเลือก... ตัวเลือก) วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ ResourceApplyProximalAdagrad ใหม่ |
ResourceApplyProximalAdagrad.Options แบบคงที่ | useLocking (การใช้ล็อคแบบบูลีน) |
วิธีการสืบทอด
ค่าคงที่
สตริงสุดท้ายแบบคงที่สาธารณะ OP_NAME
ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow
ค่าคงที่: "ResourceApplyProximalAdagrad"
วิธีการสาธารณะ
ResourceApplyProximalAdagrad แบบคงที่สาธารณะ สร้าง (ขอบเขต ขอบเขต ตัวดำเนินการ <?> var, ตัวดำเนินการ <?> accum, ตัวดำเนินการ <T> lr, ตัวดำเนินการ <T> l1, ตัวดำเนินการ <T> l2, ตัวดำเนินการ <T> ผู้สำเร็จการศึกษา ตัวเลือก... ตัวเลือก)
วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ ResourceApplyProximalAdagrad ใหม่
พารามิเตอร์
ขอบเขต | ขอบเขตปัจจุบัน |
---|---|
var | ควรมาจากตัวแปร () |
สะสม | ควรมาจากตัวแปร () |
ล | ปัจจัยการปรับขนาด ต้องเป็นสเกลาร์ |
l1 | การทำให้เป็นมาตรฐาน L1 ต้องเป็นสเกลาร์ |
l2 | การทำให้เป็นมาตรฐานของ L2 ต้องเป็นสเกลาร์ |
ผู้สำเร็จการศึกษา | การไล่ระดับสี |
ตัวเลือก | มีค่าแอตทริบิวต์ทางเลือก |
การส่งคืน
- อินสแตนซ์ใหม่ของ ResourceApplyProximalAdagrad
ResourceApplyProximalAdagrad.Options แบบคงที่สาธารณะ useLocking (useLocking แบบบูลีน)
พารามิเตอร์
ใช้ล็อค | หากเป็น True การอัปเดต var และ accum tensor จะได้รับการปกป้องด้วยการล็อค มิฉะนั้นพฤติกรรมจะไม่ได้กำหนดไว้ แต่อาจแสดงความขัดแย้งน้อยลง |
---|