SparseApplyProximalGradientDescent

คลาสสุดท้ายสาธารณะ SparseApplyProximalGradientDescent

การอัปเดตแบบกระจัดกระจาย '*var' เป็นอัลกอริทึม FOBOS พร้อมอัตราการเรียนรู้คงที่

นั่นคือสำหรับแถวที่เราได้ผู้สำเร็จการศึกษา เราจะอัปเดต var ดังนี้: $$prox_v = var - alpha grad$$$$var = sign(prox_v)/(1+alphal2) max{|prox_v|-alphal1,0}$$

คลาสที่ซ้อนกัน

ระดับ SparseApplyProximalGradientDescent.Options แอ็ตทริบิวต์ทางเลือกสำหรับ SparseApplyProximalGradientDescent

ค่าคงที่

สตริง OP_NAME ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow

วิธีการสาธารณะ

เอาท์พุต <T>
เป็นเอาท์พุต ()
ส่งกลับค่าแฮนเดิลสัญลักษณ์ของเทนเซอร์
คงที่ <T ขยาย TType > SparseApplyProximalGradientDescent <T>
สร้าง ( ขอบเขต ขอบเขต ตัวดำเนินการ <T> var, ตัวดำเนินการ <T> อัลฟา, ตัวดำเนิน การ <T> l1, ตัวดำเนินการ <T> l2, ตัวดำเนินการ <T> ผู้สำเร็จการศึกษา, ตัวดำเนินการ <? ขยาย TNumber > ดัชนี, ตัวเลือก... ตัวเลือก)
วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ SparseApplyProximalGradientDescent ใหม่
เอาท์พุต <T>
ออก ()
เช่นเดียวกับ "var"
คง SparseApplyProximalGradientDescent.Options
useLocking (การใช้ล็อคแบบบูลีน)

วิธีการสืบทอด

ค่าคงที่

สตริงสุดท้ายแบบคงที่สาธารณะ OP_NAME

ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow

ค่าคงที่: "SparseApplyProximalGradientDescent"

วิธีการสาธารณะ

เอาท์พุท สาธารณะ <T> asOutput ()

ส่งกลับค่าแฮนเดิลสัญลักษณ์ของเทนเซอร์

อินพุตสำหรับการดำเนินการ TensorFlow คือเอาต์พุตของการดำเนินการ TensorFlow อื่น วิธีการนี้ใช้เพื่อรับหมายเลขอ้างอิงสัญลักษณ์ที่แสดงถึงการคำนวณอินพุต

สาธารณะ SparseApplyProximalGradientDescent <T> สร้าง (ขอบเขต ขอบเขต , ตัวดำเนินการ <T> var, ตัวดำเนินการ <T> อัลฟา, ตัวดำเนินการ <T> l1, ตัวดำเนินการ <T> l2, ตัวดำเนินการ <T> ผู้สำเร็จการศึกษา, ตัวดำเนินการ <? ขยาย TNumber > ดัชนี, ตัวเลือก ... ตัวเลือก)

วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ SparseApplyProximalGradientDescent ใหม่

พารามิเตอร์
ขอบเขต ขอบเขตปัจจุบัน
var ควรมาจากตัวแปร ()
อัลฟ่า ปัจจัยการปรับขนาด ต้องเป็นสเกลาร์
l1 การทำให้เป็นมาตรฐาน L1 ต้องเป็นสเกลาร์
l2 การทำให้เป็นมาตรฐานของ L2 ต้องเป็นสเกลาร์
ผู้สำเร็จการศึกษา การไล่ระดับสี
ดัชนี เวกเตอร์ของดัชนีในมิติแรกของ var และ accum
ตัวเลือก มีค่าแอตทริบิวต์ทางเลือก
การส่งคืน
  • อินสแตนซ์ใหม่ของ SparseApplyProximalGradientDescent

เอาท์พุท สาธารณะ <T> ออก ()

เช่นเดียวกับ "var"

สาธารณะ SparseApplyProximalGradientDescent.Options useLocking แบบคงที่ (useLocking แบบบูลีน)

พารามิเตอร์
ใช้ล็อค ถ้าเป็นจริง การลบจะถูกป้องกันด้วยการล็อค มิฉะนั้นพฤติกรรมจะไม่ได้กำหนดไว้ แต่อาจแสดงความขัดแย้งน้อยลง