คำเตือน: API นี้เลิกใช้งานแล้วและจะถูกลบออกใน TensorFlow เวอร์ชันในอนาคตหลังจาก การแทนที่ เสถียรแล้ว

ResourceSparseApplyKerasMomentum

ประชาชน ResourceSparseApplyKerasMomentum ชั้นสุดท้าย

อัปเดตรายการที่เกี่ยวข้องใน '*var' และ '*accum' ตามรูปแบบโมเมนตัม

ตั้งค่า use_nesterov = True หากคุณต้องการใช้โมเมนตัม Nesterov

นั่นคือสำหรับแถวที่เรามี grad เราอัปเดต var และ accum ดังนี้:

accum = accum * โมเมนตัม - lr * grad var += accum

คลาสที่ซ้อนกัน

ระดับ ทรัพยากรเบาบางApplyKerasMomentum.Options คุณลักษณะที่จำเป็นสำหรับการ ResourceSparseApplyKerasMomentum

วิธีการสาธารณะ

คง <T, U ขยายจำนวน> ResourceSparseApplyKerasMomentum
สร้าง ( ขอบเขต ขอบเขต Operand <?> var, Operand <?> accum, Operand <T> LR, Operand <T> จบ Operand <u> ดัชนี Operand <T> โมเมนตัม ตัวเลือก ... ตัวเลือก)
วิธีการจากโรงงานเพื่อสร้างคลาสที่ปิดการดำเนินการ ResourceSparseApplyKerasMomentum ใหม่
คง ResourceSparseApplyKerasMomentum.Options
useLocking (บูลีน useLocking)
คง ResourceSparseApplyKerasMomentum.Options
useNesterov (บูลีน useNesterov)

วิธีการสืบทอด

วิธีการสาธารณะ

สาธารณะคง ResourceSparseApplyKerasMomentum สร้าง ( ขอบเขต ขอบเขต Operand <?> var, Operand <?> accum, Operand <T> LR, Operand <T> จบ Operand <u> ดัชนี Operand <T> โมเมนตัม ตัวเลือก ... ตัวเลือก)

วิธีการจากโรงงานเพื่อสร้างคลาสที่ปิดการดำเนินการ ResourceSparseApplyKerasMomentum ใหม่

พารามิเตอร์
ขอบเขต ขอบเขตปัจจุบัน
var ควรมาจาก Variable()
สะสม ควรมาจาก Variable()
lr อัตราการเรียนรู้ ต้องเป็นสเกลาร์
บัณฑิต การไล่ระดับ
ดัชนี เวกเตอร์ของดัชนีในมิติแรกของ var และ accum
โมเมนตัม โมเมนตัม. ต้องเป็นสเกลาร์
ตัวเลือก ดำเนินการค่าแอตทริบิวต์ทางเลือก
คืนสินค้า
  • อินสแตนซ์ใหม่ของ ResourceSparseApplyKerasMomentum

สาธารณะคง ResourceSparseApplyKerasMomentum.Options useLocking (บูลีน useLocking)

พารามิเตอร์
ใช้ล็อค หากเป็น "จริง" การอัพเดทเทนเซอร์ var และ accum จะได้รับการป้องกันโดยการล็อค มิฉะนั้นพฤติกรรมจะไม่ถูกกำหนด แต่อาจแสดงความขัดแย้งน้อยลง

สาธารณะคง ResourceSparseApplyKerasMomentum.Options useNesterov (บูลีน useNesterov)

พารามิเตอร์
ใช้ Nesterov หากเป็น "จริง" เทนเซอร์ที่ส่งผ่านไปยังการคำนวณ grad จะเป็น var + โมเมนตัม * accum ดังนั้นในท้ายที่สุด var ที่คุณได้รับก็คือ var + โมเมนตัม * accum