คำเตือน: API นี้เลิกใช้งานแล้วและจะถูกลบออกใน TensorFlow เวอร์ชันในอนาคตหลังจาก การแทนที่ เสถียรแล้ว

ResourceSparseApplyAdagradV2

ประชาชน ResourceSparseApplyAdagradV2 ชั้นสุดท้าย

อัปเดตรายการที่เกี่ยวข้องใน '*var' และ '*accum' ตามรูปแบบ adagrad

นั่นคือสำหรับแถวที่เรามี grad เราอัปเดต var และ accum ดังนี้: accum += grad * grad var -= lr * grad * (1 / sqrt(accum))

คลาสที่ซ้อนกัน

ระดับ ResourceSparseApplyAdagradV2.Options คุณลักษณะที่จำเป็นสำหรับการ ResourceSparseApplyAdagradV2

วิธีการสาธารณะ

คง <T, U ขยายจำนวน> ResourceSparseApplyAdagradV2
สร้าง ( ขอบเขต ขอบเขต Operand <?> var, Operand <?> accum, Operand <T> LR, Operand <T> epsilon, Operand <T> จบ Operand <u> ดัชนี ตัวเลือก ... ตัวเลือก)
วิธีการจากโรงงานเพื่อสร้างคลาสที่ปิดการดำเนินการ ResourceSparseApplyAdagradV2 ใหม่
คง ResourceSparseApplyAdagradV2.Options
updateSlots (บูลีน updateSlots)
คง ResourceSparseApplyAdagradV2.Options
useLocking (บูลีน useLocking)

วิธีการสืบทอด

วิธีการสาธารณะ

สาธารณะคง ResourceSparseApplyAdagradV2 สร้าง ( ขอบเขต ขอบเขต Operand <?> var, Operand <?> accum, Operand <T> LR, Operand <T> epsilon, Operand <T> จบ Operand <u> ดัชนี ตัวเลือก ... ตัวเลือก)

วิธีการจากโรงงานเพื่อสร้างคลาสที่ปิดการดำเนินการ ResourceSparseApplyAdagradV2 ใหม่

พารามิเตอร์
ขอบเขต ขอบเขตปัจจุบัน
var ควรมาจาก Variable()
สะสม ควรมาจาก Variable()
lr อัตราการเรียนรู้ ต้องเป็นสเกลาร์
เอปซิลอน ปัจจัยคงที่ ต้องเป็นสเกลาร์
บัณฑิต การไล่ระดับ
ดัชนี เวกเตอร์ของดัชนีในมิติแรกของ var และ accum
ตัวเลือก ดำเนินการค่าแอตทริบิวต์ทางเลือก
คืนสินค้า
  • อินสแตนซ์ใหม่ของ ResourceSparseApplyAdagradV2

สาธารณะคง ResourceSparseApplyAdagradV2.Options updateSlots (บูลีน updateSlots)

สาธารณะคง ResourceSparseApplyAdagradV2.Options useLocking (บูลีน useLocking)

พารามิเตอร์
ใช้ล็อค หากเป็น "จริง" การอัพเดทเทนเซอร์ var และ accum จะได้รับการป้องกันโดยการล็อค มิฉะนั้นพฤติกรรมจะไม่ถูกกำหนด แต่อาจแสดงความขัดแย้งน้อยลง