คำเตือน: API นี้เลิกใช้งานแล้วและจะถูกลบออกใน TensorFlow เวอร์ชันในอนาคตหลังจาก การแทนที่ เสถียรแล้ว

ResourceApplyAdagradV2

ประชาชน ResourceApplyAdagradV2 ชั้นสุดท้าย

อัปเดต '*var' ตามรูปแบบ adagrad

สะสม += grad * grad var -= lr * grad * (1 / (sqrt(accum) + epsilon))

คลาสที่ซ้อนกัน

ระดับ ทรัพยากรApplyAdagradV2.Options คุณลักษณะที่จำเป็นสำหรับการ ResourceApplyAdagradV2

วิธีการสาธารณะ

คง <T> ResourceApplyAdagradV2
สร้าง ( ขอบเขต ขอบเขต Operand <?> var, Operand <?> accum, Operand <T> LR, Operand <T> epsilon, Operand <T> จบ ตัวเลือก ... ตัวเลือก)
วิธีการจากโรงงานเพื่อสร้างคลาสที่ปิดการดำเนินการ ResourceApplyAdagradV2 ใหม่
คง ResourceApplyAdagradV2.Options
updateSlots (บูลีน updateSlots)
คง ResourceApplyAdagradV2.Options
useLocking (บูลีน useLocking)

วิธีการสืบทอด

วิธีการสาธารณะ

สาธารณะคง ResourceApplyAdagradV2 สร้าง ( ขอบเขต ขอบเขต Operand <?> var, Operand <?> accum, Operand <T> LR, Operand <T> epsilon, Operand <T> จบ ตัวเลือก ... ตัวเลือก)

วิธีการจากโรงงานเพื่อสร้างคลาสที่ปิดการดำเนินการ ResourceApplyAdagradV2 ใหม่

พารามิเตอร์
ขอบเขต ขอบเขตปัจจุบัน
var ควรมาจาก Variable()
สะสม ควรมาจาก Variable()
lr ปัจจัยการปรับขนาด ต้องเป็นสเกลาร์
เอปซิลอน ปัจจัยคงที่ ต้องเป็นสเกลาร์
บัณฑิต การไล่ระดับ
ตัวเลือก ดำเนินการค่าแอตทริบิวต์ทางเลือก
คืนสินค้า
  • อินสแตนซ์ใหม่ของ ResourceApplyAdagradV2

สาธารณะคง ResourceApplyAdagradV2.Options updateSlots (บูลีน updateSlots)

สาธารณะคง ResourceApplyAdagradV2.Options useLocking (บูลีน useLocking)

พารามิเตอร์
ใช้ล็อค หากเป็น "จริง" การอัพเดทเทนเซอร์ var และ accum จะได้รับการป้องกันโดยการล็อค มิฉะนั้นพฤติกรรมจะไม่ถูกกำหนด แต่อาจแสดงความขัดแย้งน้อยลง