คำเตือน: API นี้เลิกใช้งานแล้วและจะถูกลบออกใน TensorFlow เวอร์ชันในอนาคตหลังจาก การแทนที่ เสถียรแล้ว

ApplyAdagradV2

ประชาชน ApplyAdagradV2 ชั้นสุดท้าย

อัปเดต '*var' ตามรูปแบบ adagrad

สะสม += grad * grad var -= lr * grad * (1 / sqrt(accum))

คลาสที่ซ้อนกัน

ระดับ สมัครAdagradV2.Options คุณลักษณะที่จำเป็นสำหรับการ ApplyAdagradV2

วิธีการสาธารณะ

เอาท์พุท <T>
asOutput ()
ส่งกลับค่าแฮนเดิลเชิงสัญลักษณ์ของเทนเซอร์
คง <T> ApplyAdagradV2 <T>
สร้าง ( ขอบเขต ขอบเขต Operand <T> var, Operand <T> accum, Operand <T> LR, Operand <T> epsilon, Operand <T> จบ ตัวเลือก ... ตัวเลือก)
วิธีการจากโรงงานเพื่อสร้างคลาสที่ปิดการดำเนินการ ApplyAdagradV2 ใหม่
เอาท์พุท <T>
ออก ()
เหมือนกับ "วาร์"
คง ApplyAdagradV2.Options
updateSlots (บูลีน updateSlots)
คง ApplyAdagradV2.Options
useLocking (บูลีน useLocking)

วิธีการสืบทอด

วิธีการสาธารณะ

ประชาชน เอาท์พุท <T> asOutput ()

ส่งกลับค่าแฮนเดิลเชิงสัญลักษณ์ของเทนเซอร์

อินพุตสำหรับการทำงานของ TensorFlow เป็นเอาต์พุตของการดำเนินการอื่นของ TensorFlow วิธีนี้ใช้เพื่อขอรับหมายเลขอ้างอิงเชิงสัญลักษณ์ที่แสดงถึงการคำนวณของอินพุต

สาธารณะคง ApplyAdagradV2 <T> สร้าง ( ขอบเขต ขอบเขต Operand <T> var, Operand <T> accum, Operand <T> LR, Operand <T> epsilon, Operand <T> จบ ตัวเลือก ... ตัวเลือก)

วิธีการจากโรงงานเพื่อสร้างคลาสที่ปิดการดำเนินการ ApplyAdagradV2 ใหม่

พารามิเตอร์
ขอบเขต ขอบเขตปัจจุบัน
var ควรมาจาก Variable()
สะสม ควรมาจาก Variable()
lr ปัจจัยการปรับขนาด ต้องเป็นสเกลาร์
เอปซิลอน ปัจจัยคงที่ ต้องเป็นสเกลาร์
บัณฑิต การไล่ระดับ
ตัวเลือก ดำเนินการค่าแอตทริบิวต์ทางเลือก
คืนสินค้า
  • อินสแตนซ์ใหม่ของ ApplyAdagradV2

ประชาชน เอาท์พุท <T> ออก ()

เหมือนกับ "วาร์"

สาธารณะคง ApplyAdagradV2.Options updateSlots (บูลีน updateSlots)

สาธารณะคง ApplyAdagradV2.Options useLocking (บูลีน useLocking)

พารามิเตอร์
ใช้ล็อค หากเป็น "จริง" การอัพเดทเทนเซอร์ var และ accum จะได้รับการป้องกันโดยการล็อค มิฉะนั้นพฤติกรรมจะไม่ถูกกำหนด แต่อาจแสดงความขัดแย้งน้อยลง