ResourceSparseApplyAdagradDa คลาสสุดท้ายสาธารณะ
อัปเดตรายการใน '*var' และ '*accum' ตามรูปแบบ adagrad ที่ใกล้เคียง
คลาสที่ซ้อนกัน
| ระดับ | ResourceSparseApplyAdagradDa.Options | แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceSparseApplyAdagradDa | |
ค่าคงที่
| สตริง | OP_NAME | ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow | 
วิธีการสาธารณะ
| คงที่ <T ขยาย TType > ResourceSparseApplyAdagradDa |  สร้าง ( ขอบเขต ขอบเขต ตัวดำเนินการ <?> var, ตัวดำเนินการ <?> การไล่ระดับAccumulator, ตัวดำเนินการ <?> การ ไล่ระดับSquaredAccumulator, ตัวดำเนินการ <T> ผู้สำเร็จการศึกษา, ตัวดำเนินการ <? ขยาย TNumber > ดัชนี, ตัวดำเนินการ <T> lr, ตัวดำเนินการ <T> l1, ตัวถูกดำเนินการ <T> l2 ตัวดำเนินการ < TInt64 > globalStep, ตัวเลือก... ตัวเลือก)  วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ ResourceSparseApplyAdagradDa ใหม่ | 
| ResourceSparseApplyAdagradDa.Options แบบคงที่ |  useLocking (การใช้ล็อคแบบบูลีน)  | 
วิธีการสืบทอด
ค่าคงที่
สตริงสุดท้ายแบบคงที่สาธารณะ OP_NAME
ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow
 ค่าคงที่: "ResourceSparseApplyAdagradDA" 
วิธีการสาธารณะ
ResourceSparseApplyAdagradDa สาธารณะแบบคงที่ สร้าง ( ขอบเขต ขอบเขต ตัวดำเนินการ <?> var, ตัวดำเนินการ <?> การไล่ระดับสะสม, ตัวดำเนินการ <?> การไล่ระดับสีSquaredAccumulator, ตัว ดำเนิน การ <T> ผู้สำเร็จการศึกษา, ตัวดำเนินการ <? ขยาย TNumber > ดัชนี, ตัวดำเนินการ <T> lr, ตัวถูกดำเนินการ <T> l1, ตัวดำเนินการ <T> l2, ตัวดำเนินการ < TInt64 > globalStep, ตัวเลือก... ตัวเลือก)
วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ ResourceSparseApplyAdagradDa ใหม่
พารามิเตอร์
| ขอบเขต | ขอบเขตปัจจุบัน | 
|---|---|
| var | ควรมาจากตัวแปร () | 
| การไล่ระดับสีสะสม | ควรมาจากตัวแปร () | 
| การไล่ระดับสีSquaredAccumulator | ควรมาจากตัวแปร () | 
| ผู้สำเร็จการศึกษา | การไล่ระดับสี | 
| ดัชนี | เวกเตอร์ของดัชนีในมิติแรกของ var และ accum | 
| ล | อัตราการเรียนรู้ ต้องเป็นสเกลาร์ | 
| l1 | การทำให้เป็นมาตรฐาน L1 ต้องเป็นสเกลาร์ | 
| l2 | การทำให้เป็นมาตรฐานของ L2 ต้องเป็นสเกลาร์ | 
| globalStep | หมายเลขขั้นตอนการฝึกอบรม ต้องเป็นสเกลาร์ | 
| ตัวเลือก | มีค่าแอตทริบิวต์ทางเลือก | 
การส่งคืน
- อินสแตนซ์ใหม่ของ ResourceSparseApplyAdagradDa
ResourceSparseApplyAdagradDa.Options สาธารณะแบบคงที่ useLocking (useLocking แบบบูลีน)
พารามิเตอร์
| ใช้ล็อค | หากเป็น True การอัปเดต var และ accum tensor จะได้รับการปกป้องด้วยการล็อค มิฉะนั้นพฤติกรรมจะไม่ได้กำหนดไว้ แต่อาจแสดงความขัดแย้งน้อยลง | 
|---|