แยกการไล่ระดับสีแบบกระจายเฉลี่ยใน SparseConditionalAccumulator
op จะบล็อกจนกว่าจะมีการสะสมการไล่ระดับสีที่เพียงพอ (เช่น มากกว่า num_required) หากตัวสะสมได้รวมการไล่ระดับสีที่ต้องการมากกว่า num_ รายการแล้ว ระบบจะส่งกลับค่าเฉลี่ยของการไล่ระดับสีที่สะสมไว้ นอกจากนี้ยังเพิ่ม global_step ที่บันทึกไว้ในแอคคูมูเลเตอร์ขึ้น 1 โดยอัตโนมัติ และรีเซ็ตผลรวมเป็น 0
ค่าคงที่
สตริง | OP_NAME | ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow |
วิธีการสาธารณะ
คงที่ <T ขยาย TType > SparseAccumulatorTakeGradient <T> | สร้าง (ขอบเขต ขอบเขต ตัวดำเนินการ < TString > ตัว จัดการ ตัวดำเนินการ < TInt32 > numRequired คลาส<T> dtype) วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ SparseAccumulatorTakeGradient ใหม่ |
เอาท์พุต <TInt64> | ดัชนี () ดัชนีค่าเฉลี่ยของการไล่ระดับสีแบบกระจายที่สะสม |
เอาท์พุต <TInt64> | รูปร่าง () รูปร่างของค่าเฉลี่ยของการไล่ระดับสีแบบเบาบางสะสม |
เอาท์พุต <T> | ค่า () ค่าเฉลี่ยของการไล่ระดับสีแบบเบาบางที่สะสม |
วิธีการสืบทอด
บูลีน | เท่ากับ (วัตถุ arg0) |
คลาสสุดท้าย<?> | รับคลาส () |
ภายใน | แฮชโค้ด () |
โมฆะสุดท้าย | แจ้ง () |
โมฆะสุดท้าย | แจ้งทั้งหมด () |
สตริง | toString () |
โมฆะสุดท้าย | รอสักครู่ (ยาว arg0, int arg1) |
โมฆะสุดท้าย | รอ (ยาว arg0) |
โมฆะสุดท้าย | รอ () |
บทคัดย่อ ExecutionEnvironment | สิ่งแวดล้อม () ส่งคืนสภาพแวดล้อมการดำเนินการที่ op นี้ถูกสร้างขึ้น |
การดำเนินการ ที่เป็นนามธรรม |
ค่าคงที่
สตริงสุดท้ายแบบคงที่สาธารณะ OP_NAME
ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow
วิธีการสาธารณะ
สร้าง SparseAccumulatorTakeGradient <T> สาธารณะแบบคงที่ (ขอบเขต ขอบเขต , ตัวดำเนินการ < TString > ตัวจัดการ, ตัวดำเนินการ < TInt32 > numRequired, คลาส <T> dtype)
วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ SparseAccumulatorTakeGradient ใหม่
พารามิเตอร์
ขอบเขต | ขอบเขตปัจจุบัน |
---|---|
รับมือ | หมายเลขอ้างอิงของ SparseConditionalAccumulator |
จำนวนจำเป็น | จำนวนการไล่ระดับสีที่ต้องการก่อนที่เราจะส่งคืนผลรวม |
ประเภท | ประเภทข้อมูลของการไล่ระดับสีแบบสะสม ต้องสอดคล้องกับประเภทของตัวสะสม |
การส่งคืน
- อินสแตนซ์ใหม่ของ SparseAccumulatorTakeGradient