จัดทุกอย่างให้เป็นระเบียบอยู่เสมอด้วยคอลเล็กชัน
บันทึกและจัดหมวดหมู่เนื้อหาตามค่ากำหนดของคุณ
เทนเซอร์โฟลว์:: ปฏิบัติการ:: SparseAccumulatorTakeGradient
#include <data_flow_ops.h>
แยกการไล่ระดับสีแบบกระจายเฉลี่ยใน SparseConditionalAccumulator
สรุป
op จะบล็อกจนกว่าจะมีการสะสมการไล่ระดับสีที่เพียงพอ (เช่น มากกว่า num_required) หากตัวสะสมได้รวมการไล่ระดับสีที่ต้องการมากกว่า num_ รายการแล้ว ก็จะส่งกลับค่าเฉลี่ยของการไล่ระดับสีที่สะสมไว้ นอกจากนี้ยังเพิ่ม global_step ที่บันทึกไว้ในตัวสะสม 1 โดยอัตโนมัติ และรีเซ็ตผลรวมเป็น 0
ข้อโต้แย้ง:
- ขอบเขต: วัตถุ ขอบเขต
- หมายเลขอ้างอิง: หมายเลขอ้างอิงของ SparseConditionalAccumulator
- num_required: จำนวนการไล่ระดับสีที่ต้องการก่อนที่เราจะส่งคืนผลรวม
- dtype: ประเภทข้อมูลของการไล่ระดับสีแบบสะสม ต้องสอดคล้องกับประเภทของตัวสะสม
ผลตอบแทน:
- ดัชนี
Output
: ดัชนีค่าเฉลี่ยของการไล่ระดับสีแบบกระจายที่สะสม - ค่า
Output
: ค่าของค่าเฉลี่ยของการไล่ระดับสีแบบกระจายที่สะสม - รูปร่าง
Output
: รูปร่างของค่าเฉลี่ยของการไล่ระดับสีแบบกระจายที่สะสม
คุณลักษณะสาธารณะ
งานสาธารณะ
เนื้อหาของหน้าเว็บนี้ได้รับอนุญาตภายใต้ใบอนุญาตที่ต้องระบุที่มาของครีเอทีฟคอมมอนส์ 4.0 และตัวอย่างโค้ดได้รับอนุญาตภายใต้ใบอนุญาต Apache 2.0 เว้นแต่จะระบุไว้เป็นอย่างอื่น โปรดดูรายละเอียดที่นโยบายเว็บไซต์ Google Developers Java เป็นเครื่องหมายการค้าจดทะเบียนของ Oracle และ/หรือบริษัทในเครือ
อัปเดตล่าสุด 2025-07-26 UTC
[null,null,["อัปเดตล่าสุด 2025-07-26 UTC"],[],[],null,["# tensorflow::ops::SparseAccumulatorTakeGradient Class Reference\n\ntensorflow::ops::SparseAccumulatorTakeGradient\n==============================================\n\n`#include \u003cdata_flow_ops.h\u003e`\n\nExtracts the average sparse gradient in a [SparseConditionalAccumulator](/versions/r2.0/api_docs/cc/class/tensorflow/ops/sparse-conditional-accumulator#classtensorflow_1_1ops_1_1_sparse_conditional_accumulator).\n\nSummary\n-------\n\nThe op will blocks until sufficient (i.e., more than num_required) gradients have been accumulated. If the accumulator has already aggregated more than num_required gradients, it will return its average of the accumulated gradients. Also automatically increments the recorded global_step in the accumulator by 1, and resets the aggregate to 0.\n\nArguments:\n\n- scope: A [Scope](/versions/r2.0/api_docs/cc/class/tensorflow/scope#classtensorflow_1_1_scope) object\n- handle: The handle to a [SparseConditionalAccumulator](/versions/r2.0/api_docs/cc/class/tensorflow/ops/sparse-conditional-accumulator#classtensorflow_1_1ops_1_1_sparse_conditional_accumulator).\n- num_required: Number of gradients required before we return an aggregate.\n- dtype: The data type of accumulated gradients. Needs to correspond to the type of the accumulator.\n\n\u003cbr /\u003e\n\nReturns:\n\n- [Output](/versions/r2.0/api_docs/cc/class/tensorflow/output#classtensorflow_1_1_output) indices: Indices of the average of the accumulated sparse gradients.\n- [Output](/versions/r2.0/api_docs/cc/class/tensorflow/output#classtensorflow_1_1_output) values: Values of the average of the accumulated sparse gradients.\n- [Output](/versions/r2.0/api_docs/cc/class/tensorflow/output#classtensorflow_1_1_output) shape: Shape of the average of the accumulated sparse gradients.\n\n\u003cbr /\u003e\n\n| ### Constructors and Destructors ||\n|---|---|\n| [SparseAccumulatorTakeGradient](#classtensorflow_1_1ops_1_1_sparse_accumulator_take_gradient_1a54dc667e3f29216b387adf94e4ef4e18)`(const ::`[tensorflow::Scope](/versions/r2.0/api_docs/cc/class/tensorflow/scope#classtensorflow_1_1_scope)` & scope, ::`[tensorflow::Input](/versions/r2.0/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` handle, ::`[tensorflow::Input](/versions/r2.0/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` num_required, DataType dtype)` ||\n\n| ### Public attributes ||\n|--------------------------------------------------------------------------------------------------------------|---------------------------------------------------------------------------------------------------------|\n| [indices](#classtensorflow_1_1ops_1_1_sparse_accumulator_take_gradient_1aa27589031abec3face075eee8e143f70) | `::`[tensorflow::Output](/versions/r2.0/api_docs/cc/class/tensorflow/output#classtensorflow_1_1_output) |\n| [operation](#classtensorflow_1_1ops_1_1_sparse_accumulator_take_gradient_1a33f81e771ced8ac821e9176f8d8de2ef) | [Operation](/versions/r2.0/api_docs/cc/class/tensorflow/operation#classtensorflow_1_1_operation) |\n| [shape](#classtensorflow_1_1ops_1_1_sparse_accumulator_take_gradient_1abaf43bc2f46333ed065180b5a922c901) | `::`[tensorflow::Output](/versions/r2.0/api_docs/cc/class/tensorflow/output#classtensorflow_1_1_output) |\n| [values](#classtensorflow_1_1ops_1_1_sparse_accumulator_take_gradient_1a0aec4d550ca79eebbf67045528376cbf) | `::`[tensorflow::Output](/versions/r2.0/api_docs/cc/class/tensorflow/output#classtensorflow_1_1_output) |\n\nPublic attributes\n-----------------\n\n### indices\n\n```text\n::tensorflow::Output indices\n``` \n\n### operation\n\n```text\nOperation operation\n``` \n\n### shape\n\n```text\n::tensorflow::Output shape\n``` \n\n### values\n\n```text\n::tensorflow::Output values\n``` \n\nPublic functions\n----------------\n\n### SparseAccumulatorTakeGradient\n\n```gdscript\n SparseAccumulatorTakeGradient(\n const ::tensorflow::Scope & scope,\n ::tensorflow::Input handle,\n ::tensorflow::Input num_required,\n DataType dtype\n)\n```"]]