संग्रह की मदद से व्यवस्थित रहें
अपनी प्राथमिकताओं के आधार पर, कॉन्टेंट को सेव करें और कैटगरी में बांटें.
टेंसरफ़्लो:: ऑप्स:: SparseAccumulatorTakeGradient
#include <data_flow_ops.h>
SparseConditionalAccumulator में औसत विरल ग्रेडिएंट निकालता है।
सारांश
जब तक पर्याप्त (यानी, num_required से अधिक) ग्रेडिएंट जमा नहीं हो जाते, तब तक ऑप ब्लॉक रहेगा। यदि संचायक ने पहले से ही num_required ग्रेडिएंट्स से अधिक एकत्र कर लिया है, तो यह संचित ग्रेडिएंट्स का औसत लौटा देगा। साथ ही संचायक में रिकॉर्ड किए गए ग्लोबल_स्टेप को स्वचालित रूप से 1 से बढ़ा देता है, और कुल को 0 पर रीसेट कर देता है।
तर्क:
- स्कोप: एक स्कोप ऑब्जेक्ट
- हैंडल: SparseConditionalAccumulator का हैंडल।
- num_required: किसी समुच्चय को वापस करने से पहले आवश्यक ग्रेडिएंट्स की संख्या।
- dtype: संचित ग्रेडिएंट्स का डेटा प्रकार। संचायक के प्रकार के अनुरूप होना आवश्यक है।
रिटर्न:
-
Output
सूचकांक: संचित विरल ग्रेडिएंट्स के औसत के सूचकांक। -
Output
मान: संचित विरल ग्रेडिएंट्स के औसत का मान। -
Output
आकार: संचित विरल ग्रेडिएंट्स के औसत का आकार।
सार्वजनिक गुण
सार्वजनिक समारोह
जब तक कुछ अलग से न बताया जाए, तब तक इस पेज की सामग्री को Creative Commons Attribution 4.0 License के तहत और कोड के नमूनों को Apache 2.0 License के तहत लाइसेंस मिला है. ज़्यादा जानकारी के लिए, Google Developers साइट नीतियां देखें. Oracle और/या इससे जुड़ी हुई कंपनियों का, Java एक रजिस्टर किया हुआ ट्रेडमार्क है.
आखिरी बार 2025-07-26 (UTC) को अपडेट किया गया.
[null,null,["आखिरी बार 2025-07-26 (UTC) को अपडेट किया गया."],[],[],null,["# tensorflow::ops::SparseAccumulatorTakeGradient Class Reference\n\ntensorflow::ops::SparseAccumulatorTakeGradient\n==============================================\n\n`#include \u003cdata_flow_ops.h\u003e`\n\nExtracts the average sparse gradient in a [SparseConditionalAccumulator](/versions/r2.0/api_docs/cc/class/tensorflow/ops/sparse-conditional-accumulator#classtensorflow_1_1ops_1_1_sparse_conditional_accumulator).\n\nSummary\n-------\n\nThe op will blocks until sufficient (i.e., more than num_required) gradients have been accumulated. If the accumulator has already aggregated more than num_required gradients, it will return its average of the accumulated gradients. Also automatically increments the recorded global_step in the accumulator by 1, and resets the aggregate to 0.\n\nArguments:\n\n- scope: A [Scope](/versions/r2.0/api_docs/cc/class/tensorflow/scope#classtensorflow_1_1_scope) object\n- handle: The handle to a [SparseConditionalAccumulator](/versions/r2.0/api_docs/cc/class/tensorflow/ops/sparse-conditional-accumulator#classtensorflow_1_1ops_1_1_sparse_conditional_accumulator).\n- num_required: Number of gradients required before we return an aggregate.\n- dtype: The data type of accumulated gradients. Needs to correspond to the type of the accumulator.\n\n\u003cbr /\u003e\n\nReturns:\n\n- [Output](/versions/r2.0/api_docs/cc/class/tensorflow/output#classtensorflow_1_1_output) indices: Indices of the average of the accumulated sparse gradients.\n- [Output](/versions/r2.0/api_docs/cc/class/tensorflow/output#classtensorflow_1_1_output) values: Values of the average of the accumulated sparse gradients.\n- [Output](/versions/r2.0/api_docs/cc/class/tensorflow/output#classtensorflow_1_1_output) shape: Shape of the average of the accumulated sparse gradients.\n\n\u003cbr /\u003e\n\n| ### Constructors and Destructors ||\n|---|---|\n| [SparseAccumulatorTakeGradient](#classtensorflow_1_1ops_1_1_sparse_accumulator_take_gradient_1a54dc667e3f29216b387adf94e4ef4e18)`(const ::`[tensorflow::Scope](/versions/r2.0/api_docs/cc/class/tensorflow/scope#classtensorflow_1_1_scope)` & scope, ::`[tensorflow::Input](/versions/r2.0/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` handle, ::`[tensorflow::Input](/versions/r2.0/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` num_required, DataType dtype)` ||\n\n| ### Public attributes ||\n|--------------------------------------------------------------------------------------------------------------|---------------------------------------------------------------------------------------------------------|\n| [indices](#classtensorflow_1_1ops_1_1_sparse_accumulator_take_gradient_1aa27589031abec3face075eee8e143f70) | `::`[tensorflow::Output](/versions/r2.0/api_docs/cc/class/tensorflow/output#classtensorflow_1_1_output) |\n| [operation](#classtensorflow_1_1ops_1_1_sparse_accumulator_take_gradient_1a33f81e771ced8ac821e9176f8d8de2ef) | [Operation](/versions/r2.0/api_docs/cc/class/tensorflow/operation#classtensorflow_1_1_operation) |\n| [shape](#classtensorflow_1_1ops_1_1_sparse_accumulator_take_gradient_1abaf43bc2f46333ed065180b5a922c901) | `::`[tensorflow::Output](/versions/r2.0/api_docs/cc/class/tensorflow/output#classtensorflow_1_1_output) |\n| [values](#classtensorflow_1_1ops_1_1_sparse_accumulator_take_gradient_1a0aec4d550ca79eebbf67045528376cbf) | `::`[tensorflow::Output](/versions/r2.0/api_docs/cc/class/tensorflow/output#classtensorflow_1_1_output) |\n\nPublic attributes\n-----------------\n\n### indices\n\n```text\n::tensorflow::Output indices\n``` \n\n### operation\n\n```text\nOperation operation\n``` \n\n### shape\n\n```text\n::tensorflow::Output shape\n``` \n\n### values\n\n```text\n::tensorflow::Output values\n``` \n\nPublic functions\n----------------\n\n### SparseAccumulatorTakeGradient\n\n```gdscript\n SparseAccumulatorTakeGradient(\n const ::tensorflow::Scope & scope,\n ::tensorflow::Input handle,\n ::tensorflow::Input num_required,\n DataType dtype\n)\n```"]]