संग्रह की मदद से व्यवस्थित रहें
अपनी प्राथमिकताओं के आधार पर, कॉन्टेंट को सेव करें और कैटगरी में बांटें.
टेंसरफ़्लो:: ऑप्स:: रिसोर्सस्पार्सएप्लाईएडाग्रेड
#include <training_ops.h>
एडाग्रेड योजना के अनुसार '*var' और '*accum' में प्रासंगिक प्रविष्टियाँ अद्यतन करें।
सारांश
यानी उन पंक्तियों के लिए जिनके लिए हमारे पास ग्रेड है, हम var और accum को निम्नानुसार अपडेट करते हैं: accum += grad * grad var -= lr * grad * (1 / sqrt(accum))
तर्क:
- स्कोप: एक स्कोप ऑब्जेक्ट
- var: एक वेरिएबल() से होना चाहिए।
- संचय: एक वेरिएबल() से होना चाहिए।
- एलआर: सीखने की दर. एक अदिश राशि होनी चाहिए.
- ग्रेड: ग्रेडिएंट.
- सूचकांक: var और accum के पहले आयाम में सूचकांकों का एक वेक्टर।
वैकल्पिक विशेषताएँ (देखें Attrs
):
- उपयोग_लॉकिंग: यदि
True
, तो var और Accum Tensors का अद्यतनीकरण लॉक द्वारा संरक्षित किया जाएगा; अन्यथा व्यवहार अपरिभाषित है, लेकिन कम विवाद प्रदर्शित कर सकता है।
रिटर्न:
निर्माता और विध्वंसक |
---|
ResourceSparseApplyAdagrad (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input accum, :: tensorflow::Input lr, :: tensorflow::Input grad, :: tensorflow::Input indices)
|
ResourceSparseApplyAdagrad (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input accum, :: tensorflow::Input lr, :: tensorflow::Input grad, :: tensorflow::Input indices, const ResourceSparseApplyAdagrad::Attrs & attrs) |
सार्वजनिक गुण
सार्वजनिक समारोह
ऑपरेटर::टेन्सरफ़्लो::ऑपरेशन
operator::tensorflow::Operation() const
सार्वजनिक स्थैतिक कार्य
अद्यतन स्लॉट
Attrs UpdateSlots(
bool x
)
लॉकिंग का उपयोग करें
Attrs UseLocking(
bool x
)
जब तक कुछ अलग से न बताया जाए, तब तक इस पेज की सामग्री को Creative Commons Attribution 4.0 License के तहत और कोड के नमूनों को Apache 2.0 License के तहत लाइसेंस मिला है. ज़्यादा जानकारी के लिए, Google Developers साइट नीतियां देखें. Oracle और/या इससे जुड़ी हुई कंपनियों का, Java एक रजिस्टर किया हुआ ट्रेडमार्क है.
आखिरी बार 2025-07-27 (UTC) को अपडेट किया गया.
[null,null,["आखिरी बार 2025-07-27 (UTC) को अपडेट किया गया."],[],[],null,["# tensorflow::ops::ResourceSparseApplyAdagrad Class Reference\n\ntensorflow::ops::ResourceSparseApplyAdagrad\n===========================================\n\n`#include \u003ctraining_ops.h\u003e`\n\nUpdate relevant entries in '\\*var' and '\\*accum' according to the adagrad scheme.\n\nSummary\n-------\n\nThat is for rows we have grad for, we update var and accum as follows: accum += grad \\* grad var -= lr \\* grad \\* (1 / sqrt(accum))\n\nArguments:\n\n- scope: A [Scope](/versions/r2.2/api_docs/cc/class/tensorflow/scope#classtensorflow_1_1_scope) object\n- var: Should be from a Variable().\n- accum: Should be from a Variable().\n- lr: Learning rate. Must be a scalar.\n- grad: The gradient.\n- indices: A vector of indices into the first dimension of var and accum.\n\n\u003cbr /\u003e\n\nOptional attributes (see [Attrs](/versions/r2.2/api_docs/cc/struct/tensorflow/ops/resource-sparse-apply-adagrad/attrs#structtensorflow_1_1ops_1_1_resource_sparse_apply_adagrad_1_1_attrs)):\n\n- use_locking: If `True`, updating of the var and accum tensors will be protected by a lock; otherwise the behavior is undefined, but may exhibit less contention.\n\n\u003cbr /\u003e\n\nReturns:\n\n- the created [Operation](/versions/r2.2/api_docs/cc/class/tensorflow/operation#classtensorflow_1_1_operation)\n\n\u003cbr /\u003e\n\n| ### Constructors and Destructors ||\n|---|---|\n| [ResourceSparseApplyAdagrad](#classtensorflow_1_1ops_1_1_resource_sparse_apply_adagrad_1a3ecfebc42a69601af17e27c4f487996a)`(const ::`[tensorflow::Scope](/versions/r2.2/api_docs/cc/class/tensorflow/scope#classtensorflow_1_1_scope)` & scope, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` var, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` accum, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` lr, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` grad, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` indices)` ||\n| [ResourceSparseApplyAdagrad](#classtensorflow_1_1ops_1_1_resource_sparse_apply_adagrad_1a88b42cc212cd10a0b52d433a9116ee59)`(const ::`[tensorflow::Scope](/versions/r2.2/api_docs/cc/class/tensorflow/scope#classtensorflow_1_1_scope)` & scope, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` var, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` accum, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` lr, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` grad, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` indices, const `[ResourceSparseApplyAdagrad::Attrs](/versions/r2.2/api_docs/cc/struct/tensorflow/ops/resource-sparse-apply-adagrad/attrs#structtensorflow_1_1ops_1_1_resource_sparse_apply_adagrad_1_1_attrs)` & attrs)` ||\n\n| ### Public attributes ||\n|-----------------------------------------------------------------------------------------------------------|--------------------------------------------------------------------------------------------------|\n| [operation](#classtensorflow_1_1ops_1_1_resource_sparse_apply_adagrad_1a917b533fe528936609ff652edec54b97) | [Operation](/versions/r2.2/api_docs/cc/class/tensorflow/operation#classtensorflow_1_1_operation) |\n\n| ### Public functions ||\n|--------------------------------------------------------------------------------------------------------------------------------------------|---------|\n| [operator::tensorflow::Operation](#classtensorflow_1_1ops_1_1_resource_sparse_apply_adagrad_1ab312e9a5253a41e2d2a895f9c50a9b17)`() const ` | ` ` ` ` |\n\n| ### Public static functions ||\n|-----------------------------------------------------------------------------------------------------------------------|-------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| [UpdateSlots](#classtensorflow_1_1ops_1_1_resource_sparse_apply_adagrad_1a8e0a9ebe58e73522e657cd3fa6d2f4e1)`(bool x)` | [Attrs](/versions/r2.2/api_docs/cc/struct/tensorflow/ops/resource-sparse-apply-adagrad/attrs#structtensorflow_1_1ops_1_1_resource_sparse_apply_adagrad_1_1_attrs) |\n| [UseLocking](#classtensorflow_1_1ops_1_1_resource_sparse_apply_adagrad_1ab305f9b0860b1d2a24a1d314d486ed82)`(bool x)` | [Attrs](/versions/r2.2/api_docs/cc/struct/tensorflow/ops/resource-sparse-apply-adagrad/attrs#structtensorflow_1_1ops_1_1_resource_sparse_apply_adagrad_1_1_attrs) |\n\n| ### Structs ||\n|--------------------------------------------------------------------------------------------------------------------------------------------|------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| [tensorflow::ops::ResourceSparseApplyAdagrad::Attrs](/versions/r2.2/api_docs/cc/struct/tensorflow/ops/resource-sparse-apply-adagrad/attrs) | Optional attribute setters for [ResourceSparseApplyAdagrad](/versions/r2.2/api_docs/cc/class/tensorflow/ops/resource-sparse-apply-adagrad#classtensorflow_1_1ops_1_1_resource_sparse_apply_adagrad). |\n\nPublic attributes\n-----------------\n\n### operation\n\n```text\nOperation operation\n``` \n\nPublic functions\n----------------\n\n### ResourceSparseApplyAdagrad\n\n```gdscript\n ResourceSparseApplyAdagrad(\n const ::tensorflow::Scope & scope,\n ::tensorflow::Input var,\n ::tensorflow::Input accum,\n ::tensorflow::Input lr,\n ::tensorflow::Input grad,\n ::tensorflow::Input indices\n)\n``` \n\n### ResourceSparseApplyAdagrad\n\n```gdscript\n ResourceSparseApplyAdagrad(\n const ::tensorflow::Scope & scope,\n ::tensorflow::Input var,\n ::tensorflow::Input accum,\n ::tensorflow::Input lr,\n ::tensorflow::Input grad,\n ::tensorflow::Input indices,\n const ResourceSparseApplyAdagrad::Attrs & attrs\n)\n``` \n\n### operator::tensorflow::Operation\n\n```gdscript\n operator::tensorflow::Operation() const \n``` \n\nPublic static functions\n-----------------------\n\n### UpdateSlots\n\n```text\nAttrs UpdateSlots(\n bool x\n)\n``` \n\n### UseLocking\n\n```text\nAttrs UseLocking(\n bool x\n)\n```"]]