সেভ করা পৃষ্ঠা গুছিয়ে রাখতে 'সংগ্রহ' ব্যবহার করুন
আপনার পছন্দ অনুযায়ী কন্টেন্ট সেভ করুন ও সঠিক বিভাগে রাখুন।
টেনসরফ্লো :: অপস:: ResourceSparseApplyMomentum:: Attrs
#include <training_ops.h>
ResourceSparseApplyMomentum- এর জন্য ঐচ্ছিক অ্যাট্রিবিউট সেটার।
সারাংশ
পাবলিক ফাংশন |
---|
UseLocking (bool x) | যদি True , var এবং accum tensors আপডেট করা একটি লক দ্বারা সুরক্ষিত হবে; অন্যথায় আচরণটি অনির্ধারিত, তবে কম বিরোধ প্রদর্শন করতে পারে। |
UseNesterov (bool x) | যদি True , কম্পিউট গ্রেডে পাস করা টেনসর হবে var - lr * ভরবেগ * accum, তাই শেষ পর্যন্ত, আপনি যে var পাবেন তা আসলে var - lr * ভরবেগ * accum। |
পাবলিক বৈশিষ্ট্য
ব্যবহার_লকিং_
bool tensorflow::ops::ResourceSparseApplyMomentum::Attrs::use_locking_ = false
use_nesterov_
bool tensorflow::ops::ResourceSparseApplyMomentum::Attrs::use_nesterov_ = false
পাবলিক ফাংশন
লকিং ব্যবহার করুন
TF_MUST_USE_RESULT Attrs tensorflow::ops::ResourceSparseApplyMomentum::Attrs::UseLocking(
bool x
)
যদি True
, var এবং accum tensors আপডেট করা একটি লক দ্বারা সুরক্ষিত হবে; অন্যথায় আচরণটি অনির্ধারিত, তবে কম বিরোধ প্রদর্শন করতে পারে।
ডিফল্ট থেকে মিথ্যা
নেস্টেরভ ব্যবহার করুন
TF_MUST_USE_RESULT Attrs tensorflow::ops::ResourceSparseApplyMomentum::Attrs::UseNesterov(
bool x
)
যদি True
, কম্পিউট গ্রেডে পাস করা টেনসর হবে var - lr * ভরবেগ * accum, তাই শেষ পর্যন্ত, আপনি যে var পাবেন তা আসলে var - lr * ভরবেগ * accum।
ডিফল্ট থেকে মিথ্যা
অন্য কিছু উল্লেখ না করা থাকলে, এই পৃষ্ঠার কন্টেন্ট Creative Commons Attribution 4.0 License-এর অধীনে এবং কোডের নমুনাগুলি Apache 2.0 License-এর অধীনে লাইসেন্স প্রাপ্ত। আরও জানতে, Google Developers সাইট নীতি দেখুন। Java হল Oracle এবং/অথবা তার অ্যাফিলিয়েট সংস্থার রেজিস্টার্ড ট্রেডমার্ক।
2025-07-26 UTC-তে শেষবার আপডেট করা হয়েছে।
[null,null,["2025-07-26 UTC-তে শেষবার আপডেট করা হয়েছে।"],[],[],null,["# tensorflow::ops::ResourceSparseApplyMomentum::Attrs Struct Reference\n\ntensorflow::ops::ResourceSparseApplyMomentum::Attrs\n===================================================\n\n`#include \u003ctraining_ops.h\u003e`\n\nOptional attribute setters for [ResourceSparseApplyMomentum](/versions/r2.3/api_docs/cc/class/tensorflow/ops/resource-sparse-apply-momentum#classtensorflow_1_1ops_1_1_resource_sparse_apply_momentum).\n\nSummary\n-------\n\n| ### Public attributes ||\n|-------------------------------------------------------------------------------------------------------------------------------------|--------|\n| [use_locking_](#structtensorflow_1_1ops_1_1_resource_sparse_apply_momentum_1_1_attrs_1a827485c686efacdb60adc43db2cafe50)` = false` | `bool` |\n| [use_nesterov_](#structtensorflow_1_1ops_1_1_resource_sparse_apply_momentum_1_1_attrs_1ac513249f4083ebbdd225e272dcb3c91c)` = false` | `bool` |\n\n| ### Public functions ||\n|-----------------------------------------------------------------------------------------------------------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| [UseLocking](#structtensorflow_1_1ops_1_1_resource_sparse_apply_momentum_1_1_attrs_1abf98d2e230a34b65f4f1293131a7c04d)`(bool x)` | `TF_MUST_USE_RESULT `[Attrs](/versions/r2.3/api_docs/cc/struct/tensorflow/ops/resource-sparse-apply-momentum/attrs#structtensorflow_1_1ops_1_1_resource_sparse_apply_momentum_1_1_attrs) If `True`, updating of the var and accum tensors will be protected by a lock; otherwise the behavior is undefined, but may exhibit less contention. |\n| [UseNesterov](#structtensorflow_1_1ops_1_1_resource_sparse_apply_momentum_1_1_attrs_1ae5c7eb0501d057c11a1354d4c86fb994)`(bool x)` | `TF_MUST_USE_RESULT `[Attrs](/versions/r2.3/api_docs/cc/struct/tensorflow/ops/resource-sparse-apply-momentum/attrs#structtensorflow_1_1ops_1_1_resource_sparse_apply_momentum_1_1_attrs) If `True`, the tensor passed to compute grad will be var - lr \\* momentum \\* accum, so in the end, the var you get is actually var - lr \\* momentum \\* accum. |\n\nPublic attributes\n-----------------\n\n### use_locking_\n\n```scdoc\nbool tensorflow::ops::ResourceSparseApplyMomentum::Attrs::use_locking_ = false\n``` \n\n### use_nesterov_\n\n```scdoc\nbool tensorflow::ops::ResourceSparseApplyMomentum::Attrs::use_nesterov_ = false\n``` \n\nPublic functions\n----------------\n\n### UseLocking\n\n```scdoc\nTF_MUST_USE_RESULT Attrs tensorflow::ops::ResourceSparseApplyMomentum::Attrs::UseLocking(\n bool x\n)\n``` \nIf `True`, updating of the var and accum tensors will be protected by a lock; otherwise the behavior is undefined, but may exhibit less contention.\n\nDefaults to false \n\n### UseNesterov\n\n```scdoc\nTF_MUST_USE_RESULT Attrs tensorflow::ops::ResourceSparseApplyMomentum::Attrs::UseNesterov(\n bool x\n)\n``` \nIf `True`, the tensor passed to compute grad will be var - lr \\* momentum \\* accum, so in the end, the var you get is actually var - lr \\* momentum \\* accum.\n\nDefaults to false"]]