جریان تنسور:: عملیات:: ApplyAdadelta
#include <training_ops.h>
"*var" را طبق طرح adadelta به روز کنید.
خلاصه
accum = rho() * accum + (1 - rho()) * grad.square(); به روز رسانی = (update_accum + epsilon).sqrt() * (accum + epsilon()).rsqrt() * grad; update_accum = rho() * update_accum + (1 - rho()) * update.square(); var -= به روز رسانی;
استدلال ها:
- scope: یک شی Scope
- var: باید از یک متغیر () باشد.
- accum: باید از یک متغیر () باشد.
- accum_update: باید از یک متغیر () باشد.
- lr: ضریب مقیاس. باید اسکالر باشد.
- rho: عامل پوسیدگی. باید اسکالر باشد.
- اپسیلون: عامل ثابت. باید اسکالر باشد.
- grad: گرادیان.
ویژگی های اختیاری (به Attrs
مراجعه کنید):
- use_locking: اگر True باشد، بهروزرسانی تانسورهای var، accum و update_accum توسط یک قفل محافظت میشود. در غیر این صورت رفتار تعریف نشده است، اما ممکن است اختلاف کمتری از خود نشان دهد.
برمی گرداند:
-
Output
: مانند "var".
سازندگان و ویرانگرها | |
---|---|
ApplyAdadelta (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input accum, :: tensorflow::Input accum_update, :: tensorflow::Input lr, :: tensorflow::Input rho, :: tensorflow::Input epsilon, :: tensorflow::Input grad) | |
ApplyAdadelta (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input accum, :: tensorflow::Input accum_update, :: tensorflow::Input lr, :: tensorflow::Input rho, :: tensorflow::Input epsilon, :: tensorflow::Input grad, const ApplyAdadelta::Attrs & attrs) |
صفات عمومی | |
---|---|
operation | |
out |
توابع عمومی | |
---|---|
node () const | ::tensorflow::Node * |
operator::tensorflow::Input () const | |
operator::tensorflow::Output () const |
توابع استاتیک عمومی | |
---|---|
UseLocking (bool x) |
سازه ها | |
---|---|
tensorflow:: ops:: ApplyAdadelta:: Attrs | تنظیم کننده های ویژگی اختیاری برای ApplyAdadelta . |
صفات عمومی
عملیات
Operation operation
بیرون
::tensorflow::Output out
توابع عمومی
ApplyAdadelta
ApplyAdadelta( const ::tensorflow::Scope & scope, ::tensorflow::Input var, ::tensorflow::Input accum, ::tensorflow::Input accum_update, ::tensorflow::Input lr, ::tensorflow::Input rho, ::tensorflow::Input epsilon, ::tensorflow::Input grad )
ApplyAdadelta
ApplyAdadelta( const ::tensorflow::Scope & scope, ::tensorflow::Input var, ::tensorflow::Input accum, ::tensorflow::Input accum_update, ::tensorflow::Input lr, ::tensorflow::Input rho, ::tensorflow::Input epsilon, ::tensorflow::Input grad, const ApplyAdadelta::Attrs & attrs )
گره
::tensorflow::Node * node() const
عملگر::tensorflow::ورودی
operator::tensorflow::Input() const
عملگر::tensorflow::خروجی
operator::tensorflow::Output() const
توابع استاتیک عمومی
استفاده از قفل
Attrs UseLocking( bool x )
جز در مواردی که غیر از این ذکر شده باشد،محتوای این صفحه تحت مجوز Creative Commons Attribution 4.0 License است. نمونه کدها نیز دارای مجوز Apache 2.0 License است. برای اطلاع از جزئیات، به خطمشیهای سایت Google Developers مراجعه کنید. جاوا علامت تجاری ثبتشده Oracle و/یا شرکتهای وابسته به آن است.
تاریخ آخرین بهروزرسانی 2025-07-26 بهوقت ساعت هماهنگ جهانی.
[null,null,["تاریخ آخرین بهروزرسانی 2025-07-26 بهوقت ساعت هماهنگ جهانی."],[],[],null,["# tensorflow::ops::ApplyAdadelta Class Reference\n\ntensorflow::ops::ApplyAdadelta\n==============================\n\n`#include \u003ctraining_ops.h\u003e`\n\nUpdate '\\*var' according to the adadelta scheme.\n\nSummary\n-------\n\naccum = rho() \\* accum + (1 - rho()) \\* grad.square(); update = (update_accum + epsilon).sqrt() \\* (accum + epsilon()).rsqrt() \\* grad; update_accum = rho() \\* update_accum + (1 - rho()) \\* update.square(); var -= update;\n\nArguments:\n\n- scope: A [Scope](/versions/r2.1/api_docs/cc/class/tensorflow/scope#classtensorflow_1_1_scope) object\n- var: Should be from a Variable().\n- accum: Should be from a Variable().\n- accum_update: Should be from a Variable().\n- lr: Scaling factor. Must be a scalar.\n- rho: Decay factor. Must be a scalar.\n- epsilon: Constant factor. Must be a scalar.\n- grad: The gradient.\n\n\u003cbr /\u003e\n\nOptional attributes (see [Attrs](/versions/r2.1/api_docs/cc/struct/tensorflow/ops/apply-adadelta/attrs#structtensorflow_1_1ops_1_1_apply_adadelta_1_1_attrs)):\n\n- use_locking: If True, updating of the var, accum and update_accum tensors will be protected by a lock; otherwise the behavior is undefined, but may exhibit less contention.\n\n\u003cbr /\u003e\n\nReturns:\n\n- [Output](/versions/r2.1/api_docs/cc/class/tensorflow/output#classtensorflow_1_1_output): Same as \"var\".\n\n\u003cbr /\u003e\n\n| ### Constructors and Destructors ||\n|---|---|\n| [ApplyAdadelta](#classtensorflow_1_1ops_1_1_apply_adadelta_1aa28344b035c47c459fd0afca95547d97)`(const ::`[tensorflow::Scope](/versions/r2.1/api_docs/cc/class/tensorflow/scope#classtensorflow_1_1_scope)` & scope, ::`[tensorflow::Input](/versions/r2.1/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` var, ::`[tensorflow::Input](/versions/r2.1/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` accum, ::`[tensorflow::Input](/versions/r2.1/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` accum_update, ::`[tensorflow::Input](/versions/r2.1/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` lr, ::`[tensorflow::Input](/versions/r2.1/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` rho, ::`[tensorflow::Input](/versions/r2.1/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` epsilon, ::`[tensorflow::Input](/versions/r2.1/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` grad)` ||\n| [ApplyAdadelta](#classtensorflow_1_1ops_1_1_apply_adadelta_1a08f5d27287a3064abb5e3b83fadbe887)`(const ::`[tensorflow::Scope](/versions/r2.1/api_docs/cc/class/tensorflow/scope#classtensorflow_1_1_scope)` & scope, ::`[tensorflow::Input](/versions/r2.1/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` var, ::`[tensorflow::Input](/versions/r2.1/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` accum, ::`[tensorflow::Input](/versions/r2.1/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` accum_update, ::`[tensorflow::Input](/versions/r2.1/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` lr, ::`[tensorflow::Input](/versions/r2.1/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` rho, ::`[tensorflow::Input](/versions/r2.1/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` epsilon, ::`[tensorflow::Input](/versions/r2.1/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` grad, const `[ApplyAdadelta::Attrs](/versions/r2.1/api_docs/cc/struct/tensorflow/ops/apply-adadelta/attrs#structtensorflow_1_1ops_1_1_apply_adadelta_1_1_attrs)` & attrs)` ||\n\n| ### Public attributes ||\n|--------------------------------------------------------------------------------------------|---------------------------------------------------------------------------------------------------------|\n| [operation](#classtensorflow_1_1ops_1_1_apply_adadelta_1a4bcd49cd72b4103e0041a1231ad7cbfb) | [Operation](/versions/r2.1/api_docs/cc/class/tensorflow/operation#classtensorflow_1_1_operation) |\n| [out](#classtensorflow_1_1ops_1_1_apply_adadelta_1aaa46dd79340e6999dac483165b45499d) | `::`[tensorflow::Output](/versions/r2.1/api_docs/cc/class/tensorflow/output#classtensorflow_1_1_output) |\n\n| ### Public functions ||\n|--------------------------------------------------------------------------------------------------------------------------|------------------------|\n| [node](#classtensorflow_1_1ops_1_1_apply_adadelta_1a7ab3d73516eacd84efdba9d4c8bb31dd)`() const ` | `::tensorflow::Node *` |\n| [operator::tensorflow::Input](#classtensorflow_1_1ops_1_1_apply_adadelta_1aa0992e4c234bd33403c057425829457c)`() const ` | ` ` ` ` |\n| [operator::tensorflow::Output](#classtensorflow_1_1ops_1_1_apply_adadelta_1a0d01185e91e72c289949de8ca852c923)`() const ` | ` ` ` ` |\n\n| ### Public static functions ||\n|-------------------------------------------------------------------------------------------------------|-------------------------------------------------------------------------------------------------------------------------------------|\n| [UseLocking](#classtensorflow_1_1ops_1_1_apply_adadelta_1a8545cc26c688935679d0a732a1407986)`(bool x)` | [Attrs](/versions/r2.1/api_docs/cc/struct/tensorflow/ops/apply-adadelta/attrs#structtensorflow_1_1ops_1_1_apply_adadelta_1_1_attrs) |\n\n| ### Structs ||\n|----------------------------------------------------------------------------------------------------------------|-----------------------------------------------------------------------------------------------------------------------------------------------------------|\n| [tensorflow::ops::ApplyAdadelta::Attrs](/versions/r2.1/api_docs/cc/struct/tensorflow/ops/apply-adadelta/attrs) | Optional attribute setters for [ApplyAdadelta](/versions/r2.1/api_docs/cc/class/tensorflow/ops/apply-adadelta#classtensorflow_1_1ops_1_1_apply_adadelta). |\n\nPublic attributes\n-----------------\n\n### operation\n\n```text\nOperation operation\n``` \n\n### out\n\n```text\n::tensorflow::Output out\n``` \n\nPublic functions\n----------------\n\n### ApplyAdadelta\n\n```gdscript\n ApplyAdadelta(\n const ::tensorflow::Scope & scope,\n ::tensorflow::Input var,\n ::tensorflow::Input accum,\n ::tensorflow::Input accum_update,\n ::tensorflow::Input lr,\n ::tensorflow::Input rho,\n ::tensorflow::Input epsilon,\n ::tensorflow::Input grad\n)\n``` \n\n### ApplyAdadelta\n\n```gdscript\n ApplyAdadelta(\n const ::tensorflow::Scope & scope,\n ::tensorflow::Input var,\n ::tensorflow::Input accum,\n ::tensorflow::Input accum_update,\n ::tensorflow::Input lr,\n ::tensorflow::Input rho,\n ::tensorflow::Input epsilon,\n ::tensorflow::Input grad,\n const ApplyAdadelta::Attrs & attrs\n)\n``` \n\n### node\n\n```gdscript\n::tensorflow::Node * node() const \n``` \n\n### operator::tensorflow::Input\n\n```gdscript\n operator::tensorflow::Input() const \n``` \n\n### operator::tensorflow::Output\n\n```gdscript\n operator::tensorflow::Output() const \n``` \n\nPublic static functions\n-----------------------\n\n### UseLocking\n\n```text\nAttrs UseLocking(\n bool x\n)\n```"]]