จัดทุกอย่างให้เป็นระเบียบอยู่เสมอด้วยคอลเล็กชัน
บันทึกและจัดหมวดหมู่เนื้อหาตามค่ากำหนดของคุณ
เทนเซอร์โฟลว์:: ปฏิบัติการ:: สมัครAdadelta
#include <training_ops.h>
อัปเดต '*var' ตามรูปแบบ adadelta
สรุป
สะสม = rho() * สะสม + (1 - rho()) * grad.square(); อัปเดต = (update_accum + epsilon).sqrt() * (สะสม + epsilon()).rsqrt() * ผู้สำเร็จการศึกษา; update_accum = rho() * update_accum + (1 - rho()) * update.square(); var -= อัพเดต;
ข้อโต้แย้ง:
- ขอบเขต: วัตถุ ขอบเขต
- var: ควรมาจากตัวแปร ()
- accum: ควรมาจากตัวแปร ()
- accum_update: ควรมาจากตัวแปร ()
- lr: ปัจจัยการปรับขนาด ต้องเป็นสเกลาร์
- rho: ปัจจัยการสลายตัว ต้องเป็นสเกลาร์
- เอปไซลอน: ปัจจัยคงที่ ต้องเป็นสเกลาร์
- ผู้สำเร็จการศึกษา: การไล่ระดับสี
แอ็ตทริบิวต์ทางเลือก (ดู Attrs
):
- use_locking: หากเป็น True การอัปเดต var, accum และ update_accum tensor จะได้รับการปกป้องด้วยการล็อค มิฉะนั้นพฤติกรรมจะไม่ได้กำหนดไว้ แต่อาจแสดงความขัดแย้งน้อยลง
ผลตอบแทน:
ตัวสร้างและผู้ทำลาย |
---|
ApplyAdadelta (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input accum, :: tensorflow::Input accum_update, :: tensorflow::Input lr, :: tensorflow::Input rho, :: tensorflow::Input epsilon, :: tensorflow::Input grad)
|
ApplyAdadelta (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input accum, :: tensorflow::Input accum_update, :: tensorflow::Input lr, :: tensorflow::Input rho, :: tensorflow::Input epsilon, :: tensorflow::Input grad, const ApplyAdadelta::Attrs & attrs) |
คุณลักษณะสาธารณะ
งานสาธารณะ
โหนด
::tensorflow::Node * node() const
operator::tensorflow::Input() const
ตัวดำเนินการ::tensorflow::เอาต์พุต
operator::tensorflow::Output() const
ฟังก์ชันคงที่สาธารณะ
ใช้ล็อค
Attrs UseLocking(
bool x
)
เนื้อหาของหน้าเว็บนี้ได้รับอนุญาตภายใต้ใบอนุญาตที่ต้องระบุที่มาของครีเอทีฟคอมมอนส์ 4.0 และตัวอย่างโค้ดได้รับอนุญาตภายใต้ใบอนุญาต Apache 2.0 เว้นแต่จะระบุไว้เป็นอย่างอื่น โปรดดูรายละเอียดที่นโยบายเว็บไซต์ Google Developers Java เป็นเครื่องหมายการค้าจดทะเบียนของ Oracle และ/หรือบริษัทในเครือ
อัปเดตล่าสุด 2025-07-27 UTC
[null,null,["อัปเดตล่าสุด 2025-07-27 UTC"],[],[],null,["# tensorflow::ops::ApplyAdadelta Class Reference\n\ntensorflow::ops::ApplyAdadelta\n==============================\n\n`#include \u003ctraining_ops.h\u003e`\n\nUpdate '\\*var' according to the adadelta scheme.\n\nSummary\n-------\n\naccum = rho() \\* accum + (1 - rho()) \\* grad.square(); update = (update_accum + epsilon).sqrt() \\* (accum + epsilon()).rsqrt() \\* grad; update_accum = rho() \\* update_accum + (1 - rho()) \\* update.square(); var -= update;\n\nArguments:\n\n- scope: A [Scope](/versions/r2.2/api_docs/cc/class/tensorflow/scope#classtensorflow_1_1_scope) object\n- var: Should be from a Variable().\n- accum: Should be from a Variable().\n- accum_update: Should be from a Variable().\n- lr: Scaling factor. Must be a scalar.\n- rho: Decay factor. Must be a scalar.\n- epsilon: Constant factor. Must be a scalar.\n- grad: The gradient.\n\n\u003cbr /\u003e\n\nOptional attributes (see [Attrs](/versions/r2.2/api_docs/cc/struct/tensorflow/ops/apply-adadelta/attrs#structtensorflow_1_1ops_1_1_apply_adadelta_1_1_attrs)):\n\n- use_locking: If True, updating of the var, accum and update_accum tensors will be protected by a lock; otherwise the behavior is undefined, but may exhibit less contention.\n\n\u003cbr /\u003e\n\nReturns:\n\n- [Output](/versions/r2.2/api_docs/cc/class/tensorflow/output#classtensorflow_1_1_output): Same as \"var\".\n\n\u003cbr /\u003e\n\n| ### Constructors and Destructors ||\n|---|---|\n| [ApplyAdadelta](#classtensorflow_1_1ops_1_1_apply_adadelta_1aa28344b035c47c459fd0afca95547d97)`(const ::`[tensorflow::Scope](/versions/r2.2/api_docs/cc/class/tensorflow/scope#classtensorflow_1_1_scope)` & scope, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` var, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` accum, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` accum_update, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` lr, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` rho, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` epsilon, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` grad)` ||\n| [ApplyAdadelta](#classtensorflow_1_1ops_1_1_apply_adadelta_1a08f5d27287a3064abb5e3b83fadbe887)`(const ::`[tensorflow::Scope](/versions/r2.2/api_docs/cc/class/tensorflow/scope#classtensorflow_1_1_scope)` & scope, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` var, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` accum, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` accum_update, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` lr, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` rho, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` epsilon, ::`[tensorflow::Input](/versions/r2.2/api_docs/cc/class/tensorflow/input#classtensorflow_1_1_input)` grad, const `[ApplyAdadelta::Attrs](/versions/r2.2/api_docs/cc/struct/tensorflow/ops/apply-adadelta/attrs#structtensorflow_1_1ops_1_1_apply_adadelta_1_1_attrs)` & attrs)` ||\n\n| ### Public attributes ||\n|--------------------------------------------------------------------------------------------|---------------------------------------------------------------------------------------------------------|\n| [operation](#classtensorflow_1_1ops_1_1_apply_adadelta_1a4bcd49cd72b4103e0041a1231ad7cbfb) | [Operation](/versions/r2.2/api_docs/cc/class/tensorflow/operation#classtensorflow_1_1_operation) |\n| [out](#classtensorflow_1_1ops_1_1_apply_adadelta_1aaa46dd79340e6999dac483165b45499d) | `::`[tensorflow::Output](/versions/r2.2/api_docs/cc/class/tensorflow/output#classtensorflow_1_1_output) |\n\n| ### Public functions ||\n|--------------------------------------------------------------------------------------------------------------------------|------------------------|\n| [node](#classtensorflow_1_1ops_1_1_apply_adadelta_1a7ab3d73516eacd84efdba9d4c8bb31dd)`() const ` | `::tensorflow::Node *` |\n| [operator::tensorflow::Input](#classtensorflow_1_1ops_1_1_apply_adadelta_1aa0992e4c234bd33403c057425829457c)`() const ` | ` ` ` ` |\n| [operator::tensorflow::Output](#classtensorflow_1_1ops_1_1_apply_adadelta_1a0d01185e91e72c289949de8ca852c923)`() const ` | ` ` ` ` |\n\n| ### Public static functions ||\n|-------------------------------------------------------------------------------------------------------|-------------------------------------------------------------------------------------------------------------------------------------|\n| [UseLocking](#classtensorflow_1_1ops_1_1_apply_adadelta_1a8545cc26c688935679d0a732a1407986)`(bool x)` | [Attrs](/versions/r2.2/api_docs/cc/struct/tensorflow/ops/apply-adadelta/attrs#structtensorflow_1_1ops_1_1_apply_adadelta_1_1_attrs) |\n\n| ### Structs ||\n|----------------------------------------------------------------------------------------------------------------|-----------------------------------------------------------------------------------------------------------------------------------------------------------|\n| [tensorflow::ops::ApplyAdadelta::Attrs](/versions/r2.2/api_docs/cc/struct/tensorflow/ops/apply-adadelta/attrs) | Optional attribute setters for [ApplyAdadelta](/versions/r2.2/api_docs/cc/class/tensorflow/ops/apply-adadelta#classtensorflow_1_1ops_1_1_apply_adadelta). |\n\nPublic attributes\n-----------------\n\n### operation\n\n```text\nOperation operation\n``` \n\n### out\n\n```text\n::tensorflow::Output out\n``` \n\nPublic functions\n----------------\n\n### ApplyAdadelta\n\n```gdscript\n ApplyAdadelta(\n const ::tensorflow::Scope & scope,\n ::tensorflow::Input var,\n ::tensorflow::Input accum,\n ::tensorflow::Input accum_update,\n ::tensorflow::Input lr,\n ::tensorflow::Input rho,\n ::tensorflow::Input epsilon,\n ::tensorflow::Input grad\n)\n``` \n\n### ApplyAdadelta\n\n```gdscript\n ApplyAdadelta(\n const ::tensorflow::Scope & scope,\n ::tensorflow::Input var,\n ::tensorflow::Input accum,\n ::tensorflow::Input accum_update,\n ::tensorflow::Input lr,\n ::tensorflow::Input rho,\n ::tensorflow::Input epsilon,\n ::tensorflow::Input grad,\n const ApplyAdadelta::Attrs & attrs\n)\n``` \n\n### node\n\n```gdscript\n::tensorflow::Node * node() const \n``` \n\n### operator::tensorflow::Input\n\n```gdscript\n operator::tensorflow::Input() const \n``` \n\n### operator::tensorflow::Output\n\n```gdscript\n operator::tensorflow::Output() const \n``` \n\nPublic static functions\n-----------------------\n\n### UseLocking\n\n```text\nAttrs UseLocking(\n bool x\n)\n```"]]