جریان تنسور:: عملیات:: ApplyAdadelta
#include <training_ops.h>
"*var" را طبق طرح adadelta به روز کنید.
خلاصه
accum = rho() * accum + (1 - rho()) * grad.square(); به روز رسانی = (update_accum + epsilon).sqrt() * (accum + epsilon()).rsqrt() * grad; update_accum = rho() * update_accum + (1 - rho()) * update.square(); var -= به روز رسانی;
استدلال ها:
- scope: یک شی Scope
- var: باید از یک متغیر () باشد.
- accum: باید از یک متغیر () باشد.
- accum_update: باید از یک متغیر () باشد.
- lr: ضریب مقیاس. باید اسکالر باشد.
- rho: عامل پوسیدگی. باید اسکالر باشد.
- اپسیلون: عامل ثابت. باید اسکالر باشد.
- grad: گرادیان.
ویژگی های اختیاری (به Attrs
مراجعه کنید):
- use_locking: اگر True باشد، بهروزرسانی تانسورهای var، accum و update_accum توسط یک قفل محافظت میشود. در غیر این صورت رفتار تعریف نشده است، اما ممکن است اختلاف کمتری از خود نشان دهد.
برمی گرداند:
-
Output
: مانند "var".
سازندگان و ویرانگرها | |
---|---|
ApplyAdadelta (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input accum, :: tensorflow::Input accum_update, :: tensorflow::Input lr, :: tensorflow::Input rho, :: tensorflow::Input epsilon, :: tensorflow::Input grad) | |
ApplyAdadelta (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input accum, :: tensorflow::Input accum_update, :: tensorflow::Input lr, :: tensorflow::Input rho, :: tensorflow::Input epsilon, :: tensorflow::Input grad, const ApplyAdadelta::Attrs & attrs) |
صفات عمومی | |
---|---|
operation | |
out |
توابع عمومی | |
---|---|
node () const | ::tensorflow::Node * |
operator::tensorflow::Input () const | |
operator::tensorflow::Output () const |
توابع استاتیک عمومی | |
---|---|
UseLocking (bool x) |
سازه ها | |
---|---|
tensorflow:: ops:: ApplyAdadelta:: Attrs | تنظیم کننده های ویژگی اختیاری برای ApplyAdadelta . |
صفات عمومی
عملیات
Operation operation
بیرون
::tensorflow::Output out
توابع عمومی
ApplyAdadelta
ApplyAdadelta( const ::tensorflow::Scope & scope, ::tensorflow::Input var, ::tensorflow::Input accum, ::tensorflow::Input accum_update, ::tensorflow::Input lr, ::tensorflow::Input rho, ::tensorflow::Input epsilon, ::tensorflow::Input grad )
ApplyAdadelta
ApplyAdadelta( const ::tensorflow::Scope & scope, ::tensorflow::Input var, ::tensorflow::Input accum, ::tensorflow::Input accum_update, ::tensorflow::Input lr, ::tensorflow::Input rho, ::tensorflow::Input epsilon, ::tensorflow::Input grad, const ApplyAdadelta::Attrs & attrs )
گره
::tensorflow::Node * node() const
عملگر::tensorflow::ورودی
operator::tensorflow::Input() const
عملگر::tensorflow::خروجی
operator::tensorflow::Output() const
توابع استاتیک عمومی
استفاده از قفل
Attrs UseLocking( bool x )
جز در مواردی که غیر از این ذکر شده باشد،محتوای این صفحه تحت مجوز Creative Commons Attribution 4.0 License است. نمونه کدها نیز دارای مجوز Apache 2.0 License است. برای اطلاع از جزئیات، به خطمشیهای سایت Google Developers مراجعه کنید. جاوا علامت تجاری ثبتشده Oracle و/یا شرکتهای وابسته به آن است.
تاریخ آخرین بهروزرسانی 2024-11-18 بهوقت ساعت هماهنگ جهانی.
[null,null,["تاریخ آخرین بهروزرسانی 2024-11-18 بهوقت ساعت هماهنگ جهانی."],[],[]]