جریان تنسور:: عملیات:: ResourceApplyAdamWithAmsgrad
#include <training_ops.h>
"*var" را طبق الگوریتم Adam به روز کنید.
خلاصه
$$lr_t := {learning_rate} * {1 - beta_2^t} / (1 - beta_1^t)$$ $$m_t := beta_1 * m_{t-1} + (1 - beta_1) * g$$ $$v_t := beta_2 * v_{t-1} + (1 - beta_2) * g * g$$ $$vhat_t := max{vhat_{t-1}, v_t}$$ $$variable := variable - lr_t * m_t / ({vhat_t} + )$$
استدلال ها:
- scope: یک شی Scope
- var: باید از یک متغیر () باشد.
- m: باید از یک متغیر () باشد.
- v: باید از یک متغیر () باشد.
- vhat: باید از یک متغیر () باشد.
- beta1_power: باید اسکالر باشد.
- beta2_power: باید اسکالر باشد.
- lr: ضریب مقیاس. باید اسکالر باشد.
- beta1: عامل حرکت. باید اسکالر باشد.
- بتا2: عامل حرکت. باید اسکالر باشد.
- اپسیلون: اصطلاح ریج. باید اسکالر باشد.
- grad: گرادیان.
ویژگی های اختیاری (به Attrs
مراجعه کنید):
- use_locking: اگر
True
، بهروزرسانی تانسورهای var، m و v توسط یک قفل محافظت میشود. در غیر این صورت رفتار تعریف نشده است، اما ممکن است اختلاف کمتری از خود نشان دهد.
برمی گرداند:
-
Operation
ایجاد شده
سازندگان و ویرانگرها | |
---|---|
ResourceApplyAdamWithAmsgrad (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input m, :: tensorflow::Input v, :: tensorflow::Input vhat, :: tensorflow::Input beta1_power, :: tensorflow::Input beta2_power, :: tensorflow::Input lr, :: tensorflow::Input beta1, :: tensorflow::Input beta2, :: tensorflow::Input epsilon, :: tensorflow::Input grad) | |
ResourceApplyAdamWithAmsgrad (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input m, :: tensorflow::Input v, :: tensorflow::Input vhat, :: tensorflow::Input beta1_power, :: tensorflow::Input beta2_power, :: tensorflow::Input lr, :: tensorflow::Input beta1, :: tensorflow::Input beta2, :: tensorflow::Input epsilon, :: tensorflow::Input grad, const ResourceApplyAdamWithAmsgrad::Attrs & attrs) |
صفات عمومی | |
---|---|
operation |
توابع عمومی | |
---|---|
operator::tensorflow::Operation () const |
توابع استاتیک عمومی | |
---|---|
UseLocking (bool x) |
سازه ها | |
---|---|
tensorflow:: ops:: ResourceApplyAdamWithAmsgrad:: Attrs | تنظیم کننده های ویژگی اختیاری برای ResourceApplyAdamWithAmsgrad . |
صفات عمومی
عملیات
Operation operation
توابع عمومی
ResourceApplyAdamWithAmsgrad
ResourceApplyAdamWithAmsgrad( const ::tensorflow::Scope & scope, ::tensorflow::Input var, ::tensorflow::Input m, ::tensorflow::Input v, ::tensorflow::Input vhat, ::tensorflow::Input beta1_power, ::tensorflow::Input beta2_power, ::tensorflow::Input lr, ::tensorflow::Input beta1, ::tensorflow::Input beta2, ::tensorflow::Input epsilon, ::tensorflow::Input grad )
ResourceApplyAdamWithAmsgrad
ResourceApplyAdamWithAmsgrad( const ::tensorflow::Scope & scope, ::tensorflow::Input var, ::tensorflow::Input m, ::tensorflow::Input v, ::tensorflow::Input vhat, ::tensorflow::Input beta1_power, ::tensorflow::Input beta2_power, ::tensorflow::Input lr, ::tensorflow::Input beta1, ::tensorflow::Input beta2, ::tensorflow::Input epsilon, ::tensorflow::Input grad, const ResourceApplyAdamWithAmsgrad::Attrs & attrs )
عملگر::tensorflow::عملیات
operator::tensorflow::Operation() const
توابع استاتیک عمومی
استفاده از قفل
Attrs UseLocking( bool x )
جز در مواردی که غیر از این ذکر شده باشد،محتوای این صفحه تحت مجوز Creative Commons Attribution 4.0 License است. نمونه کدها نیز دارای مجوز Apache 2.0 License است. برای اطلاع از جزئیات، به خطمشیهای سایت Google Developers مراجعه کنید. جاوا علامت تجاری ثبتشده Oracle و/یا شرکتهای وابسته به آن است.
تاریخ آخرین بهروزرسانی 2024-12-12 بهوقت ساعت هماهنگ جهانی.