tensorflow:: אופס:: ResourceApplyAdamWithAmsgrad
#include <training_ops.h>
עדכן את '*var' לפי אלגוריתם Adam.
תַקצִיר
$$lr_t := {learning_rate} * {1 - beta_2^t} / (1 - beta_1^t)$$ $$m_t := beta_1 * m_{t-1} + (1 - beta_1) * g$$ $$v_t := beta_2 * v_{t-1} + (1 - beta_2) * g * g$$ $$vhat_t := max{vhat_{t-1}, v_t}$$ $$variable := variable - lr_t * m_t / ({vhat_t} + )$$
טיעונים:
- scope: אובייקט Scope
- var: צריך להיות מ-Variable().
- m: צריך להיות ממשתנה().
- v: צריך להיות מ-Variable().
- vhat: צריך להיות מ-Variable().
- beta1_power: חייב להיות סקלרי.
- beta2_power: חייב להיות סקלרי.
- lr: גורם קנה מידה. חייב להיות סקלר.
- beta1: גורם מומנטום. חייב להיות סקלר.
- beta2: גורם מומנטום. חייב להיות סקלר.
- אפסילון: מונח רכס. חייב להיות סקלר.
- grad: השיפוע.
מאפיינים אופציונליים (ראה Attrs
):
- use_locking: אם
True
, עדכון הטנזורים var, m ו-v יהיה מוגן על ידי מנעול; אחרת ההתנהגות אינה מוגדרת, אך עלולה להפגין פחות מחלוקת.
החזרות:
-
Operation
שנוצר
בנאים והורסים | |
---|---|
ResourceApplyAdamWithAmsgrad (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input m, :: tensorflow::Input v, :: tensorflow::Input vhat, :: tensorflow::Input beta1_power, :: tensorflow::Input beta2_power, :: tensorflow::Input lr, :: tensorflow::Input beta1, :: tensorflow::Input beta2, :: tensorflow::Input epsilon, :: tensorflow::Input grad) | |
ResourceApplyAdamWithAmsgrad (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input m, :: tensorflow::Input v, :: tensorflow::Input vhat, :: tensorflow::Input beta1_power, :: tensorflow::Input beta2_power, :: tensorflow::Input lr, :: tensorflow::Input beta1, :: tensorflow::Input beta2, :: tensorflow::Input epsilon, :: tensorflow::Input grad, const ResourceApplyAdamWithAmsgrad::Attrs & attrs) |
תכונות ציבוריות | |
---|---|
operation |
תפקידים ציבוריים | |
---|---|
operator::tensorflow::Operation () const |
פונקציות סטטיות ציבוריות | |
---|---|
UseLocking (bool x) |
מבנים | |
---|---|
tensorflow:: ops:: ResourceApplyAdamWithAmsgrad:: Attrs | קובעי תכונות אופציונליים עבור ResourceApplyAdamWithAmsgrad . |
תכונות ציבוריות
מִבצָע
Operation operation
תפקידים ציבוריים
ResourceApplyAdamWithAmsgrad
ResourceApplyAdamWithAmsgrad( const ::tensorflow::Scope & scope, ::tensorflow::Input var, ::tensorflow::Input m, ::tensorflow::Input v, ::tensorflow::Input vhat, ::tensorflow::Input beta1_power, ::tensorflow::Input beta2_power, ::tensorflow::Input lr, ::tensorflow::Input beta1, ::tensorflow::Input beta2, ::tensorflow::Input epsilon, ::tensorflow::Input grad )
ResourceApplyAdamWithAmsgrad
ResourceApplyAdamWithAmsgrad( const ::tensorflow::Scope & scope, ::tensorflow::Input var, ::tensorflow::Input m, ::tensorflow::Input v, ::tensorflow::Input vhat, ::tensorflow::Input beta1_power, ::tensorflow::Input beta2_power, ::tensorflow::Input lr, ::tensorflow::Input beta1, ::tensorflow::Input beta2, ::tensorflow::Input epsilon, ::tensorflow::Input grad, const ResourceApplyAdamWithAmsgrad::Attrs & attrs )
אופרטור::tensorflow::פעולה
operator::tensorflow::Operation() const
פונקציות סטטיות ציבוריות
השתמש בנעילה
Attrs UseLocking( bool x )
אלא אם צוין אחרת, התוכן של דף זה הוא ברישיון Creative Commons Attribution 4.0 ודוגמאות הקוד הן ברישיון Apache 2.0. לפרטים, ניתן לעיין במדיניות האתר Google Developers. Java הוא סימן מסחרי רשום של חברת Oracle ו/או של השותפים העצמאיים שלה.
עדכון אחרון: 2024-12-18 (שעון UTC).
[null,null,["עדכון אחרון: 2024-12-18 (שעון UTC)."],[],[]]