כיתת גמר ציבורית ApplyAdaMax
עדכן את '*var' לפי אלגוריתם AdaMax.
m_t <- beta1 * m_{t-1} + (1 - beta1) * g v_t <- max(beta2 * v_{t-1}, abs(g)) משתנה <- variable - learning_rate / (1 - beta1^ t) * m_t / (v_t + epsilon)
כיתות מקוננות
| מעמד | ApplyAdaMax.Options | תכונות אופציונליות עבור ApplyAdaMax | |
קבועים
| חוּט | OP_NAME | השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow | 
שיטות ציבוריות
| פלט <T> |  asOutput ()  מחזירה את הידית הסמלית של הטנזור. | 
| סטטי <T מרחיב את TType > ApplyAdaMax <T> | |
| פלט <T> |  החוצה ()  זהה ל-"var". | 
| סטטי ApplyAdaMax.Options |  useLocking (useLocking בוליאני)  | 
שיטות בירושה
קבועים
מחרוזת סופית סטטית ציבורית OP_NAME
השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow
 ערך קבוע: "ApplyAdaMax" 
שיטות ציבוריות
פלט ציבורי <T> asOutput ()
מחזירה את הידית הסמלית של הטנזור.
כניסות לפעולות TensorFlow הן יציאות של פעולת TensorFlow אחרת. שיטה זו משמשת להשגת ידית סמלית המייצגת את חישוב הקלט.
public static ApplyAdaMax <T> create ( Scope scope, Operand <T> var, Operand <T> m, Operand <T> v, Operand <T> beta1Power, Operand <T> lr, Operand <T> beta1, Operand <T > beta2, Operand <T> epsilon, Operand <T> grad, Options... options)
שיטת מפעל ליצירת מחלקה העוטפת פעולת ApplyAdaMax חדשה.
פרמטרים
| תְחוּם | ההיקף הנוכחי | 
|---|---|
| var | צריך להיות ממשתנה(). | 
| M | צריך להיות ממשתנה(). | 
| v | צריך להיות ממשתנה(). | 
| beta1Power | חייב להיות סקלר. | 
| lr | גורם קנה מידה. חייב להיות סקלר. | 
| בטא1 | גורם מומנטום. חייב להיות סקלר. | 
| בטא2 | גורם מומנטום. חייב להיות סקלר. | 
| אפסילון | מונח רכס. חייב להיות סקלר. | 
| גראד | השיפוע. | 
| אפשרויות | נושא ערכי תכונות אופציונליות | 
החזרות
- מופע חדש של ApplyAdaMax
סטטי ציבורי ApplyAdaMax.Options useLocking (שימוש בוליאני)
פרמטרים
| השתמש בנעילה | אם 'נכון', עדכון הטנזורים var, m ו-v יהיה מוגן על ידי מנעול; אחרת ההתנהגות אינה מוגדרת, אך עלולה להפגין פחות מחלוקת. | 
|---|