עדכן את '*var' בהתאם לתוכנית adadelta.
accum = rho() * accum + (1 - rho()) * grad.square(); update = (update_accum + epsilon).sqrt() * (accum + epsilon()).rsqrt() * grad; update_accum = rho() * update_accum + (1 - rho()) * update.square(); var -= עדכון;
כיתות מקוננות
מעמד | ApplyAdadelta.Options | תכונות אופציונליות עבור ApplyAdadelta |
קבועים
חוּט | OP_NAME | השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow |
שיטות ציבוריות
פלט <T> | asOutput () מחזירה את הידית הסמלית של הטנזור. |
סטטי <T מרחיב את TType > ApplyAdadelta <T> | |
פלט <T> | החוצה () זהה ל-"var". |
סטטי ApplyAdadelta.Options | useLocking (useLocking בוליאני) |
שיטות בירושה
קבועים
מחרוזת סופית סטטית ציבורית OP_NAME
השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow
שיטות ציבוריות
פלט ציבורי <T> asOutput ()
מחזירה את הידית הסמלית של הטנזור.
כניסות לפעולות TensorFlow הן יציאות של פעולת TensorFlow אחרת. שיטה זו משמשת להשגת ידית סמלית המייצגת את חישוב הקלט.
public static ApplyAdadelta <T> create ( Scope scope, Operand <T> var, Operand <T> accum, Operand <T> accumUpdate, Operand <T> lr, Operand <T> rho, Operand <T> epsilon, Operand <T > תואר, אפשרויות... אפשרויות)
שיטת מפעל ליצירת מחלקה העוטפת פעולת ApplyAdadelta חדשה.
פרמטרים
תְחוּם | ההיקף הנוכחי |
---|---|
var | צריך להיות ממשתנה(). |
לצבור | צריך להיות ממשתנה(). |
accumUpdate | צריך להיות ממשתנה(). |
lr | גורם קנה מידה. חייב להיות סקלר. |
rho | גורם ריקבון. חייב להיות סקלר. |
אפסילון | גורם קבוע. חייב להיות סקלר. |
גראד | השיפוע. |
אפשרויות | נושא ערכי תכונות אופציונליות |
החזרות
- מופע חדש של ApplyAdadelta
public static ApplyAdadelta.Options useLocking (שימוש בוליאני)
פרמטרים
השתמש בנעילה | אם נכון, עדכון הטנזורים var, accum ו-update_accum יהיה מוגן על ידי מנעול; אחרת ההתנהגות אינה מוגדרת, אך עלולה להפגין פחות מחלוקת. |
---|