כיתה אחרונה ציבורית ResourceApplyAdagrad
עדכן את '*var' בהתאם לתכנית adgrad.
accum += grad * grad var -= lr * grad * (1 / (sqrt(accum) + epsilon))
כיתות מקוננות
מעמד | ResourceApplyAdagrad.Options | תכונות אופציונליות עבור ResourceApplyAdagrad |
קבועים
חוּט | OP_NAME | השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow |
שיטות ציבוריות
סטטי <T מרחיב את TType > ResourceApplyAdagrad | |
static ResourceApplyAdagrad.Options | updateSlots (בוליאני updateSlots) |
static ResourceApplyAdagrad.Options | useLocking (useLocking בוליאני) |
שיטות בירושה
קבועים
מחרוזת סופית סטטית ציבורית OP_NAME
השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow
ערך קבוע: "ResourceApplyAdagradV2"
שיטות ציבוריות
public static ResourceApplyAdagrad create ( scope scope, Operand <?> var, Operand <?> accum, Operand <T> lr, Operand <T> epsilon, Operand <T> grad, Options... options)
שיטת מפעל ליצירת מחלקה העוטפת פעולת ResourceApplyAdagrad חדשה.
פרמטרים
תְחוּם | ההיקף הנוכחי |
---|---|
var | צריך להיות ממשתנה(). |
לצבור | צריך להיות ממשתנה(). |
lr | גורם קנה מידה. חייב להיות סקלר. |
אפסילון | גורם קבוע. חייב להיות סקלר. |
גראד | השיפוע. |
אפשרויות | נושא ערכי תכונות אופציונליות |
החזרות
- מופע חדש של ResourceApplyAdagrad
public static ResourceApplyAdagrad.Options useLocking (שימוש בוליאני)
פרמטרים
השתמש בנעילה | אם 'נכון', עדכון טנסור ה- var ו-acum יהיה מוגן על ידי מנעול; אחרת ההתנהגות אינה מוגדרת, אך עלולה להפגין פחות מחלוקת. |
---|