ApplyAdagradV2

כיתת גמר ציבורית החל AdagradV2

עדכן את '*var' בהתאם לתכנית adgrad.

accum += grad * grad var -= lr * grad * (1 / sqrt(accum))

כיתות מקוננות

מעמד החלAdagradV2.Options תכונות אופציונליות עבור ApplyAdagradV2

קבועים

חוּט OP_NAME השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow

שיטות ציבוריות

פלט <T>
asOutput ()
מחזירה את הידית הסמלית של הטנזור.
סטטי <T מרחיב את TType > ApplyAdagradV2 <T>
create ( scope scope, Operand <T> var, Operand <T> accum, Operand <T> lr, Operand <T> epsilon, Operand <T> grad, Options... options)
שיטת מפעל ליצירת מחלקה העוטפת פעולת ApplyAdagradV2 חדשה.
פלט <T>
החוצה ()
זהה ל-"var".
סטטי ApplyAdagradV2.Options
updateSlots (בוליאני updateSlots)
סטטי ApplyAdagradV2.Options
useLocking (useLocking בוליאני)

שיטות בירושה

קבועים

מחרוזת סופית סטטית ציבורית OP_NAME

השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow

ערך קבוע: "ApplyAdagradV2"

שיטות ציבוריות

פלט ציבורי <T> asOutput ()

מחזירה את הידית הסמלית של הטנזור.

כניסות לפעולות TensorFlow הן יציאות של פעולת TensorFlow אחרת. שיטה זו משמשת להשגת ידית סמלית המייצגת את חישוב הקלט.

public static ApplyAdagradV2 <T> create ( Scope scope, Operand <T> var, Operand <T> accum, Operand <T> lr, Operand <T> epsilon, Operand <T> grad, Options... options)

שיטת מפעל ליצירת מחלקה העוטפת פעולת ApplyAdagradV2 חדשה.

פרמטרים
תְחוּם ההיקף הנוכחי
var צריך להיות ממשתנה().
לצבור צריך להיות ממשתנה().
lr גורם קנה מידה. חייב להיות סקלר.
אפסילון גורם קבוע. חייב להיות סקלר.
גראד השיפוע.
אפשרויות נושא ערכי תכונות אופציונליות
החזרות
  • מופע חדש של ApplyAdagradV2

פלט ציבורי <T> החוצה ()

זהה ל-"var".

סטטי ציבורי ApplyAdagradV2.Options updateSlots (בוליאני updateSlots)

public static ApplyAdagradV2.Options useLocking (Boolian useLocking)

פרמטרים
השתמש בנעילה אם 'נכון', עדכון טנסור ה- var ו-acum יהיה מוגן על ידי מנעול; אחרת ההתנהגות אינה מוגדרת, אך עלולה להפגין פחות מחלוקת.