אזהרה: API זו ברמה נמוכה יוסרה בגרסה עתידית של TensorFlow לאחר ההחלפה יציבה.

SparseApplyAdagradV2

כיתת גמר ציבורית SparseApplyAdagradV2

עדכן את הערכים הרלוונטיים ב-'*var' ו-'*accum' בהתאם לתכנית adgrad.

כלומר עבור שורות שיש לנו גראד עבורן, אנו מעדכנים את var וצוברים באופן הבא: $$accum += grad * grad$$$$var -= lr * grad * (1 / sqrt(accum))$$

כיתות מקוננות

מעמד SparseApplyAdagradV2.Options תכונות אופציונליות עבור SparseApplyAdagradV2

שיטות ציבוריות

פלט <T>
asOutput ()
מחזירה את הידית הסמלית של טנזור.
סטטי <T, U מרחיב מספר> SparseApplyAdagradV2 <T>
create ( scope scope, Operand <T> var, Operand <T> accum, Operand <T> lr, Operand <T> epsilon, Operand <T> grad, Operand <U>, Options... options)
שיטת מפעל ליצירת מחלקה העוטפת פעולת SparseApplyAdagradV2 חדשה.
פלט <T>
החוצה ()
זהה ל-"var".
סטטי SparseApplyAdagradV2.Options
updateSlots (UpdateSlots בוליאני)
סטטי SparseApplyAdagradV2.Options
useLocking (useLocking בוליאני)

שיטות בירושה

שיטות ציבוריות

פלט ציבורי <T> asOutput ()

מחזירה את הידית הסמלית של טנזור.

כניסות לפעולות TensorFlow הן פלט של פעולת TensorFlow אחרת. שיטה זו משמשת לקבלת ידית סמלית המייצגת את חישוב הקלט.

public static SparseApplyAdagradV2 <T> create ( scope scope, Operand <T> var, Operand <T> accum, Operand <T> lr, Operand <T> epsilon, Operand <T> grad, Operand <U>, Options.. . אפשרויות)

שיטת מפעל ליצירת מחלקה העוטפת פעולת SparseApplyAdagradV2 חדשה.

פרמטרים
תְחוּם ההיקף הנוכחי
var צריך להיות ממשתנה().
לצבור צריך להיות ממשתנה().
lr קצב למידה. חייב להיות סקלר.
אפסילון גורם קבוע. חייב להיות סקלר.
גראד השיפוע.
מדדים וקטור של מדדים למימד הראשון של var ו-acum.
אפשרויות נושא ערכי תכונות אופציונליות
החזרות
  • מופע חדש של SparseApplyAdagradV2

פלט ציבורי <T> החוצה ()

זהה ל-"var".

סטטי ציבורי SparseApplyAdagradV2 . Options updateSlots (Slots updates בוליאני)

public static SparseApplyAdagradV2.Options useLocking (שימוש בוליאני)

פרמטרים
השתמש בנעילה אם 'נכון', עדכון של טנסור ה-var ו-acum יהיה מוגן על ידי מנעול; אחרת ההתנהגות אינה מוגדרת, אך עלולה להפגין פחות מחלוקת.