ResourceSparseApplyAdagradV2

מחלקה סופית ציבורית ResourceSparseApplyAdagradV2

עדכן את הערכים הרלוונטיים ב-'*var' ו-'*accum' בהתאם לתכנית adgrad.

כלומר עבור שורות שיש לנו גראד עבורן, אנו מעדכנים את var ו-acum באופן הבא: accum += grad * grad var -= lr * grad * (1 / sqrt(accum))

כיתות מקוננות

מעמד ResourceSparseApplyAdagradV2.Options תכונות אופציונליות עבור ResourceSparseApplyAdagradV2

קבועים

חוּט OP_NAME השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow

שיטות ציבוריות

static <T מרחיב את TType > ResourceSparseApplyAdagradV2
create ( scope scope, Operand <?> var, Operand <?> accum, Operand <T> lr, Operand <T> epsilon, Operand <T> grad, Operand <? מרחיב את המדדים של TNummer , Options... אפשרויות)
שיטת מפעל ליצירת מחלקה העוטפת פעולת ResourceSparseApplyAdagradV2 חדשה.
static ResourceSparseApplyAdagradV2.Options
updateSlots (בוליאני updateSlots)
static ResourceSparseApplyAdagradV2.Options
useLocking (useLocking בוליאני)

שיטות בירושה

קבועים

מחרוזת סופית סטטית ציבורית OP_NAME

השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow

ערך קבוע: "ResourceSparseApplyAdagradV2"

שיטות ציבוריות

public static ResourceSparseApplyAdagradV2 create ( Scope scope, Operand <?> var, Operand <?> accum, Operand <T> lr, Operand <T> epsilon, Operand <T> grad, Operand <? מרחיב את המדדים של TNummer , Options... אפשרויות)

שיטת מפעל ליצירת מחלקה העוטפת פעולת ResourceSparseApplyAdagradV2 חדשה.

פרמטרים
תְחוּם ההיקף הנוכחי
var צריך להיות ממשתנה().
לצבור צריך להיות ממשתנה().
lr קצב למידה. חייב להיות סקלר.
אפסילון גורם קבוע. חייב להיות סקלר.
גראד השיפוע.
מדדים וקטור של מדדים למימד הראשון של var ו-acum.
אפשרויות נושא ערכי תכונות אופציונליות
החזרות
  • מופע חדש של ResourceSparseApplyAdagradV2

public static ResourceSparseApplyAdagradV2. Options updateSlots (Slots updates בוליאני)

public static ResourceSparseApplyAdagradV2.Options useLocking (שימוש בוליאני)

פרמטרים
השתמש בנעילה אם 'נכון', עדכון טנסור ה- var ו-acum יהיה מוגן על ידי מנעול; אחרת ההתנהגות אינה מוגדרת, אך עלולה להפגין פחות מחלוקת.