כיתת גמר ציבורית SparseApplyAdagradDa
עדכן ערכים ב-'*var' ו-'*accum' בהתאם לתכנית ה-adagrad הפרוקסימלית.
כיתות מקוננות
| מעמד | SparseApplyAdagradDa.Options | תכונות אופציונליות עבור SparseApplyAdagradDa | |
קבועים
| חוּט | OP_NAME | השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow |
שיטות ציבוריות
| פלט <T> | asOutput () מחזירה את הידית הסמלית של הטנזור. |
| סטטי <T מרחיב את TType > SparseApplyAdagradDa <T> | create ( Scope scope, Operand <T> var, Operand <T> gradientAccumulator, Operand <T> gradientSquaredAccumulator, Operand <T> grad, Operand <? מרחיב את המדדים של TNumber >, Operand <T> lr, Operand <T> l1, Operand <T> l2, Operand < TInt64 > globalStep, Options... options) שיטת מפעל ליצירת מחלקה העוטפת פעולת SparseApplyAdagradDa חדשה. |
| פלט <T> | החוצה () זהה ל-"var". |
| סטטי SparseApplyAdagradDa.Options | useLocking (useLocking בוליאני) |
שיטות בירושה
קבועים
מחרוזת סופית סטטית ציבורית OP_NAME
השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow
ערך קבוע: "SparseApplyAdagradDA"
שיטות ציבוריות
פלט ציבורי <T> asOutput ()
מחזירה את הידית הסמלית של הטנזור.
כניסות לפעולות TensorFlow הן יציאות של פעולת TensorFlow אחרת. שיטה זו משמשת להשגת ידית סמלית המייצגת את חישוב הקלט.
public static SparseApplyAdagradDa <T> create ( Scope scope, Operand <T> var, Operand <T> gradientAccumulator, Operand <T> gradientSquaredAccumulator, Operand <T> grad, Operand <? מרחיב את המדדים של Tnumber >, Operand <T> lr, Operand <T> l1, Operand <T> l2, Operand < TInt64 > globalStep, Options... options)
שיטת מפעל ליצירת מחלקה העוטפת פעולת SparseApplyAdagradDa חדשה.
פרמטרים
| תְחוּם | ההיקף הנוכחי |
|---|---|
| var | צריך להיות ממשתנה(). |
| gradientAccumulator | צריך להיות ממשתנה(). |
| gradientSquaredAccumulator | צריך להיות ממשתנה(). |
| גראד | השיפוע. |
| מדדים | וקטור של מדדים למימד הראשון של var ו-acum. |
| lr | קצב למידה. חייב להיות סקלר. |
| l1 | הסדרת L1. חייב להיות סקלר. |
| l2 | הסדרת L2. חייב להיות סקלר. |
| globalStep | מספר שלב האימון. חייב להיות סקלר. |
| אפשרויות | נושא ערכי תכונות אופציונליות |
החזרות
- מופע חדש של SparseApplyAdagradDa
סטטי ציבורי SparseApplyAdagradDa. אפשרויות useLocking (שימוש בוליאני)
פרמטרים
| השתמש בנעילה | אם נכון, עדכון טנסור ה- var ו-acum יהיה מוגן על ידי מנעול; אחרת ההתנהגות אינה מוגדרת, אך עלולה להפגין פחות מחלוקת. |
|---|