עדכן ערכים רלוונטיים ב-'*var' ו-'*accum' בהתאם לתכנית המומנטום.
הגדר use_nesterov = True אם אתה רוצה להשתמש במומנטום Nesterov.
כלומר, עבור שורות שיש לנו גראד עבורן, אנו מעדכנים את var ומצטברים באופן הבא:
$$accum = accum * momentum + grad$$$$var -= lr * accum$$
כיתות מקוננות
| מַחלָקָה | SparseApplyMomentum.אפשרויות | תכונות אופציונליות עבור SparseApplyMomentum | |
קבועים
| חוּט | OP_NAME | השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow | 
שיטות ציבוריות
| פלט <T> |  asOutput ()  מחזירה את הידית הסמלית של הטנזור. | 
| סטטי <T מרחיב את TType > SparseApplyMomentum <T> |  create ( scope scope, Operand <T> var, Operand <T> accum, Operand <T> lr, Operand <T> grad, Operand <? מרחיב את המדדים של Tnumber >, המומנטום של Operand <T>, אפשרויות... אפשרויות)  שיטת מפעל ליצירת מחלקה העוטפת פעולת SparseApplyMomentum חדשה. | 
| פלט <T> |  החוצה ()  זהה ל-"var". | 
| סטטי SparseApplyMomentum.Options |  useLocking (useLocking בוליאני) | 
| סטטי SparseApplyMomentum.Options |  useNesterov (בוליאני useNesterov)  | 
שיטות בירושה
קבועים
מחרוזת סופית סטטית ציבורית OP_NAME
השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow
שיטות ציבוריות
פלט ציבורי <T> asOutput ()
מחזירה את הידית הסמלית של הטנזור.
כניסות לפעולות TensorFlow הן יציאות של פעולת TensorFlow אחרת. שיטה זו משמשת להשגת ידית סמלית המייצגת את חישוב הקלט.
public static SparseApplyMomentum <T> create ( scope scope, Operand <T> var, Operand <T> accum, Operand <T> lr, Operand <T> grad, Operand <? מרחיב את המדדים TNummer , Operand <T> מומנטום, אפשרויות ... אפשרויות)
שיטת מפעל ליצירת מחלקה העוטפת פעולת SparseApplyMomentum חדשה.
פרמטרים
| תְחוּם | ההיקף הנוכחי | 
|---|---|
| var | צריך להיות ממשתנה(). | 
| לצבור | צריך להיות ממשתנה(). | 
| lr | קצב למידה. חייב להיות סקלר. | 
| גראד | השיפוע. | 
| מדדים | וקטור של מדדים למימד הראשון של var ו-acum. | 
| תְנוּפָה | תְנוּפָה. חייב להיות סקלר. | 
| אפשרויות | נושא ערכי תכונות אופציונליות | 
מחזיר
- מופע חדש של SparseApplyMomentum
סטטי ציבורי SparseApplyMomentum. אפשרויות useLocking (שימוש בוליאני)
פרמטרים
| השתמש בנעילה | אם 'נכון', עדכון טנסור ה- var ו-acum יהיה מוגן על ידי מנעול; אחרת ההתנהגות אינה מוגדרת, אך עלולה להפגין פחות מחלוקת. | 
|---|
סטטי ציבורי SparseApplyMomentum. אפשרויות useNesterov (בוליאני useNesterov)
פרמטרים
| השתמש ב-Nesterov | אם 'נכון', הטנזור שיעבור לחישוב גראד יהיה var - lr * מומנטום * accum, אז בסופו של דבר, ה-var שאתה מקבל הוא למעשה var - lr * מומנטום * accum. | 
|---|