אחזר פרמטרי הטבעה פרוקסימליים של Adagrad עם תמיכה באגים.
אופ שמחזיר את פרמטרי האופטימיזציה מהטמעה לזיכרון המארח. יש להקדים את הפעלת ConfigureTPUEmbeddingHost המגדירה את תצורת טבלת ההטמעה הנכונה. לדוגמה, אופציה זו משמשת לאחזור פרמטרים מעודכנים לפני שמירת נקודת ביקורת.
כיתות מקוננות
מעמד | חזור | מאפיינים אופציונליים עבור RetrieveTPUEmbeddingProximalAdagradParametersGradAccumDebug |
קבועים
חוּט | OP_NAME | השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow |
שיטות ציבוריות
פלט < TFloat32 > | מצברים () מצברי פרמטרים מעודכנים על ידי אלגוריתם האופטימיזציה הפרוקסימלי של Adagrad. |
אחזור סטטיTPUEהטבעה פרוקסימליAdagradParametersGradAccumDebug.Options | config (תצורת מחרוזת) |
אחזור סטטיTPUEהטבעה פרוקסימליAdagradParametersGradAccumDebug | צור ( היקף היקף, numShards ארוך, קטע זיהוי ארוך, אפשרויות... אפשרויות) שיטת מפעל ליצירת מחלקה העוטפת פעולת RetrieveTPUEmbeddingProximalAdagradParametersGradAccumDebug חדשה. |
פלט < TFloat32 > | gradientAccumulators () פרמטר gradient_accumulators מעודכן על ידי אלגוריתם האופטימיזציה הפרוקסימלי של Adagrad. |
פלט < TFloat32 > | פרמטרים () פרמטרים של פרמטרים מעודכנים על ידי אלגוריתם האופטימיזציה הפרוקסימלי של Adagrad. |
אחזור סטטיTPUEהטבעה פרוקסימליAdagradParametersGradAccumDebug.Options | tableId (Long tableId) |
אחזור סטטיTPUEהטבעה פרוקסימליAdagradParametersGradAccumDebug.Options | tableName (מחרוזת tableName) |
שיטות בירושה
קבועים
מחרוזת סופית סטטית ציבורית OP_NAME
השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow
שיטות ציבוריות
פלט ציבורי < TFloat32 > מצברים ()
מצברי פרמטרים מעודכנים על ידי אלגוריתם האופטימיזציה הפרוקסימלי של Adagrad.
public static RetrieveTPUEmbeddingProximalAdagradParametersGradAccumDebug.Options config (String config)
public static RetrieveTPUEmbeddingProximalAdagradParametersGradAccumDebug create ( היקף היקף, numShards ארוך, זיהוי קטע ארוך, אפשרויות... אפשרויות)
שיטת מפעל ליצירת מחלקה העוטפת פעולת RetrieveTPUEmbeddingProximalAdagradParametersGradAccumDebug חדשה.
פרמטרים
תְחוּם | ההיקף הנוכחי |
---|---|
אפשרויות | נושא ערכי תכונות אופציונליות |
החזרות
- מופע חדש של RetrieveTPUEmbeddingProximalAdagradParametersGradAccumDebug
פלט ציבורי < TFloat32 > gradientAccumulators ()
פרמטר gradient_accumulators מעודכן על ידי אלגוריתם האופטימיזציה הפרוקסימלי של Adagrad.
פלט ציבורי < TFloat32 > פרמטרים ()
פרמטרים של פרמטרים מעודכנים על ידי אלגוריתם האופטימיזציה הפרוקסימלי של Adagrad.