אחזר פרמטרים של הטבעת SGD עם תמיכה באגים.
אופ שמחזיר את פרמטרי האופטימיזציה מהטמעה לזיכרון המארח. יש להקדים את הפעלת ConfigureTPUEmbeddingHost המגדירה את תצורת טבלת ההטמעה הנכונה. לדוגמה, אופציה זו משמשת לאחזור פרמטרים מעודכנים לפני שמירת נקודת ביקורת.
כיתות מקוננות
מעמד | חזור | מאפיינים אופציונליים עבור RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug |
קבועים
חוּט | OP_NAME | השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow |
שיטות ציבוריות
אחזור סטטי TPUEהטבעהStochasticGradientDescentParametersGradAccumDebug.Options | config (תצורת מחרוזת) |
אחזור סטטיTPUEהטבעהStochasticGradient DescentParametersGradAccumDebug | צור ( היקף היקף, numShards ארוך, קטע זיהוי ארוך, אפשרויות... אפשרויות) שיטת מפעל ליצירת מחלקה העוטפת פעולת RetrieveTPUEembeddingStochasticGradientDescentParametersGradAccumDebug. |
פלט < TFloat32 > | gradientAccumulators () פרמטר gradient_accumulators מעודכן על ידי אלגוריתם האופטימיזציה של Adadelta. |
פלט < TFloat32 > | פרמטרים () פרמטרים של פרמטרים מעודכנים על ידי אלגוריתם אופטימיזציית הירידה הסטוכסטית. |
אחזור סטטי TPUEהטבעהStochasticGradientDescentParametersGradAccumDebug.Options | tableId (Long tableId) |
אחזור סטטי TPUEהטבעהStochasticGradientDescentParametersGradAccumDebug.Options | tableName (מחרוזת tableName) |
שיטות בירושה
קבועים
מחרוזת סופית סטטית ציבורית OP_NAME
השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow
שיטות ציבוריות
public static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options config (String config)
public static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug create ( היקף היקף , numShards ארוך, זיהוי קטע ארוך, אפשרויות... אפשרויות)
שיטת מפעל ליצירת מחלקה העוטפת פעולת RetrieveTPUEembeddingStochasticGradientDescentParametersGradAccumDebug.
פרמטרים
תְחוּם | ההיקף הנוכחי |
---|---|
אפשרויות | נושא ערכי תכונות אופציונליות |
החזרות
- מופע חדש של RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug
פלט ציבורי < TFloat32 > gradientAccumulators ()
פרמטר gradient_accumulators מעודכן על ידי אלגוריתם האופטימיזציה של Adadelta.
פלט ציבורי < TFloat32 > פרמטרים ()
פרמטרים של פרמטרים מעודכנים על ידי אלגוריתם אופטימיזציית הירידה הסטוכסטית.