org.tensorflow.framework.activations

שיעורים

הפעלה <T מרחיבה את TNummer > כיתת בסיס מופשטת עבור Activations

הערה: יש להגדיר את התכונה ERROR(/#tf) לפני הפעלת שיטת הקריאה.

ELU <T מרחיב TFLoating > יחידה לינארית מעריכית.
אקספוננציאלי <T מרחיב את TFLoating > פונקציית הפעלה אקספוננציאלית.
HardSigmoid <T מרחיב TFLoating > הפעלת סיגמואידית קשה.
ליניארי <U מרחיב את TNummer > פונקציית הפעלה לינארית (מעבר).
ReLU <T מרחיב את TNummer > הפעלה של יחידה לינארית מתוקנת (ReLU).
SELU <T מרחיב TFLoating > יחידה לינארית מעריכית בקנה מידה (SELU).
Sigmoid <T מרחיב TFLoating > הפעלת סיגמואיד.
Softmax <T מרחיב TFLoating > Softmax ממירה וקטור אמיתי לוקטור של הסתברויות קטגוריות.
Softplus <T מרחיב את TFLoating > פונקציית הפעלה של Softplus, softplus(x) = log(exp(x) + 1) .
Softsign <T מרחיב TFLoating > פונקציית הפעלת Softsign, softsign(x) = x / (abs(x) + 1) .
Swish <T מרחיב TFLoating > פונקציית הפעלת Swish.
Tanh <T מרחיב TFLoating > פונקציית הפעלת משנג היפרבולית.