کلاس ها
| فعالسازی <T تعداد TNumber را گسترش میدهد | کلاس پایه انتزاعی برای Activations توجه: ویژگی |
| ELU <T TFloating > را گسترش می دهد | واحد خطی نمایی |
| نمایی <T TFloating > را گسترش می دهد | تابع فعال سازی نمایی |
| HardSigmoid <T TFloating > را گسترش می دهد | فعال سازی سخت سیگموئید |
| خطی <U گسترش TNumber > | تابع فعال سازی خطی (عبور). |
| ReLU <T TNumber > را گسترش می دهد | فعال سازی واحد خطی اصلاح شده (ReLU). |
| SELU <T TFloating > را گسترش می دهد | واحد خطی نمایی مقیاس شده (SELU). |
| Sigmoid <T TFloating > را گسترش می دهد | فعال سازی سیگموئید |
| Softmax <T TFloating > را گسترش می دهد | سافت مکس یک بردار واقعی را به بردار احتمالات طبقه ای تبدیل می کند. |
| Softplus <T TFloating > را گسترش می دهد | تابع فعال سازی Softplus، softplus(x) = log(exp(x) + 1) . |
| Softsign <T TFloating را گسترش می دهد | تابع فعالسازی Softsign، softsign(x) = x / (abs(x) + 1) . |
| Swish <T TFloating > را گسترش می دهد | عملکرد فعال سازی Swish. |
| Tanh <T گسترش TFloating > | تابع فعال سازی مماس هایپربولیک. |