Các lớp học
| Kích hoạt <T mở rộng TNumber > | Lớp cơ sở trừu tượng cho Kích hoạt Lưu ý: Thuộc tính |
| ELU <T mở rộng TFloating > | Đơn vị tuyến tính hàm mũ. |
| Hàm mũ <T mở rộng TFloating > | Hàm kích hoạt theo cấp số nhân. |
| HardSigmoid <T mở rộng TFloating > | Kích hoạt sigmoid cứng. |
| Tuyến tính <U mở rộng TNumber > | Hàm kích hoạt tuyến tính (truyền qua). |
| ReLU <T mở rộng TNumber > | Kích hoạt Đơn vị Tuyến tính Chỉnh lưu (ReLU). |
| SELU <T mở rộng TFloating > | Đơn vị tuyến tính hàm mũ theo tỷ lệ (SELU). |
| Sigmoid <T mở rộng TFloating > | Kích hoạt sigmoid. |
| Softmax <T mở rộng TFloating > | Softmax chuyển đổi một vectơ thực thành một vectơ có xác suất phân loại. |
| Softplus <T mở rộng TFloating > | Hàm kích hoạt Softplus, softplus(x) = log(exp(x) + 1) . |
| Softsign <T mở rộng TFloating > | Hàm kích hoạt softsign, softsign(x) = x / (abs(x) + 1) . |
| Swish <T mở rộng TFloating > | Chức năng kích hoạt Swish. |
| Tính <T kéo dài TFloating > | Hàm kích hoạt tiếp tuyến hyperbol. |