Clases
| Activación <T extiende TNumber > | Clase base abstracta para activaciones Nota: El atributo |
| ELU <T extiende TFloating > | Unidad lineal exponencial. |
| Exponencial <T extiende TFloating > | Función de activación exponencial. |
| HardSigmoid <T extiende TFloating > | Activación sigmoidea dura. |
| Lineal <U extiende TNumber > | Función de activación lineal (pass-through). |
| ReLU <T extiende TNumber > | Activación de Unidad Lineal Rectificada (ReLU). |
| SELU <T extiende TFloating > | Unidad lineal exponencial escalada (SELU). |
| Sigmoide <T extiende TFloating > | Activación sigmoidea. |
| Softmax <T extiende TFloating > | Softmax convierte un vector real en un vector de probabilidades categóricas. |
| Softplus <T extiende TFloating > | Función de activación de Softplus, softplus(x) = log(exp(x) + 1) . |
| Softsign <T extiende TFloating > | Función de activación de Softsign, softsign(x) = x / (abs(x) + 1) . |
| Swish <T extiende TFloating > | Función de activación por chasquido. |
| Tanh <T extiende TFloating > | Función de activación tangente hiperbólica. |