Clases
Activación <T extiende TNumber > | Clase base abstracta para activaciones Nota: El atributo |
ELU <T extiende TFloating > | Unidad lineal exponencial. |
Exponencial <T extiende TFloating > | Función de activación exponencial. |
HardSigmoid <T extiende TFloating > | Activación sigmoidea dura. |
Lineal <U extiende TNumber > | Función de activación lineal (pass-through). |
ReLU <T extiende TNumber > | Activación de Unidad Lineal Rectificada (ReLU). |
SELU <T extiende TFloating > | Unidad lineal exponencial escalada (SELU). |
Sigmoide <T extiende TFloating > | Activación sigmoidea. |
Softmax <T extiende TFloating > | Softmax convierte un vector real en un vector de probabilidades categóricas. |
Softplus <T extiende TFloating > | Función de activación de Softplus, softplus(x) = log(exp(x) + 1) . |
Softsign <T extiende TFloating > | Función de activación de Softsign, softsign(x) = x / (abs(x) + 1) . |
Swish <T extiende TFloating > | Función de activación por chasquido. |
Tanh <T extiende TFloating > | Función de activación tangente hiperbólica. |