Classi
| L'attivazione <T estende TNumero > | Classe base astratta per le attivazioni Nota: l'attributo |
| ELU <T estende TFloating > | Unità lineare esponenziale. |
| Esponenziale <T estende TFloating > | Funzione di attivazione esponenziale. |
| HardSigmoid <T estende TFloating > | Attivazione sigmoidea dura. |
| Lineare <U estende TNumero > | Funzione di attivazione lineare (pass-through). |
| ReLU <T estende TNumero > | Attivazione dell'Unità Lineare Rettificata (ReLU). |
| SELU <T estende TFloating > | Unità lineare esponenziale scalata (SELU). |
| Sigmoide <T estende TFfloating > | Attivazione del sigmoide. |
| Softmax <T estende TFloating > | Softmax converte un vettore reale in un vettore di probabilità categoriali. |
| Softplus <T estende TFloating > | Funzione di attivazione di Softplus, softplus(x) = log(exp(x) + 1) . |
| Softsign <T estende TFloating > | Funzione di attivazione softsign, softsign(x) = x / (abs(x) + 1) . |
| Swish <T estende TFloating > | Funzione di attivazione swish. |
| Tanh <T estende TFloating > | Funzione di attivazione della tangente iperbolica. |