Zajęcia
| Aktywacja <T przedłuża TNumber > | Abstrakcyjna klasa bazowa dla aktywacji Uwaga: Przed wywołaniem metody wywołania należy ustawić atrybut |
| ELU <T rozszerza TFloating > | Wykładnicza jednostka liniowa. |
| Wykładniczy <T rozszerza TFloating > | Wykładnicza funkcja aktywacji. |
| HardSigmoid <T rozszerza TFloating > | Twarda aktywacja esicy. |
| Liniowy <U rozszerza TNumber > | Liniowa funkcja aktywacji (przejściowa). |
| ReLU <T rozszerza TNumer > | Aktywacja rektyfikowanej jednostki liniowej (ReLU). |
| SELU <T rozszerza TFloating > | Skalowana wykładnicza jednostka liniowa (SELU). |
| Sigmoid <T rozszerza TFloating > | Aktywacja sigmoidalna. |
| Softmax <T rozszerza TFloating > | Softmax konwertuje wektor rzeczywisty na wektor prawdopodobieństw kategorycznych. |
| Softplus <T rozszerza TFloating > | Funkcja aktywacji Softplus, softplus(x) = log(exp(x) + 1) . |
| Softsign <T rozszerza TFloating > | Funkcja aktywacji Softsign, softsign(x) = x / (abs(x) + 1) . |
| Swish <T rozszerza TFloating > | Funkcja aktywacji Swish. |
| Tanh <T rozszerza TFloating > | Funkcja aktywacji tangensu hiperbolicznego. |