Zajęcia
Aktywacja <T przedłuża TNumber > | Abstrakcyjna klasa bazowa dla aktywacji Uwaga: Przed wywołaniem metody wywołania należy ustawić atrybut |
ELU <T rozszerza TFloating > | Wykładnicza jednostka liniowa. |
Wykładniczy <T rozszerza TFloating > | Wykładnicza funkcja aktywacji. |
HardSigmoid <T rozszerza TFloating > | Twarda aktywacja esicy. |
Liniowy <U rozszerza TNumber > | Liniowa funkcja aktywacji (przejściowa). |
ReLU <T rozszerza TNumer > | Aktywacja rektyfikowanej jednostki liniowej (ReLU). |
SELU <T rozszerza TFloating > | Skalowana wykładnicza jednostka liniowa (SELU). |
Sigmoid <T rozszerza TFloating > | Aktywacja sigmoidalna. |
Softmax <T rozszerza TFloating > | Softmax konwertuje wektor rzeczywisty na wektor prawdopodobieństw kategorycznych. |
Softplus <T rozszerza TFloating > | Funkcja aktywacji Softplus, softplus(x) = log(exp(x) + 1) . |
Softsign <T rozszerza TFloating > | Funkcja aktywacji Softsign, softsign(x) = x / (abs(x) + 1) . |
Swish <T rozszerza TFloating > | Funkcja aktywacji Swish. |
Tanh <T rozszerza TFloating > | Funkcja aktywacji tangensu hiperbolicznego. |