org.tensorflow.framework.activations

Classi

L'attivazione <T estende TNumero > Classe base astratta per le attivazioni

Nota: l'attributo ERROR(/#tf) deve essere impostato prima di richiamare il metodo di chiamata.

ELU <T estende TFloating > Unità lineare esponenziale.
Esponenziale <T estende TFloating > Funzione di attivazione esponenziale.
HardSigmoid <T estende TFloating > Attivazione sigmoidea dura.
Lineare <U estende TNumero > Funzione di attivazione lineare (pass-through).
ReLU <T estende TNumero > Attivazione dell'Unità Lineare Rettificata (ReLU).
SELU <T estende TFloating > Unità lineare esponenziale scalata (SELU).
Sigmoide <T estende TFfloating > Attivazione del sigmoide.
Softmax <T estende TFloating > Softmax converte un vettore reale in un vettore di probabilità categoriali.
Softplus <T estende TFloating > Funzione di attivazione di Softplus, softplus(x) = log(exp(x) + 1) .
Softsign <T estende TFloating > Funzione di attivazione softsign, softsign(x) = x / (abs(x) + 1) .
Swish <T estende TFloating > Funzione di attivazione swish.
Tanh <T estende TFloating > Funzione di attivazione della tangente iperbolica.