org.tensorflow.framework.activations

Des classes

Activation <T étend TNumber > Classe de base abstraite pour les activations

Remarque : L'attribut ERROR(/#tf) doit être défini avant d'appeler la méthode d'appel.

ELU <T étend TFloating > Unité linéaire exponentielle.
Exponentiel <T étend TFloating > Fonction d'activation exponentielle.
HardSigmoid <T étend TFloating > Activation sigmoïde dure.
Linéaire <U étend TNumber > Fonction d'activation linéaire (pass-through).
ReLU <T étend TNumber > Activation de l'unité linéaire rectifiée (ReLU).
SELU <T étend TFloating > Unité linéaire exponentielle mise à l'échelle (SELU).
Sigmoïde <T étend TFlotant > Activation sigmoïde.
Softmax <T étend TFloating > Softmax convertit un vecteur réel en vecteur de probabilités catégorielles.
Softplus <T étend TFloating > Fonction d'activation Softplus, softplus(x) = log(exp(x) + 1) .
Softsign <T étend TFloating > Fonction d'activation Softsign, softsign(x) = x / (abs(x) + 1) .
Swish <T étend TFloating > Fonction d'activation Swish.
Tanh <T étend TFloating > Fonction d'activation de la tangente hyperbolique.