org.tensorflow.framework.activations

Clases

Activación <T extiende TNumber > Clase base abstracta para activaciones

Nota: El atributo ERROR(/#tf) debe establecerse antes de invocar el método de llamada.

ELU <T extiende TFloating > Unidad lineal exponencial.
Exponencial <T extiende TF flotante > Función de activación exponencial.
HardSigmoid <T extiende TF flotante > Activación sigmoidea dura.
Lineal <U extiende TNumber > Función de activación lineal (pass-through).
ReLU <T extiende TNumber > Activación de unidad lineal rectificada (ReLU).
SELU <T extiende TFloating > Unidad lineal exponencial escalada (SELU).
Sigmoide <T extiende TF flotante > Activación sigmoidea.
Softmax <T extiende TFloating > Softmax convierte un vector real en un vector de probabilidades categóricas.
Softplus <T extiende TFloating > Función de activación softplus, softplus(x) = log(exp(x) + 1) .
Softsign <T extiende TFloating > Función de activación de softsign, softsign(x) = x / (abs(x) + 1) .
Swish <T extiende TF flotante > Función de activación swish.
Tanh <T extiende TF flotante > Función de activación de la tangente hiperbólica.