org.tensorflow.framework.activations

Aulas

Ativação <T estende TNumber > Classe base abstrata para ativações

Nota: O atributo ERROR(/#tf) deve ser definido antes de invocar o método de chamada.

ELU <T estende TFloating > Unidade linear exponencial.
Exponencial <T extends TFloating > Função de ativação exponencial.
HardSigmoid <T extends TFloating > Ativação sigmóide dura.
Linear <U estende TNumber > Função de ativação linear (passagem).
ReLU <T extends TNumber > Ativação da unidade linear retificada (ReLU).
SELU <T extends TFloating > Unidade linear exponencial com escala (SELU).
Sigmóide <T extends TFloating > Ativação sigmóide.
Softmax <T extends TFloating > Softmax converte um vetor real em um vetor de probabilidades categóricas.
Softplus <T extends TFloating > Função de ativação do Softplus, softplus(x) = log(exp(x) + 1) .
Softsign <T extends TFloating > Função de ativação do softsign, softsign(x) = x / (abs(x) + 1) .
Swish <T extends TFloating > Função de ativação Swish.
Tanh <T estende TFloating > Função de ativação tangente hiperbólica.