Função de ativação Swish. swish(x) = x * sigmoid(x)
.
Função de ativação Swish que retorna x*sigmoid(x)
. É uma função suave e não monotônica que corresponde ou supera consistentemente o ReLU
em redes profundas; ela é ilimitada acima e limitada abaixo.
Exemplo de uso:
Operand<TFloat32> input = tf.constant(new float[] {-20, -1.0, 0.0, 1.0, 20}); Swish<TFloat32> swish = new Swish<>(tf); Operand<TFloat32> result = swish.call(input); // result = [-4.1223075e-08f, -2.6894143e-01f, 0.0000000e+00f, // 7.3105860e-01f, 2.0000000e+01f ]
Veja também
Construtores Públicos
Swish (Ops tf) Cria uma ativação Swish, swish(x) = x * sigmoid(x) . |
Métodos Públicos
Operando <T> |
Métodos herdados
Construtores Públicos
Swish público (Ops tf)
Cria uma ativação Swish, swish(x) = x * sigmoid(x)
.
Função de ativação Swish que retorna x*sigmoid(x)
. É uma função suave e não monotônica que corresponde ou supera consistentemente o ReLU em redes profundas; ela é ilimitada acima e limitada abaixo.
Parâmetros
tf | o TensorFlow Ops |
---|