Función de activación por chasquido. swish(x) = x * sigmoid(x) .
Función de activación Swish que devuelve x*sigmoid(x) . Es una función fluida y no monótona que coincide o supera consistentemente ReLU en redes profundas, no tiene límites arriba ni abajo.
Uso de ejemplo:
Operand<TFloat32> input = tf.constant(new float[]
{-20, -1.0, 0.0, 1.0, 20});
Swish<TFloat32> swish = new Swish<>(tf);
Operand<TFloat32> result = swish.call(input);
// result = [-4.1223075e-08f, -2.6894143e-01f, 0.0000000e+00f,
// 7.3105860e-01f, 2.0000000e+01f ]
Ver también
Constructores Públicos
Swish (Ops tf) Crea una activación Swish, swish(x) = x * sigmoid(x) . |
Métodos públicos
| Operando <T> |
Métodos heredados
Constructores Públicos
Swish público (Ops tf)
Crea una activación Swish, swish(x) = x * sigmoid(x) .
Función de activación Swish que devuelve x*sigmoid(x) . Es una función fluida y no monótona que coincide o supera consistentemente a ReLU en redes profundas, no tiene límites arriba ni abajo.
Parámetros
| tf | las operaciones de TensorFlow |
|---|
Métodos públicos
Llamada pública de operando <T> (entrada de operando <T>)
Obtiene la operación de cálculo para la activación.
Parámetros
| aporte | el tensor de entrada |
|---|
Devoluciones
- El operando para la activación.