classe publique Softplus
Fonction d'activation Softplus, softplus(x) = log(exp(x) + 1)
.
Exemple d'utilisation :
Operand<TFloat32> input = tf.constant( new float[] {-20f, -1.0f, 0.0f, 1.0f, 20f}); Softplus<TFloat32> softplus = new Softplus<>(tf); Operand<TFloat32> result = softplus.call(input); // result is [2.0611537e-09f, 3.1326166e-01f, 6.9314718e-01f, // 1.3132616e+00f, 2.0000000e+01f]
Constructeurs Publics
Softplus (Ops tf) Crée une fonction d'activation Softplus. |
Méthodes publiques
Opérande <T> |
Méthodes héritées
Constructeurs Publics
public Softplus (Ops tf)
Crée une fonction d'activation Softplus.
Paramètres
tf | les opérations TensorFlow |
---|
Méthodes publiques
Appel d'opérande public <T> (entrée d'opérande <T>)
Obtient l’opération de calcul pour l’activation.
Paramètres
saisir | le tenseur d'entrée |
---|
Retours
- L'opérande d'activation