classe publique Softplus
Fonction d'activation Softplus, softplus(x) = log(exp(x) + 1) .
Exemple d'utilisation :
Operand<TFloat32> input = tf.constant(
new float[] {-20f, -1.0f, 0.0f, 1.0f, 20f});
Softplus<TFloat32> softplus = new Softplus<>(tf);
Operand<TFloat32> result = softplus.call(input);
// result is [2.0611537e-09f, 3.1326166e-01f, 6.9314718e-01f,
// 1.3132616e+00f, 2.0000000e+01f]
Constructeurs Publics
Softplus (Ops tf) Crée une fonction d'activation Softplus. |
Méthodes publiques
| Opérande <T> |
Méthodes héritées
Constructeurs Publics
public Softplus (Ops tf)
Crée une fonction d'activation Softplus.
Paramètres
| tf | les opérations TensorFlow |
|---|
Méthodes publiques
Appel d'opérande public <T> (entrée d'opérande <T>)
Obtient l’opération de calcul pour l’activation.
Paramètres
| saisir | le tenseur d'entrée |
|---|
Retours
- L'opérande d'activation