Softplus di classe pubblica
Funzione di attivazione di Softplus, softplus(x) = log(exp(x) + 1) .
Esempio di utilizzo:
Operand<TFloat32> input = tf.constant(
new float[] {-20f, -1.0f, 0.0f, 1.0f, 20f});
Softplus<TFloat32> softplus = new Softplus<>(tf);
Operand<TFloat32> result = softplus.call(input);
// result is [2.0611537e-09f, 3.1326166e-01f, 6.9314718e-01f,
// 1.3132616e+00f, 2.0000000e+01f]
Costruttori pubblici
Softplus (Ops tf) Crea una funzione di attivazione Softplus. |
Metodi pubblici
| Operando <T> |
Metodi ereditati
Costruttori pubblici
Softplus pubblico (Ops tf)
Crea una funzione di attivazione Softplus.
Parametri
| tf | le operazioni TensorFlow |
|---|
Metodi pubblici
Chiamata pubblica dell'operando <T> (ingresso dell'operando <T>)
Ottiene l'operazione di calcolo per l'attivazione.
Parametri
| ingresso | il tensore di ingresso |
|---|
Ritorni
- L'operando per l'attivazione