Softplus di classe pubblica
Funzione di attivazione di Softplus, softplus(x) = log(exp(x) + 1)
.
Esempio di utilizzo:
Operand<TFloat32> input = tf.constant( new float[] {-20f, -1.0f, 0.0f, 1.0f, 20f}); Softplus<TFloat32> softplus = new Softplus<>(tf); Operand<TFloat32> result = softplus.call(input); // result is [2.0611537e-09f, 3.1326166e-01f, 6.9314718e-01f, // 1.3132616e+00f, 2.0000000e+01f]
Costruttori pubblici
Softplus (Ops tf) Crea una funzione di attivazione Softplus. |
Metodi pubblici
Operando <T> |
Metodi ereditati
Costruttori pubblici
Softplus pubblico (Ops tf)
Crea una funzione di attivazione Softplus.
Parametri
tf | le operazioni TensorFlow |
---|
Metodi pubblici
Chiamata pubblica dell'operando <T> (ingresso dell'operando <T>)
Ottiene l'operazione di calcolo per l'attivazione.
Parametri
ingresso | il tensore di ingresso |
---|
Ritorni
- L'operando per l'attivazione