공개 수업 소프트플러스
Softplus 활성화 함수, softplus(x) = log(exp(x) + 1)
.
사용 예:
Operand<TFloat32> input = tf.constant( new float[] {-20f, -1.0f, 0.0f, 1.0f, 20f}); Softplus<TFloat32> softplus = new Softplus<>(tf); Operand<TFloat32> result = softplus.call(input); // result is [2.0611537e-09f, 3.1326166e-01f, 6.9314718e-01f, // 1.3132616e+00f, 2.0000000e+01f]
공공 생성자
공개 소프트플러스 (Ops tf)
Softplus 활성화 함수를 생성합니다.
매개변수
tf | TensorFlow 작업 |
---|