공개 수업 스위시
Swish 활성화 기능. swish(x) = x * sigmoid(x)
.
x*sigmoid(x)
반환하는 Swish 활성화 함수입니다. 이는 심층 네트워크에서 ReLU
지속적으로 일치하거나 성능이 뛰어난 부드럽고 비단조적인 함수이며, 위쪽에는 제한이 없고 아래쪽에는 제한이 없습니다.
사용 예:
Operand<TFloat32> input = tf.constant(new float[] {-20, -1.0, 0.0, 1.0, 20}); Swish<TFloat32> swish = new Swish<>(tf); Operand<TFloat32> result = swish.call(input); // result = [-4.1223075e-08f, -2.6894143e-01f, 0.0000000e+00f, // 7.3105860e-01f, 2.0000000e+01f ]
공공 생성자
휙휙 (Ops tf) Swish 활성화 swish(x) = x * sigmoid(x) 생성합니다. |
공개 방법
상속된 메서드
부울 | 같음 (개체 arg0) |
마지막 수업<?> | getClass () |
정수 | 해시코드 () |
최종 무효 | 알림 () |
최종 무효 | 통지모두 () |
끈 | toString () |
최종 무효 | 대기 (long arg0, int arg1) |
최종 무효 | 기다리세요 (긴 arg0) |
최종 무효 | 기다리다 () |
공공 생성자
공개 Swish (Ops tf)
Swish 활성화 swish(x) = x * sigmoid(x)
생성합니다.
x*sigmoid(x)
반환하는 Swish 활성화 함수입니다. 이는 심층 네트워크에서 ReLU와 일관되게 일치하거나 성능이 뛰어난 부드럽고 비단조적인 함수이며, 위쪽에는 제한이 없고 아래쪽에는 제한이 없습니다.
매개변수
tf | TensorFlow 작업 |
---|