공개 클래스 ReLU
ReLU(Rectified Linear Unit) 활성화.
기본값을 사용하면 표준 ReLU 활성화: max(x, 0) , 요소별 최대값 0 및 입력 텐서를 반환합니다.
기본 매개변수를 수정하면 0이 아닌 임계값을 사용하고, 활성화의 최대값을 변경하고, 임계값 아래 값에 대해 입력의 0이 아닌 배수를 사용할 수 있습니다.
예를 들어:
Operand<TFloat32> input = tf.constant(
new float[] {-10f, -5f, 0.0f, 5f, 10f});
// With default parameters
ReLU<TFloat32> relu = new ReLU<>(tf);
Operand<TFloat32> result = relu.call(input);
// result is [0.f, 0.f, 0.f, 5.f, 10.f]
// With alpha = 0.5
relu = new ReLU<>(tf, 0.5f, ReLU.MAX_VALUE_DEFAULT, ReLU.THRESHOLD_DEFAULT);
result = relu.call(input);
// result is [-5.f , -2.5f, 0.f , 5.f , 10.f]
// With maxValue = 5
relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, 5f, ReLU.THRESHOLD_DEFAULT);
result = relu.call(input);
// result is [0.f, 0.f, 0.f, 5.f, 5.f]
// With threshold = 5
relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, ReLU.MAX_VALUE_DEFAULT, 5f);
result = relu.call(input);
// result is [-0.f, -0.f, 0.f, 0.f, 10.f]
상수
| 뜨다 | ALPHA_DEFAULT | |
| 뜨다 | MAX_VALUE_DEFAULT | |
| 뜨다 | THRESHOLD_DEFAULT |
공공 생성자
ReLU (Ops tf) | |
ReLU (Ops tf, float 알파, float maxValue, float 임계값) 새로운 ReLU를 생성합니다. |
공개 방법
| 피연산자 <T> |
상속된 메서드
상수
공개 정적 최종 부동 ALPHA_DEFAULT
상수값: 0.0
공개 정적 최종 부동 소수점 MAX_VALUE_DEFAULT
상수값: NaN
공개 정적 최종 부동 소수점 THRESHOLD_DEFAULT
상수값: 0.0
공공 생성자
공개 ReLU (Ops tf)
alpha= ALPHA_DEFAULT , maxValue= MAX_VALUE_DEFAULT , 임계값= THRESHOLD_DEFAULT 로 새 ReLU를 생성합니다.
매개변수
| tf | TensorFlow 작업 |
|---|
공개 ReLU (Ops tf, float 알파, float maxValue, float 임계값)
새로운 ReLU를 생성합니다.
매개변수
| tf | TensorFlow 작업 |
|---|---|
| 알파 | 임계값보다 낮은 값에 대한 기울기를 제어합니다. |
| 최대값 | 포화 임계값(함수가 반환할 가장 큰 값)을 설정합니다. |
| 한계점 | 값이 감쇠되거나 0으로 설정되는 활성화 함수의 임계값입니다. |