ReLU

공개 클래스 ReLU

ReLU(Rectified Linear Unit) 활성화.

기본값을 사용하면 표준 ReLU 활성화: max(x, 0) , 요소별 최대값 0 및 입력 텐서를 반환합니다.

기본 매개변수를 수정하면 0이 아닌 임계값을 사용하고, 활성화의 최대값을 변경하고, 임계값 아래 값에 대해 입력의 0이 아닌 배수를 사용할 수 있습니다.

예를 들어:

     Operand<TFloat32> input = tf.constant(
              new float[] {-10f, -5f, 0.0f, 5f, 10f});

     // With default parameters
     ReLU<TFloat32> relu = new ReLU<>(tf);
     Operand<TFloat32> result = relu.call(input);
     // result is [0.f,  0.f,  0.f,  5.f, 10.f]

     // With alpha = 0.5
     relu = new ReLU<>(tf, 0.5f, ReLU.MAX_VALUE_DEFAULT, ReLU.THRESHOLD_DEFAULT);
     result = relu.call(input);
     // result is [-5.f , -2.5f,  0.f ,  5.f , 10.f]

     // With maxValue = 5
     relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, 5f, ReLU.THRESHOLD_DEFAULT);
     result = relu.call(input);
     // result is [0.f, 0.f, 0.f, 5.f, 5.f]

     // With threshold = 5
     relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, ReLU.MAX_VALUE_DEFAULT, 5f);
     result = relu.call(input);
     // result is [-0.f, -0.f,  0.f,  0.f, 10.f]
 

상수

뜨다 ALPHA_DEFAULT
뜨다 MAX_VALUE_DEFAULT
뜨다 THRESHOLD_DEFAULT

공공 생성자

ReLU (Ops tf)
alpha= ALPHA_DEFAULT , maxValue= MAX_VALUE_DEFAULT , 임계값= THRESHOLD_DEFAULT 로 새 ReLU를 생성합니다.
ReLU (Ops tf, float 알파, float maxValue, float 임계값)
새로운 ReLU를 생성합니다.

공개 방법

피연산자 <T>
호출 ( 피연산자 <T> 입력)
활성화를 위한 계산 작업을 가져옵니다.

상속된 메서드

상수

공개 정적 최종 부동 ALPHA_DEFAULT

상수값: 0.0

공개 정적 최종 부동 소수점 MAX_VALUE_DEFAULT

상수값: NaN

공개 정적 최종 부동 소수점 THRESHOLD_DEFAULT

상수값: 0.0

공공 생성자

공개 ReLU (Ops tf)

alpha= ALPHA_DEFAULT , maxValue= MAX_VALUE_DEFAULT , 임계값= THRESHOLD_DEFAULT 로 새 ReLU를 생성합니다.

매개변수
tf TensorFlow 작업

공개 ReLU (Ops tf, float 알파, float maxValue, float 임계값)

새로운 ReLU를 생성합니다.

매개변수
tf TensorFlow 작업
알파 임계값보다 낮은 값에 대한 기울기를 제어합니다.
최대값 포화 임계값(함수가 반환할 가장 큰 값)을 설정합니다.
한계점 값이 감쇠되거나 0으로 설정되는 활성화 함수의 임계값입니다.

공개 방법

공개 피연산자 <T> 호출 ( 피연산자 <T> 입력)

활성화를 위한 계산 작업을 가져옵니다.

매개변수
입력 입력 텐서
보고
  • 활성화를 위한 피연산자