공개 최종 수업 Relu
수정된 선형 계산: 'max(features, 0)'.
참조: https://en.wikipedia.org/wiki/Rectifier_(neural_networks) 사용 예: >>> tf.nn.relu([-2., 0., -0., 3.]).numpy() 배열([ 0., 0., -0., 3.], dtype=float32)
상수
끈 | OP_NAME | TensorFlow 코어 엔진에서 알려진 이 작업의 이름 |
공개 방법
출력 <T> | 활성화 () |
출력 <T> | 출력 () 텐서의 기호 핸들을 반환합니다. |
static <T는 TType을 확장합니다. > Relu <T> |
상속된 메서드
상수
공개 정적 최종 문자열 OP_NAME
TensorFlow 코어 엔진에서 알려진 이 작업의 이름
상수값: "Relu"
공개 방법
공개 출력 <T> asOutput ()
텐서의 기호 핸들을 반환합니다.
TensorFlow 작업에 대한 입력은 다른 TensorFlow 작업의 출력입니다. 이 메서드는 입력 계산을 나타내는 기호 핸들을 얻는 데 사용됩니다.