공개 최종 수업 셀루
스케일링된 지수 선형 계산: `scale * alpha * (exp(features) - 1)`
< 0이면 `scale * feature`, 그렇지 않으면 `scale * feature`입니다.
`initializer = tf.variance_scaling_initializer(factor=1.0, mode='FAN_IN')`와 함께 사용됩니다. 올바른 드롭아웃을 위해서는 `tf.contrib.nn.alpha_dropout`을 사용하세요.
[자기 정규화 신경망](https://arxiv.org/abs/1706.02515)을 참조하세요.
상수
끈 | OP_NAME | TensorFlow 코어 엔진에서 알려진 이 작업의 이름 |
공개 방법
출력 <T> | 활성화 () |
출력 <T> | 출력 () 텐서의 기호 핸들을 반환합니다. |
static <T는 TNumber를 확장합니다. > Selu <T> |
상속된 메서드
상수
공개 정적 최종 문자열 OP_NAME
TensorFlow 코어 엔진에서 알려진 이 작업의 이름
상수 값: "Selu"
공개 방법
공개 출력 <T> asOutput ()
텐서의 기호 핸들을 반환합니다.
TensorFlow 작업에 대한 입력은 다른 TensorFlow 작업의 출력입니다. 이 메서드는 입력 계산을 나타내는 기호 핸들을 얻는 데 사용됩니다.