org.tensorflow.framework.activations

클래스

활성화 <T는 T번호를 확장합니다> 활성화를 위한 추상 기본 클래스

참고: 호출 메소드를 호출하기 전에 ERROR(/#tf) 속성을 설정해야 합니다.

ELU <T는 TFloating을 확장합니다.> 지수 선형 단위.
지수 <T는 TFloating을 확장합니다.> 지수 활성화 함수.
HardSigmoid <T는 TFloating을 확장합니다.> 하드 시그모이드 활성화.
선형 <U는 T번호를 확장합니다.> 선형 활성화 기능(통과).
ReLU <T는 Tnumber를 확장합니다. > ReLU(Rectified Linear Unit) 활성화.
SELU <T는 TFloating을 확장합니다.> SELU(스케일 지수 선형 단위).
시그모이드 <T는 TFloating을 확장합니다.> 시그모이드 활성화.
Softmax <T는 TFloating을 확장합니다.> Softmax는 실수 벡터를 범주형 확률 벡터로 변환합니다.
소프트플러스 <T는 TFloating을 확장합니다> Softplus 활성화 함수, softplus(x) = log(exp(x) + 1) .
Softsign <T는 TFloating을 확장합니다.> Softsign 활성화 함수, softsign(x) = x / (abs(x) + 1) .
Swish <T는 TFloating을 확장합니다.> Swish 활성화 기능.
Tanh <T는 TFloating을 확장합니다.> 쌍곡선 탄젠트 활성화 함수.