텐서플로우:: 작전:: 셀루

#include <nn_ops.h>

스케일링된 지수 선형 계산: scale * alpha * (exp(features) - 1)

요약

< 0이면 scale * features 수행합니다.

`initializer = tf.variance_scaling_initializer(factor=1.0, mode='FAN_IN') 과 함께 사용됩니다 . For correct dropout, use .

자체 정규화 신경망을 참조하세요.

인수:

보고:

생성자와 소멸자

Selu (const :: tensorflow::Scope & scope, :: tensorflow::Input features)

공개 속성

activations
operation

공공 기능

node () const
::tensorflow::Node *
operator::tensorflow::Input () const
operator::tensorflow::Output () const

공개 속성

활성화

::tensorflow::Output activations

작업

Operation operation

공공 기능

셀루

 Selu(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features
)

마디

::tensorflow::Node * node() const 

연산자::텐서플로우::입력

 operator::tensorflow::Input() const 

연산자::텐서플로우::출력

 operator::tensorflow::Output() const