org.tensorflow.framework.activations

クラス

アクティベーション<T extends TNumber >アクティベーションの抽象基本クラス

注: ERROR(/#tf)属性は、call メソッドを呼び出す前に設定する必要があります。

ELU <T extends TFloating >指数線形単位。
指数関数<T extends TFloating >指数関数的活性化関数。
HardSigmoid <T extends TFloating >ハード シグモイド アクティベーション。
線形<U はTNumberを拡張 >リニアアクティベーション機能(パススルー)。
ReLU <T はTNumberを拡張 > Rectified Linear Unit(ReLU)のアクティベーション。
SELU <T extends TFloating >スケーリングされた指数線形単位 (SELU)。
シグモイド<T extends TFloating >シグモイドの活性化。
ソフトマックス<T extends TFloating > Softmax は、実数ベクトルをカテゴリ確率のベクトルに変換します。
ソフトプラス<T extends TFloating > Softplus アクティベーション関数、 softplus(x) = log(exp(x) + 1)
ソフトサイン<T extends TFloating > Softsign アクティベーション関数、 softsign(x) = x / (abs(x) + 1)
Swish <T extends TFloating >スウィッシュ起動機能。
Tanh <T extends TFloating >双曲線正接活性化関数。