org.tensorflow.framework.activations

الطبقات

التنشيط <T يمتد TNumber > فئة أساسية مجردة للتنشيط

ملاحظة: يجب تعيين سمة ERROR(/#tf) قبل استدعاء أسلوب الاستدعاء.

ELU <T يمتد TFloating > الوحدة الخطية الأسية.
الأسي <T يمتد TFloating > وظيفة التنشيط الأسي.
HardSigmoid <T يمتد TFloating > تفعيل السيني الثابت.
الخطي <U يمتد TNumber > وظيفة التنشيط الخطي (التمرير).
ReLU <T يمتد TNumber > تفعيل الوحدة الخطية المصححة (ReLU).
SELU <T يمتد TFloating > الوحدة الخطية الأسية المتدرجة (SELU).
السيني <T يمتد TFloating > تفعيل السيني.
Softmax <T يمتد TFloating > يقوم Softmax بتحويل المتجه الحقيقي إلى متجه الاحتمالات الفئوية.
Softplus <T يمتد TFloating > وظيفة تفعيل Softplus، softplus(x) = log(exp(x) + 1) .
Softsign <T يمتد TFloating > وظيفة تفعيل Softsign، softsign(x) = x / (abs(x) + 1) .
سويش <T يمتد TFloating > وظيفة التنشيط حفيف.
تانه <T يمتد TFloating > وظيفة تفعيل الظل الزائدي.