org.tensorflow.framework.activations

کلاس ها

فعال‌سازی <T تعداد TNumber را گسترش می‌دهد کلاس پایه انتزاعی برای Activations

توجه: ویژگی ERROR(/#tf) باید قبل از فراخوانی روش فراخوانی تنظیم شود.

ELU <T TFloating > را گسترش می دهد واحد خطی نمایی
نمایی <T TFloating > را گسترش می دهد تابع فعال سازی نمایی
HardSigmoid <T TFloating > را گسترش می دهد فعال سازی سخت سیگموئید
خطی <U گسترش TNumber > تابع فعال سازی خطی (عبور).
ReLU <T TNumber > را گسترش می دهد فعال سازی واحد خطی اصلاح شده (ReLU).
SELU <T TFloating > را گسترش می دهد واحد خطی نمایی مقیاس شده (SELU).
Sigmoid <T TFloating > را گسترش می دهد فعال سازی سیگموئید
Softmax <T TFloating > را گسترش می دهد سافت مکس یک بردار واقعی را به بردار احتمالات طبقه ای تبدیل می کند.
Softplus <T TFloating > را گسترش می دهد تابع فعال سازی Softplus، softplus(x) = log(exp(x) + 1) .
Softsign <T TFloating را گسترش می دهد تابع فعال‌سازی Softsign، softsign(x) = x / (abs(x) + 1) .
Swish <T TFloating > را گسترش می دهد عملکرد فعال سازی Swish.
Tanh <T گسترش TFloating > تابع فعال سازی مماس هایپربولیک.