الوحدة الخطية الأسية المتدرجة (SELU).
يتم تعريف وظيفة تنشيط الوحدة الخطية الأسية المقاسة (SELU) على النحو التالي:
-
if x > 0: return scale * x
-
if x < 0: return scale * alpha * (exp(x) - 1)
حيث alpha
scale
ثوابت محددة مسبقًا ( alpha=1.67326324
و scale=1.05070098
).
بشكل أساسي، تقوم وظيفة تنشيط SELU بضرب scale
(> 1) بمخرجات وظيفة elu لضمان ميل أكبر من واحد للمدخلات الإيجابية.
يتم اختيار قيم alpha
scale
بحيث يتم الحفاظ على متوسط وتباين المدخلات بين طبقتين متتاليتين طالما تمت تهيئة الأوزان بشكل صحيح (انظر LeCun
مع التوزيع الطبيعي) وعدد وحدات الإدخال "كبير بما فيه الكفاية"
ملاحظات: لاستخدامها مع مُهيئ LeCun
مع التوزيع العادي.
أنظر أيضا
المقاولون العامون
سيلو (عمليات tf) إنشاء تنشيط وحدة خطية أسية متدرجة (SELU). |
الأساليب العامة
المعامل <T> |
الطرق الموروثة
المقاولون العامون
SELU العامة (Ops tf)
إنشاء تنشيط وحدة خطية أسية متدرجة (SELU).
حدود
tf | عمليات TensorFlow |
---|