ELU

ELU الطبقة العامة

الوحدة الخطية الأسية.

الوحدة الخطية الأسية (ELU) مع alpha > 0 هي:

x إذا x > 0 و alpha * (exp(x) - 1) إذا x < 0 .

تتحكم المعلمة الفائقة ELU alpha في القيمة التي تتشبع بها وحدة ELU للمدخلات الصافية السالبة. تقلل وحدات ELU من تأثير التدرج المتلاشي.

تحتوي وحدات ELU على قيم سالبة مما يدفع متوسط ​​عمليات التنشيط إلى الصفر. تتيح عمليات التنشيط الأقرب إلى الصفر إمكانية التعلم بشكل أسرع لأنها تجعل التدرج أقرب إلى التدرج الطبيعي. تتشبع وحدات ELU إلى قيمة سالبة عندما تصبح الوسيطة أصغر. التشبع يعني مشتقًا صغيرًا يقلل من التباين والمعلومات التي يتم نشرها إلى الطبقة التالية.

مثال للاستخدام:

     Operand<TFloat32> input = ...;
     ELU<TFloat32> elu = new ELU<>(tf, 2.0f);
     Operand<TFloat32> result = elu.call(input);
 

المقاولون العامون

ELU (عمليات tf)
إنشاء ELU جديد مع alpha= ERROR(/#ALPHA_DEFAULT) .
ELU (Ops tf، ألفا مزدوج)
إنشاء ELU جديد

الأساليب العامة

المعامل <T>
الاتصال (إدخال المعامل <T>)
يحصل على عملية الحساب للتنشيط.

الطرق الموروثة

المقاولون العامون

ELU العامة (Ops tf)

إنشاء ELU جديد مع alpha= ERROR(/#ALPHA_DEFAULT) .

حدود
tf عمليات TensorFlow

ELU العام (Ops tf، ألفا مزدوج)

إنشاء ELU جديد

حدود
tf عمليات TensorFlow
ألفا عددي، ميل القسم السلبي. إنه يتحكم في القيمة التي تتشبع بها وحدة ELU لصافي المدخلات السالبة.

الأساليب العامة

استدعاء المعامل العام <T> (إدخال المعامل <T>)

يحصل على عملية الحساب للتنشيط.

حدود
مدخل موتر الإدخال
المرتجعات
  • المعامل للتنشيط