ELU

सार्वजनिक वर्ग ईएलयू

घातीय रैखिक इकाई.

alpha > 0 के साथ घातांकीय रैखिक इकाई (ELU) है:

x यदि x > 0 और alpha * (exp(x) - 1) यदि x < 0

ईएलयू हाइपरपैरामीटर alpha उस मान को नियंत्रित करता है जिस पर ईएलयू नकारात्मक नेट इनपुट के लिए संतृप्त होता है। ELUs लुप्त हो रहे ग्रेडिएंट प्रभाव को कम कर देते हैं।

ईएलयू में नकारात्मक मान होते हैं जो सक्रियणों के माध्य को शून्य के करीब ले जाते हैं। माध्य सक्रियण जो शून्य के करीब हैं, तेजी से सीखने में सक्षम बनाते हैं क्योंकि वे ग्रेडिएंट को प्राकृतिक ग्रेडिएंट के करीब लाते हैं। जब तर्क छोटा हो जाता है तो ईएलयू एक नकारात्मक मान तक संतृप्त हो जाता है। संतृप्ति का अर्थ है एक छोटा व्युत्पन्न जो भिन्नता को कम करता है और अगली परत तक प्रसारित होने वाली जानकारी को कम करता है।

उदाहरण उपयोग:

     Operand<TFloat32> input = ...;
     ELU<TFloat32> elu = new ELU<>(tf, 2.0f);
     Operand<TFloat32> result = elu.call(input);
 

सार्वजनिक निर्माता

ईएलयू (ऑपरेशन टीएफ)
alpha= ERROR(/#ALPHA_DEFAULT) के साथ एक नया ELU बनाता है।
ईएलयू (ऑप्स टीएफ, डबल अल्फा)
एक नया ELU बनाता है

सार्वजनिक तरीके

ऑपरेंड <टी>
कॉल ( ऑपरेंड <T> इनपुट)
सक्रियण के लिए गणना ऑपरेशन प्राप्त करता है।

विरासत में मिली विधियाँ

सार्वजनिक निर्माता

सार्वजनिक ईएलयू (ऑपरेशन टीएफ)

alpha= ERROR(/#ALPHA_DEFAULT) के साथ एक नया ELU बनाता है।

पैरामीटर
tf टेंसरफ़्लो ऑप्स

सार्वजनिक ईएलयू (ऑप्स टीएफ, डबल अल्फा)

एक नया ELU बनाता है

पैरामीटर
tf टेंसरफ़्लो ऑप्स
अल्फा एक अदिश, ऋणात्मक खंड का ढलान. यह उस मान को नियंत्रित करता है जिस पर ईएलयू नकारात्मक शुद्ध इनपुट के लिए संतृप्त होता है।

सार्वजनिक तरीके

सार्वजनिक ऑपरेंड <T> कॉल ( ऑपरेंड <T> इनपुट)

सक्रियण के लिए गणना ऑपरेशन प्राप्त करता है।

पैरामीटर
इनपुट इनपुट टेंसर
रिटर्न
  • सक्रियण के लिए ऑपरेंड