कक्षाओं
| सक्रियण <T TNumber बढ़ाता है > | सक्रियणों के लिए सार आधार वर्ग नोट: कॉल विधि को लागू करने से पहले |
| ELU <T TFloating का विस्तार करता है > | घातीय रैखिक इकाई. |
| घातांक <T TFloating का विस्तार करता है > | घातांकीय सक्रियण फ़ंक्शन. |
| हार्डसिग्मॉइड <टी टीएफफ्लोटिंग का विस्तार करता है > | कठोर सिग्मॉइड सक्रियण. |
| रैखिक <U TNumber का विस्तार करता है > | रैखिक सक्रियण फ़ंक्शन (पास-थ्रू)। |
| ReLU <T TNumber बढ़ाता है > | रेक्टिफाइड लीनियर यूनिट (ReLU) सक्रियण। |
| SELU <T TFloating का विस्तार करता है > | स्केल्ड एक्सपोनेंशियल लीनियर यूनिट (SELU)। |
| सिग्मॉइड <टी टीएफफ्लोटिंग का विस्तार करता है > | सिग्मॉइड सक्रियण. |
| सॉफ्टमैक्स <टी टीएफफ्लोटिंग का विस्तार करता है > | सॉफ्टमैक्स एक वास्तविक वेक्टर को श्रेणीबद्ध संभावनाओं के वेक्टर में परिवर्तित करता है। |
| सॉफ्टप्लस <टी टीएफफ्लोटिंग का विस्तार करता है > | सॉफ्टप्लस सक्रियण फ़ंक्शन, softplus(x) = log(exp(x) + 1) |
| सॉफ़्टसाइन <टी टीफ़्लोटिंग का विस्तार करता है > | सॉफ्टसाइन सक्रियण फ़ंक्शन, softsign(x) = x / (abs(x) + 1) . |
| स्विश <T TFloating का विस्तार करता है > | स्विश सक्रियण फ़ंक्शन। |
| Tanh <T TFloating का विस्तार करता है > | अतिशयोक्तिपूर्ण स्पर्शरेखा सक्रियण फ़ंक्शन। |