org.tensorflow.framework.activations

कक्षाओं

सक्रियण <T TNumber बढ़ाता है > सक्रियणों के लिए सार आधार वर्ग

नोट: कॉल विधि को लागू करने से पहले ERROR(/#tf) विशेषता सेट की जानी चाहिए।

ELU <T TFloating का विस्तार करता है > घातीय रैखिक इकाई.
घातांक <T TFloating का विस्तार करता है > घातांकीय सक्रियण फ़ंक्शन.
हार्डसिग्मॉइड <टी टीएफफ्लोटिंग का विस्तार करता है > कठोर सिग्मॉइड सक्रियण.
रैखिक <U TNumber का विस्तार करता है > रैखिक सक्रियण फ़ंक्शन (पास-थ्रू)।
ReLU <T TNumber बढ़ाता है > रेक्टिफाइड लीनियर यूनिट (ReLU) सक्रियण।
SELU <T TFloating का विस्तार करता है > स्केल्ड एक्सपोनेंशियल लीनियर यूनिट (SELU)।
सिग्मॉइड <टी टीएफफ्लोटिंग का विस्तार करता है > सिग्मॉइड सक्रियण.
सॉफ्टमैक्स <टी टीएफफ्लोटिंग का विस्तार करता है > सॉफ्टमैक्स एक वास्तविक वेक्टर को श्रेणीबद्ध संभावनाओं के वेक्टर में परिवर्तित करता है।
सॉफ्टप्लस <टी टीएफफ्लोटिंग का विस्तार करता है > सॉफ्टप्लस सक्रियण फ़ंक्शन, softplus(x) = log(exp(x) + 1)
सॉफ़्टसाइन <टी टीफ़्लोटिंग का विस्तार करता है > सॉफ्टसाइन सक्रियण फ़ंक्शन, softsign(x) = x / (abs(x) + 1) .
स्विश <T TFloating का विस्तार करता है > स्विश सक्रियण फ़ंक्शन।
Tanh <T TFloating का विस्तार करता है > अतिशयोक्तिपूर्ण स्पर्शरेखा सक्रियण फ़ंक्शन।