स्विश सक्रियण फ़ंक्शन। swish(x) = x * sigmoid(x)
.
स्विश सक्रियण फ़ंक्शन जो x*sigmoid(x)
लौटाता है। यह एक सुचारू, गैर-मोनोटोनिक फ़ंक्शन है जो गहरे नेटवर्क पर लगातार ReLU
से मेल खाता है या उससे बेहतर प्रदर्शन करता है, यह ऊपर से असीमित और नीचे से सीमाबद्ध है।
उदाहरण उपयोग:
Operand<TFloat32> input = tf.constant(new float[] {-20, -1.0, 0.0, 1.0, 20}); Swish<TFloat32> swish = new Swish<>(tf); Operand<TFloat32> result = swish.call(input); // result = [-4.1223075e-08f, -2.6894143e-01f, 0.0000000e+00f, // 7.3105860e-01f, 2.0000000e+01f ]
यह भी देखें
सार्वजनिक निर्माता
स्विश (ऑप्स टीएफ) एक स्विश सक्रियण बनाता है, swish(x) = x * sigmoid(x) . |
सार्वजनिक तरीके
ऑपरेंड <टी> |
विरासत में मिली विधियाँ
सार्वजनिक निर्माता
सार्वजनिक स्विश (ऑप्स टीएफ)
एक स्विश सक्रियण बनाता है, swish(x) = x * sigmoid(x)
.
स्विश सक्रियण फ़ंक्शन जो x*sigmoid(x)
लौटाता है। यह एक सुचारू, गैर-मोनोटोनिक फ़ंक्शन है जो गहरे नेटवर्क पर लगातार ReLU से मेल खाता है या उससे बेहतर प्रदर्शन करता है, यह ऊपर से असीमित और नीचे से सीमाबद्ध है।
पैरामीटर
tf | टेंसरफ़्लो ऑप्स |
---|