সুইশ অ্যাক্টিভেশন ফাংশন। swish(x) = x * sigmoid(x)
।
সুইশ অ্যাক্টিভেশন ফাংশন যা x*sigmoid(x)
প্রদান করে। এটি একটি মসৃণ, অ-একঘেয়ে ফাংশন যা গভীর নেটওয়ার্কগুলিতে ধারাবাহিকভাবে ReLU
সাথে মেলে বা ছাড়িয়ে যায়, এটি উপরে এবং নীচে সীমাবদ্ধ।
উদাহরণ ব্যবহার:
Operand<TFloat32> input = tf.constant(new float[] {-20, -1.0, 0.0, 1.0, 20}); Swish<TFloat32> swish = new Swish<>(tf); Operand<TFloat32> result = swish.call(input); // result = [-4.1223075e-08f, -2.6894143e-01f, 0.0000000e+00f, // 7.3105860e-01f, 2.0000000e+01f ]
এছাড়াও দেখুন
পাবলিক কনস্ট্রাক্টর
সুইশ (Ops tf) একটি সুইশ অ্যাক্টিভেশন তৈরি করে, swish(x) = x * sigmoid(x) । |
পাবলিক পদ্ধতি
অপারেন্ড <T> |
উত্তরাধিকারসূত্রে প্রাপ্ত পদ্ধতি
পাবলিক কনস্ট্রাক্টর
পাবলিক সুইশ (অপস টিএফ)
একটি সুইশ অ্যাক্টিভেশন তৈরি করে, swish(x) = x * sigmoid(x)
।
সুইশ অ্যাক্টিভেশন ফাংশন যা x*sigmoid(x)
প্রদান করে। এটি একটি মসৃণ, অ-একঘেয়ে ফাংশন যা গভীর নেটওয়ার্কগুলিতে ধারাবাহিকভাবে ReLU-এর সাথে মেলে বা ছাড়িয়ে যায়, এটি উপরে এবং নীচে সীমাবদ্ধ।
পরামিতি
tf | টেনসরফ্লো অপস |
---|