স্কেলড এক্সপোনেনশিয়াল লিনিয়ার ইউনিট (SELU)।
স্কেলড এক্সপোনেনশিয়াল লিনিয়ার ইউনিট (SELU) অ্যাক্টিভেশন ফাংশনটি সংজ্ঞায়িত করা হয়েছে:
-
if x > 0: return scale * x
-
if x < 0: return scale * alpha * (exp(x) - 1)
যেখানে alpha
এবং scale
পূর্ব-নির্ধারিত ধ্রুবক ( alpha=1.67326324
এবং scale=1.05070098
)।
মূলত, SELU অ্যাক্টিভেশন ফাংশন ইলু ফাংশনের আউটপুটের সাথে scale
(> 1) গুণ করে যাতে ইতিবাচক ইনপুটগুলির জন্য একটির চেয়ে বড় ঢাল নিশ্চিত করা যায়।
alpha
এবং scale
মানগুলি বেছে নেওয়া হয়েছে যাতে ইনপুটগুলির গড় এবং পার্থক্য দুটি পরপর স্তরের মধ্যে সংরক্ষিত থাকে যতক্ষণ না ওজন সঠিকভাবে শুরু হয় (সাধারণ বন্টনের সাথে LeCun
দেখুন) এবং ইনপুট ইউনিটের সংখ্যা "যথেষ্ট বড়"
দ্রষ্টব্য: সাধারণ বিতরণ সহ LeCun
ইনিশিয়ালাইজারের সাথে একসাথে ব্যবহার করতে হবে।
আরো দেখুন
পাবলিক কনস্ট্রাক্টর
SELU (Ops tf) একটি স্কেলড এক্সপোনেনশিয়াল লিনিয়ার ইউনিট (SELU) অ্যাক্টিভেশন তৈরি করে। |
পাবলিক পদ্ধতি
অপারেন্ড <T> |
উত্তরাধিকারসূত্রে প্রাপ্ত পদ্ধতি
পাবলিক কনস্ট্রাক্টর
পাবলিক SELU (Ops tf)
একটি স্কেলড এক্সপোনেনশিয়াল লিনিয়ার ইউনিট (SELU) অ্যাক্টিভেশন তৈরি করে।
পরামিতি
tf | টেনসরফ্লো অপস |
---|