গ্রেডিয়েন্ট গণনা বন্ধ করে।
একটি গ্রাফে কার্যকর করা হলে, এই অপটি তার ইনপুট টেনসরকে যেমন-আউটপুট করে।
গ্রেডিয়েন্ট কম্পিউট করার জন্য অপ্স তৈরি করার সময়, এই অপটি এর ইনপুটগুলির অবদানকে বিবেচনায় নেওয়া থেকে বাধা দেয়। সাধারণত, গ্রেডিয়েন্ট জেনারেটর একটি নির্দিষ্ট 'ক্ষতি' এর ডেরিভেটিভ গণনা করার জন্য একটি গ্রাফে অপস যোগ করে যা এর গণনায় অবদান রাখে এমন ইনপুটগুলি বারবার খুঁজে বের করে। আপনি যদি গ্রাফে এই অপটি সন্নিবেশ করেন তবে এটি গ্রেডিয়েন্ট জেনারেটর থেকে ইনপুটগুলি মাস্ক করা হয়। কম্পিউটিং গ্রেডিয়েন্টের জন্য এগুলিকে বিবেচনায় নেওয়া হয় না।
আপনি যখন টেনসরফ্লো দিয়ে একটি মান গণনা করতে চান তখন এটি কার্যকর কিন্তু মানটি একটি ধ্রুবক ছিল বলে ভান করতে হবে। উদাহরণস্বরূপ, একটি ভেক্টর এক্স softmax ফাংশন হিসেবে লেখা যেতে পারে
def softmax(x):
numerator = tf.exp(x)
denominator = tf.reduce_sum(numerator)
return numerator / denominator
যদিও ওভারফ্লো সমর্থ হলে এক্স মান বড়। একটি বিকল্প আরো স্থিতিশীল উপায় হল প্রতিটি মান থেকে x এর সর্বোচ্চ বিয়োগ করা। def stable_softmax(x):
z = x - tf.reduce_max(x)
numerator = tf.exp(z)
denominator = tf.reduce_sum(numerator)
return numerator / denominator
যাইহোক, যখন আমরা softmax করতে x, আমরা মাধ্যমে `tf.reduce_max (x) এর backprop করতে চান আত` (পরে গ্রেডিয়েন্ট ভুল ইনপুট প্রবাহিত যেত সর্বোচ্চ মান অনন্য নয়) হিসাব এবং আচরণ মাধ্যমে backprop যে একটি ধ্রুবক হিসাবে. অতএব, আমরা যত এই আউট লেখা উচিত def stable_softmax(x):
z = x - tf.stop_gradient(tf.reduce_max(x))
numerator = tf.exp(z)
denominator = tf.reduce_sum(numerator)
return numerator / denominator
অন্যান্য বেশ কয়েকটি উদাহরণ হল:- ই.এম. অ্যালগরিদম যেখানে এম-পদক্ষেপ ই-পদক্ষেপ আউটপুট মাধ্যমে backpropagation জড়িত করা উচিত নয়।
- বোল্টজম্যান মেশিনের বৈপরীত্য বিচ্যুতি প্রশিক্ষণ যেখানে, শক্তি ফাংশন পার্থক্য করার সময়, প্রশিক্ষণটি মডেল থেকে নমুনাগুলি তৈরি করা গ্রাফের মাধ্যমে ব্যাকপ্রপাগেট করা উচিত নয়।
- প্রতিকূল প্রশিক্ষণ, যেখানে প্রতিপক্ষের উদাহরণ তৈরির প্রক্রিয়ার মাধ্যমে কোনো ব্যাকপ্রপ ঘটবে না।
পাবলিক পদ্ধতি
আউটপুট <টি> | asOutput () একটি টেনসরের প্রতীকী হ্যান্ডেল প্রদান করে। |
স্ট্যাটিক <টি> StopGradient <টি> | |
আউটপুট <টি> | আউটপুট () |
উত্তরাধিকারসূত্রে প্রাপ্ত পদ্ধতি
পাবলিক পদ্ধতি
পাবলিক আউটপুট <টি> asOutput ()
একটি টেনসরের প্রতীকী হ্যান্ডেল প্রদান করে।
TensorFlow অপারেশনের ইনপুট হল অন্য TensorFlow অপারেশনের আউটপুট। এই পদ্ধতিটি একটি সিম্বলিক হ্যান্ডেল পেতে ব্যবহৃত হয় যা ইনপুটের গণনার প্রতিনিধিত্ব করে।
পাবলিক স্ট্যাটিক StopGradient <টি> তৈরি করুন ( ব্যাপ্তি সুযোগ প্রতীক <টি> ইনপুট)
একটি নতুন StopGradient অপারেশন মোড়ানো একটি ক্লাস তৈরি করার কারখানা পদ্ধতি।
পরামিতি
সুযোগ | বর্তমান সুযোগ |
---|
রিটার্নস
- StopGradient এর একটি নতুন উদাহরণ