StopGradient

পাবলিক চূড়ান্ত বর্গ StopGradient

গ্রেডিয়েন্ট গণনা বন্ধ করে।

একটি গ্রাফে কার্যকর করা হলে, এই অপটি তার ইনপুট টেনসরকে যেমন-আউটপুট করে।

গ্রেডিয়েন্ট কম্পিউট করার জন্য অপ্স তৈরি করার সময়, এই অপটি এর ইনপুটগুলির অবদানকে বিবেচনায় নেওয়া থেকে বাধা দেয়। সাধারণত, গ্রেডিয়েন্ট জেনারেটর একটি নির্দিষ্ট 'ক্ষতি' এর ডেরিভেটিভ গণনা করার জন্য একটি গ্রাফে অপস যোগ করে যা এর গণনায় অবদান রাখে এমন ইনপুটগুলি বারবার খুঁজে বের করে। আপনি যদি গ্রাফে এই অপটি সন্নিবেশ করেন তবে এটি গ্রেডিয়েন্ট জেনারেটর থেকে ইনপুটগুলি মাস্ক করা হয়। কম্পিউটিং গ্রেডিয়েন্টের জন্য এগুলিকে বিবেচনায় নেওয়া হয় না।

আপনি যখন টেনসরফ্লো দিয়ে একটি মান গণনা করতে চান তখন এটি কার্যকর কিন্তু মানটি একটি ধ্রুবক ছিল বলে ভান করতে হবে। উদাহরণস্বরূপ, একটি ভেক্টর এক্স softmax ফাংশন হিসেবে লেখা যেতে পারে

def softmax(x):
     numerator = tf.exp(x)
     denominator = tf.reduce_sum(numerator)
     return numerator / denominator
 
যদিও ওভারফ্লো সমর্থ হলে এক্স মান বড়। একটি বিকল্প আরো স্থিতিশীল উপায় হল প্রতিটি মান থেকে x এর সর্বোচ্চ বিয়োগ করা।
def stable_softmax(x):
     z = x - tf.reduce_max(x)
     numerator = tf.exp(z)
     denominator = tf.reduce_sum(numerator)
     return numerator / denominator
 
যাইহোক, যখন আমরা softmax করতে x, আমরা মাধ্যমে `tf.reduce_max (x) এর backprop করতে চান আত` (পরে গ্রেডিয়েন্ট ভুল ইনপুট প্রবাহিত যেত সর্বোচ্চ মান অনন্য নয়) হিসাব এবং আচরণ মাধ্যমে backprop যে একটি ধ্রুবক হিসাবে. অতএব, আমরা যত এই আউট লেখা উচিত
def stable_softmax(x):
     z = x - tf.stop_gradient(tf.reduce_max(x))
     numerator = tf.exp(z)
     denominator = tf.reduce_sum(numerator)
     return numerator / denominator
 
অন্যান্য বেশ কয়েকটি উদাহরণ হল:
  • ই.এম. অ্যালগরিদম যেখানে এম-পদক্ষেপ ই-পদক্ষেপ আউটপুট মাধ্যমে backpropagation জড়িত করা উচিত নয়।
  • বোল্টজম্যান মেশিনের বৈপরীত্য বিচ্যুতি প্রশিক্ষণ যেখানে, শক্তি ফাংশন পার্থক্য করার সময়, প্রশিক্ষণটি মডেল থেকে নমুনাগুলি তৈরি করা গ্রাফের মাধ্যমে ব্যাকপ্রপাগেট করা উচিত নয়।
  • প্রতিকূল প্রশিক্ষণ, যেখানে প্রতিপক্ষের উদাহরণ তৈরির প্রক্রিয়ার মাধ্যমে কোনো ব্যাকপ্রপ ঘটবে না।

পাবলিক পদ্ধতি

আউটপুট <টি>
asOutput ()
একটি টেনসরের প্রতীকী হ্যান্ডেল প্রদান করে।
স্ট্যাটিক <টি> StopGradient <টি>
তৈরি ( ব্যাপ্তি সুযোগ প্রতীক <টি> ইনপুট)
একটি নতুন StopGradient অপারেশন মোড়ানো একটি ক্লাস তৈরি করার কারখানা পদ্ধতি।
আউটপুট <টি>

উত্তরাধিকারসূত্রে প্রাপ্ত পদ্ধতি

পাবলিক পদ্ধতি

পাবলিক আউটপুট <টি> asOutput ()

একটি টেনসরের প্রতীকী হ্যান্ডেল প্রদান করে।

TensorFlow অপারেশনের ইনপুট হল অন্য TensorFlow অপারেশনের আউটপুট। এই পদ্ধতিটি একটি সিম্বলিক হ্যান্ডেল পেতে ব্যবহৃত হয় যা ইনপুটের গণনার প্রতিনিধিত্ব করে।

পাবলিক স্ট্যাটিক StopGradient <টি> তৈরি করুন ( ব্যাপ্তি সুযোগ প্রতীক <টি> ইনপুট)

একটি নতুন StopGradient অপারেশন মোড়ানো একটি ক্লাস তৈরি করার কারখানা পদ্ধতি।

পরামিতি
সুযোগ বর্তমান সুযোগ
রিটার্নস
  • StopGradient এর একটি নতুন উদাহরণ

পাবলিক আউটপুট <টি> আউটপুট ()