সতর্কতা: প্রতিস্থাপন স্থিতিশীল হওয়ার পরে এই API টি অবচয় করা হয়েছে এবং টেনসরফ্লোয়ের ভবিষ্যতের সংস্করণে সরানো হবে।

StopGradient

পাবলিক চূড়ান্ত ক্লাস StopGradient

গ্রেডিয়েন্ট গণনা বন্ধ করে।

একটি গ্রাফে কার্যকর করা হলে, এই অপটি তার ইনপুট টেনসরকে যেমন-আউটপুট করে।

গ্রেডিয়েন্ট কম্পিউট করার জন্য অপ্স তৈরি করার সময়, এই অপটি এর ইনপুটগুলির অবদানকে বিবেচনায় নেওয়া থেকে বাধা দেয়। সাধারণত, গ্রেডিয়েন্ট জেনারেটর একটি নির্দিষ্ট 'ক্ষতি' এর ডেরিভেটিভ গণনা করার জন্য একটি গ্রাফে অপস যোগ করে যা এর গণনায় অবদান রাখে এমন ইনপুটগুলি বারবার খুঁজে বের করে। আপনি যদি গ্রাফে এই অপটি সন্নিবেশ করেন তবে এটি গ্রেডিয়েন্ট জেনারেটর থেকে ইনপুটগুলি মাস্ক করা হয়। কম্পিউটিং গ্রেডিয়েন্টের জন্য এগুলিকে বিবেচনায় নেওয়া হয় না।

আপনি যখন টেনসরফ্লো দিয়ে একটি মান গণনা করতে চান তখন এটি কার্যকর কিন্তু মানটি একটি ধ্রুবক ছিল বলে ভান করতে হবে। উদাহরণস্বরূপ, একটি ভেক্টর x এর জন্য সফটম্যাক্স ফাংশনটি

def softmax(x):
     numerator = tf.exp(x)
     denominator = tf.reduce_sum(numerator)
     return numerator / denominator
 
হিসাবে লেখা যেতে পারে তবে x এর মানগুলি বড় হলে এটি ওভারফ্লো হওয়ার জন্য সংবেদনশীল। একটি বিকল্প আরো স্থিতিশীল উপায় হল প্রতিটি মান থেকে x এর সর্বোচ্চ বিয়োগ করা।
def stable_softmax(x):
     z = x - tf.reduce_max(x)
     numerator = tf.exp(z)
     denominator = tf.reduce_sum(numerator)
     return numerator / denominator
 
যাইহোক, যখন আমরা softmax-এর মাধ্যমে x-এ ব্যাকপ্রপ করি, তখন আমরা tf.reduce_max(x) (যদি সর্বাধিক মান অনন্য না হয় তবে গ্রেডিয়েন্টটি ভুল ইনপুটে প্রবাহিত হতে পারে) গণনার মাধ্যমে ব্যাকপ্রপ করতে চাই না এবং এটিকে হিসাবে বিবেচনা করি। একটি ধ্রুবক অতএব, আমাদের এটিকে
def stable_softmax(x):
     z = x - tf.stop_gradient(tf.reduce_max(x))
     numerator = tf.exp(z)
     denominator = tf.reduce_sum(numerator)
     return numerator / denominator
 
হিসাবে লিখতে হবে অন্য কিছু উদাহরণের মধ্যে রয়েছে:
  • EM অ্যালগরিদম যেখানে M-পদক্ষেপটি ই-পদক্ষেপের আউটপুটের মাধ্যমে ব্যাকপ্রোপগেশনকে জড়িত করা উচিত নয়।
  • বোল্টজম্যান মেশিনের বৈপরীত্য বিচ্যুতি প্রশিক্ষণ যেখানে, শক্তি ফাংশন পার্থক্য করার সময়, প্রশিক্ষণটি মডেল থেকে নমুনাগুলি তৈরি করা গ্রাফের মাধ্যমে ব্যাকপ্রপাগেট করা উচিত নয়।
  • প্রতিকূল প্রশিক্ষণ, যেখানে প্রতিপক্ষের উদাহরণ তৈরির প্রক্রিয়ার মাধ্যমে কোনো ব্যাকপ্রপ ঘটবে না।

পাবলিক পদ্ধতি

আউটপুট <T>
আউটপুট হিসাবে ()
একটি টেনসরের প্রতীকী হ্যান্ডেল প্রদান করে।
স্ট্যাটিক <T> StopGradient <T>
তৈরি করুন ( স্কোপ স্কোপ, অপারেন্ড <T> ইনপুট)
একটি নতুন StopGradient অপারেশন মোড়ানো একটি ক্লাস তৈরি করার কারখানা পদ্ধতি।
আউটপুট <T>

উত্তরাধিকারসূত্রে প্রাপ্ত পদ্ধতি

পাবলিক পদ্ধতি

সর্বজনীন আউটপুট <T> হিসাবে আউটপুট ()

একটি টেনসরের প্রতীকী হ্যান্ডেল প্রদান করে।

TensorFlow অপারেশনের ইনপুট হল অন্য TensorFlow অপারেশনের আউটপুট। এই পদ্ধতিটি একটি সিম্বলিক হ্যান্ডেল পেতে ব্যবহৃত হয় যা ইনপুটের গণনার প্রতিনিধিত্ব করে।

পাবলিক স্ট্যাটিক স্টপগ্রেডিয়েন্ট <T> তৈরি করুন ( স্কোপ স্কোপ, অপারেন্ড <T> ইনপুট)

একটি নতুন StopGradient অপারেশন মোড়ানো একটি ক্লাস তৈরি করার কারখানা পদ্ধতি।

পরামিতি
সুযোগ বর্তমান সুযোগ
রিটার্নস
  • StopGradient এর একটি নতুন উদাহরণ

সর্বজনীন আউটপুট <T> আউটপুট ()