ApplyAdagradV2

পাবলিক চূড়ান্ত বর্গ ApplyAdagradV2

adagrad স্কিম অনুযায়ী '*var' আপডেট করুন।

accum += grad * grad var -= lr * grad * (1 / sqrt(accum))

নেস্টেড ক্লাস

ক্লাস AdagradV2.Options প্রয়োগ করুন জন্য ঐচ্ছিক বৈশিষ্ট্য ApplyAdagradV2

পাবলিক পদ্ধতি

আউটপুট <টি>
asOutput ()
একটি টেনসরের প্রতীকী হ্যান্ডেল প্রদান করে।
স্ট্যাটিক <টি> ApplyAdagradV2 <টি>
তৈরি ( ব্যাপ্তি সুযোগ প্রতীক <টি> Var, প্রতীক <টি> accum, প্রতীক <টি> LR, প্রতীক <টি> Epsilon, প্রতীক <টি> Grad, বিকল্পসমূহ ... অপশন)
একটি নতুন ApplyAdagradV2 অপারেশন মোড়ানো একটি ক্লাস তৈরি করার কারখানা পদ্ধতি।
আউটপুট <টি>
আউট ()
"var" এর মতোই।
স্ট্যাটিক ApplyAdagradV2.Options
updateSlots (বুলিয়ান updateSlots)
স্ট্যাটিক ApplyAdagradV2.Options
useLocking (বুলিয়ান useLocking)

উত্তরাধিকারসূত্রে প্রাপ্ত পদ্ধতি

পাবলিক পদ্ধতি

পাবলিক আউটপুট <টি> asOutput ()

একটি টেনসরের প্রতীকী হ্যান্ডেল প্রদান করে।

TensorFlow অপারেশনের ইনপুট হল অন্য TensorFlow অপারেশনের আউটপুট। এই পদ্ধতিটি একটি সিম্বলিক হ্যান্ডেল পেতে ব্যবহৃত হয় যা ইনপুটের গণনার প্রতিনিধিত্ব করে।

পাবলিক স্ট্যাটিক ApplyAdagradV2 <টি> তৈরি করুন ( ব্যাপ্তি সুযোগ প্রতীক <টি> Var, প্রতীক <টি> accum, প্রতীক <টি> LR, প্রতীক <টি> Epsilon, প্রতীক <টি> Grad, বিকল্পসমূহ ... অপশন)

একটি নতুন ApplyAdagradV2 অপারেশন মোড়ানো একটি ক্লাস তৈরি করার কারখানা পদ্ধতি।

পরামিতি
সুযোগ বর্তমান সুযোগ
var একটি পরিবর্তনশীল() থেকে হওয়া উচিত।
accum একটি পরিবর্তনশীল() থেকে হওয়া উচিত।
lr স্কেলিং ফ্যাক্টর। একটি স্কেলার হতে হবে।
epsilon ধ্রুবক ফ্যাক্টর। একটি স্কেলার হতে হবে।
স্নাতক গ্রেডিয়েন্ট।
বিকল্প ঐচ্ছিক বৈশিষ্ট্য মান বহন করে
রিটার্নস
  • ApplyAdagradV2 এর একটি নতুন উদাহরণ

পাবলিক আউটপুট <টি> আউট ()

"var" এর মতোই।

পাবলিক স্ট্যাটিক ApplyAdagradV2.Options updateSlots (বুলিয়ান updateSlots)

পাবলিক স্ট্যাটিক ApplyAdagradV2.Options useLocking (বুলিয়ান useLocking)

পরামিতি
লকিং ব্যবহার করুন যদি `True` হয়, তাহলে var এবং accum tensors আপডেট করা একটি লক দ্বারা সুরক্ষিত হবে; অন্যথায় আচরণটি অনির্ধারিত, তবে কম বিরোধ প্রদর্শন করতে পারে।