adagrad স্কিম অনুযায়ী '*var' আপডেট করুন।
accum += grad * grad var -= lr * grad * (1 / sqrt(accum))
নেস্টেড ক্লাস
ক্লাস | AdagradV2.Options প্রয়োগ করুন | জন্য ঐচ্ছিক বৈশিষ্ট্য ApplyAdagradV2 |
পাবলিক পদ্ধতি
আউটপুট <টি> | asOutput () একটি টেনসরের প্রতীকী হ্যান্ডেল প্রদান করে। |
স্ট্যাটিক <টি> ApplyAdagradV2 <টি> | |
আউটপুট <টি> | আউট () "var" এর মতোই। |
স্ট্যাটিক ApplyAdagradV2.Options | updateSlots (বুলিয়ান updateSlots) |
স্ট্যাটিক ApplyAdagradV2.Options | useLocking (বুলিয়ান useLocking) |
উত্তরাধিকারসূত্রে প্রাপ্ত পদ্ধতি
পাবলিক পদ্ধতি
পাবলিক আউটপুট <টি> asOutput ()
একটি টেনসরের প্রতীকী হ্যান্ডেল প্রদান করে।
TensorFlow অপারেশনের ইনপুট হল অন্য TensorFlow অপারেশনের আউটপুট। এই পদ্ধতিটি একটি সিম্বলিক হ্যান্ডেল পেতে ব্যবহৃত হয় যা ইনপুটের গণনার প্রতিনিধিত্ব করে।
পাবলিক স্ট্যাটিক ApplyAdagradV2 <টি> তৈরি করুন ( ব্যাপ্তি সুযোগ প্রতীক <টি> Var, প্রতীক <টি> accum, প্রতীক <টি> LR, প্রতীক <টি> Epsilon, প্রতীক <টি> Grad, বিকল্পসমূহ ... অপশন)
একটি নতুন ApplyAdagradV2 অপারেশন মোড়ানো একটি ক্লাস তৈরি করার কারখানা পদ্ধতি।
পরামিতি
সুযোগ | বর্তমান সুযোগ |
---|---|
var | একটি পরিবর্তনশীল() থেকে হওয়া উচিত। |
accum | একটি পরিবর্তনশীল() থেকে হওয়া উচিত। |
lr | স্কেলিং ফ্যাক্টর। একটি স্কেলার হতে হবে। |
epsilon | ধ্রুবক ফ্যাক্টর। একটি স্কেলার হতে হবে। |
স্নাতক | গ্রেডিয়েন্ট। |
বিকল্প | ঐচ্ছিক বৈশিষ্ট্য মান বহন করে |
রিটার্নস
- ApplyAdagradV2 এর একটি নতুন উদাহরণ
পাবলিক স্ট্যাটিক ApplyAdagradV2.Options useLocking (বুলিয়ান useLocking)
পরামিতি
লকিং ব্যবহার করুন | যদি `True` হয়, তাহলে var এবং accum tensors আপডেট করা একটি লক দ্বারা সুরক্ষিত হবে; অন্যথায় আচরণটি অনির্ধারিত, তবে কম বিরোধ প্রদর্শন করতে পারে। |
---|