ApplyAdagradV2

পাবলিক ফাইনাল ক্লাস ApplyAdagradV2

অ্যাডগ্রাড স্কিম অনুযায়ী '*var' আপডেট করুন।

accum += grad * grad var -= lr * grad * (1 / sqrt(accum))

নেস্টেড ক্লাস

ক্লাস AdagradV2.Options প্রয়োগ করুন ApplyAdagradV2 এর জন্য ঐচ্ছিক বৈশিষ্ট্য

পাবলিক পদ্ধতি

আউটপুট <T>
আউটপুট হিসাবে ()
একটি টেনসরের প্রতীকী হ্যান্ডেল প্রদান করে।
স্ট্যাটিক <T> ApplyAdagradV2 <T>
তৈরি করুন ( স্কোপ স্কোপ, Operand <T> var, Operand <T> accum, Operand <T> lr, Operand <T> epsilon, Operand <T> grad, বিকল্প... বিকল্প)
একটি নতুন ApplyAdagradV2 অপারেশন মোড়ানো একটি ক্লাস তৈরি করার কারখানার পদ্ধতি।
আউটপুট <T>
আউট ()
"var" এর মতোই।
স্ট্যাটিক ApplyAdagradV2.Options
আপডেট স্লট (বুলিয়ান আপডেট স্লট)
স্ট্যাটিক ApplyAdagradV2.Options
ইউজ লকিং (বুলিয়ান ইউজ লকিং)

উত্তরাধিকারসূত্রে প্রাপ্ত পদ্ধতি

পাবলিক পদ্ধতি

সর্বজনীন আউটপুট <T> হিসাবে আউটপুট ()

একটি টেনসরের প্রতীকী হ্যান্ডেল প্রদান করে।

TensorFlow অপারেশনের ইনপুট হল অন্য TensorFlow অপারেশনের আউটপুট। এই পদ্ধতিটি একটি প্রতীকী হ্যান্ডেল পেতে ব্যবহৃত হয় যা ইনপুটের গণনাকে প্রতিনিধিত্ব করে।

পাবলিক স্ট্যাটিক ApplyAdagradV2 <T> তৈরি করুন ( স্কোপ স্কোপ, Operand <T> var, Operand <T> accum, Operand <T> lr, Operand <T> epsilon, Operand <T> গ্র্যাড, বিকল্প... বিকল্প)

একটি নতুন ApplyAdagradV2 অপারেশন মোড়ানো একটি ক্লাস তৈরি করার কারখানার পদ্ধতি।

পরামিতি
সুযোগ বর্তমান সুযোগ
var একটি পরিবর্তনশীল() থেকে হওয়া উচিত।
accum একটি পরিবর্তনশীল() থেকে হওয়া উচিত।
lr স্কেলিং ফ্যাক্টর। একটি স্কেলার হতে হবে।
epsilon ধ্রুবক ফ্যাক্টর। একটি স্কেলার হতে হবে।
স্নাতক গ্রেডিয়েন্ট।
বিকল্প ঐচ্ছিক বৈশিষ্ট্য মান বহন করে
রিটার্নস
  • ApplyAdagradV2 এর একটি নতুন উদাহরণ

সর্বজনীন আউটপুট <T> আউট ()

"var" এর মতোই।

পাবলিক স্ট্যাটিক ApplyAdagradV2.Options আপডেট স্লট (বুলিয়ান আপডেট স্লট)

পাবলিক স্ট্যাটিক ApplyAdagradV2. অপশন ইউজ লকিং (বুলিয়ান ইউজ লকিং)

পরামিতি
লকিং ব্যবহার করুন যদি `True` হয়, var এবং accum tensors আপডেট করা একটি লক দ্বারা সুরক্ষিত হবে; অন্যথায় আচরণটি অনির্ধারিত, তবে কম বিরোধ প্রদর্শন করতে পারে।