AdaDelta

পাবলিক ক্লাস অ্যাডাডেল্টা

অপ্টিমাইজার যা অ্যাডাডেল্টা অ্যালগরিদম প্রয়োগ করে।

অ্যাডাডেল্টা অপ্টিমাইজেশান হল একটি স্টোকাস্টিক গ্রেডিয়েন্ট ডিসেন্ট পদ্ধতি যা দুটি ত্রুটি দূর করতে প্রতি মাত্রায় অভিযোজিত শিক্ষার হারের উপর ভিত্তি করে:

  • প্রশিক্ষণ জুড়ে শেখার হারের ক্রমাগত ক্ষয়
  • একটি ম্যানুয়ালি নির্বাচিত বৈশ্বিক শিক্ষার হারের প্রয়োজন

Adadelta হল Adagrad-এর আরও শক্তিশালী এক্সটেনশন যা অতীতের সমস্ত গ্রেডিয়েন্ট জমা করার পরিবর্তে গ্রেডিয়েন্ট আপডেটের চলমান উইন্ডোর উপর ভিত্তি করে শেখার হারগুলিকে মানিয়ে নেয়। এইভাবে, অ্যাডাডেল্টা শেখা চালিয়ে যায় এমনকি যখন অনেক আপডেট করা হয়েছে। অ্যাডাগ্রাডের তুলনায়, অ্যাডাডেল্টার আসল সংস্করণে আপনাকে প্রাথমিক শিক্ষার হার সেট করতে হবে না। এই সংস্করণে, প্রাথমিক শিক্ষার হার সেট করা যেতে পারে, যেমনটি অন্যান্য অপ্টিমাইজারের মতো।

অধ্যায় 4.3 ("কার্যকর শিক্ষার হার") অনুসারে, প্রশিক্ষণের শেষের দিকে ধাপের আকার 1 এ একত্রিত হয় যা কার্যকরভাবে একটি উচ্চ শিক্ষার হার যা ভিন্নতা সৃষ্টি করবে। এটি শুধুমাত্র প্রশিক্ষণের শেষের কাছাকাছি ঘটে কারণ গ্রেডিয়েন্ট এবং ধাপের আকার ছোট হয় এবং লব এবং ডিনোমিনেটরের এপিসিলন ধ্রুবকটি অতীতের গ্রেডিয়েন্ট এবং প্যারামিটার আপডেটগুলিকে প্রাধান্য দেয় যা শেখার হারকে 1 এ রূপান্তর করে।

অধ্যায় 4.4("স্পিচ ডেটা") অনুসারে, যেখানে 4টি লুকানো স্তর সহ একটি বৃহৎ নিউরাল নেটওয়ার্ককে ইউএস ইংলিশ ডেটার একটি কর্পাসে প্রশিক্ষিত করা হয়েছিল, ADADELTA 100টি নেটওয়ার্ক প্রতিলিপির সাথে ব্যবহার করা হয়েছিল৷ ব্যবহৃত epsilon হল 1e-6 যার সাথে rho=0.95 নিম্নলিখিত নির্মাণ দ্বারা ADAGRAD এর চেয়ে দ্রুত একত্রিত হয়েছে: new AdaDelta(graph, 1.0f, 0.95f, 1e-6f);

ধ্রুবক

স্ট্রিং সঞ্চয়কারী
স্ট্রিং ACCUMULATOR_UPDATE
ভাসা EPSILON_DEFAULT
ভাসা LEARNING_RATE_DEFAULT
ভাসা RHO_DEFAULT

উত্তরাধিকার সূত্রে প্রাপ্ত ধ্রুবক

org.tensorflow.framework.optimizers.Optimizer ক্লাস থেকে
স্ট্রিং VARIABLE_V2

পাবলিক কনস্ট্রাক্টর

অ্যাডাডেল্টা ( গ্রাফ গ্রাফ, ফ্লোট লার্নিং রেট)
একটি অ্যাডাডেল্টা অপ্টিমাইজার তৈরি করে
অ্যাডাডেল্টা ( গ্রাফ গ্রাফ, ফ্লোট লার্নিং রেট, ফ্লোট রো, ফ্লোট এপসিলন)
একটি অ্যাডাডেল্টা অপ্টিমাইজার তৈরি করে
অ্যাডাডেল্টা ( গ্রাফ গ্রাফ, স্ট্রিং নাম, ফ্লোট লার্নিং রেট)
একটি অ্যাডাডেল্টা অপ্টিমাইজার তৈরি করে
অ্যাডাডেল্টা ( গ্রাফ গ্রাফ, স্ট্রিং নাম, ফ্লোট লার্নিং রেট, ফ্লোট রো, ফ্লোট এপসিলন)
একটি অ্যাডাডেল্টা অপ্টিমাইজার তৈরি করে

পাবলিক পদ্ধতি

স্ট্রিং
getOptimizerName ()
অপ্টিমাইজারের নাম পান।
স্ট্রিং

উত্তরাধিকারসূত্রে প্রাপ্ত পদ্ধতি

org.tensorflow.framework.optimizers.Optimizer ক্লাস থেকে
অপ
গ্রেডিয়েন্ট প্রয়োগ করুন (তালিকা< GradAndVar <? প্রসারিত TType >> gradsAndVars, স্ট্রিং নাম)
ভেরিয়েবলে গ্রেডিয়েন্ট প্রয়োগ করে
<T প্রসারিত করে TType > তালিকা< GradAndVar <?>>
computeGradients ( অপারেন্ড <?> ক্ষতি)
লস অপারেন্ডের উপর ভিত্তি করে গ্রেডিয়েন্ট গণনা করে।
স্ট্যাটিক স্ট্রিং
createName ( আউটপুট <? প্রসারিত TType > ভেরিয়েবল, স্ট্রিং স্লটনাম)
একটি পরিবর্তনশীল নাম এবং একটি স্লট নাম একত্রিত করে একটি নাম তৈরি করে
বিমূর্ত স্ট্রিং
getOptimizerName ()
অপ্টিমাইজারের নাম পান।
<T প্রসারিত করে TType > ঐচ্ছিক< পরিবর্তনশীল <T>>
getSlot ( আউটপুট <T> var, স্ট্রিং স্লটনাম)
নির্দিষ্ট ভেরিয়েবল এবং স্লট নামের সাথে যুক্ত স্লট পায়।
চূড়ান্ত অপারেশন
getTF ()
অপ্টিমাইজারের অপস ইনস্ট্যান্স পায়
অপ
মিনিমাইজ করুন ( অপারেন্ড <?> ক্ষতি)
ভেরিয়েবল আপডেট করে ক্ষতি কম করে
অপ
ছোট করুন ( অপারেন্ড <?> ক্ষতি, স্ট্রিং নাম)
ভেরিয়েবল আপডেট করে ক্ষতি কম করে
বুলিয়ান
সমান (অবজেক্ট arg0)
চূড়ান্ত ক্লাস<?>
getClass ()
int
হ্যাশ কোড ()
চূড়ান্ত শূন্যতা
অবহিত ()
চূড়ান্ত শূন্যতা
সকলকে অবহিত করুন ()
স্ট্রিং
স্ট্রিং ()
চূড়ান্ত শূন্যতা
অপেক্ষা করুন (দীর্ঘ arg0, int arg1)
চূড়ান্ত শূন্যতা
অপেক্ষা করুন (দীর্ঘ arg0)
চূড়ান্ত শূন্যতা
অপেক্ষা করুন ()

ধ্রুবক

পাবলিক স্ট্যাটিক ফাইনাল স্ট্রিং অ্যাকিউমুলেটর

ধ্রুবক মান: "accum"

সর্বজনীন স্ট্যাটিক চূড়ান্ত স্ট্রিং ACCUMULATOR_UPDATE৷

ধ্রুবক মান: "accum_update"

পাবলিক স্ট্যাটিক ফাইনাল ফ্লোট EPSILON_DEFAULT

ধ্রুবক মান: 1.0E-7

পাবলিক স্ট্যাটিক ফাইনাল ফ্লোট LEARNING_RATE_DEFAULT

ধ্রুবক মান: 0.001

পাবলিক স্ট্যাটিক ফাইনাল ফ্লোট RHO_DEFAULT

ধ্রুবক মান: 0.95

পাবলিক কনস্ট্রাক্টর

পাবলিক অ্যাডাডেল্টা ( গ্রাফ গ্রাফ)

পাবলিক অ্যাডাডেল্টা ( গ্রাফ গ্রাফ, ফ্লোট লার্নিং রেট)

একটি অ্যাডাডেল্টা অপ্টিমাইজার তৈরি করে

পরামিতি
চিত্রলেখ টেনসরফ্লো গ্রাফ
শেখার হার শেখার হার

পাবলিক অ্যাডাডেল্টা ( গ্রাফ গ্রাফ, ফ্লোট লার্নিং রেট, ফ্লোট রো, ফ্লোট এপসিলন)

একটি অ্যাডাডেল্টা অপ্টিমাইজার তৈরি করে

পরামিতি
চিত্রলেখ টেনসরফ্লো গ্রাফ
শেখার হার শেখার হার
rho ক্ষয় ফ্যাক্টর
epsilon একটি ধ্রুবক এপসিলন গ্র্যাড আপডেটকে আরও ভাল কন্ডিশনার করতে ব্যবহৃত হয়

পাবলিক অ্যাডাডেল্টা ( গ্রাফ গ্রাফ, স্ট্রিং নাম, ফ্লোট লার্নিং রেট)

একটি অ্যাডাডেল্টা অপ্টিমাইজার তৈরি করে

পরামিতি
চিত্রলেখ টেনসরফ্লো গ্রাফ
নাম এই অপ্টিমাইজারের নাম (ডিফল্ট 'Adadelta')
শেখার হার শেখার হার

পাবলিক অ্যাডাডেল্টা ( গ্রাফ গ্রাফ, স্ট্রিং নাম, ফ্লোট লার্নিং রেট, ফ্লোট রো, ফ্লোট এপসিলন)

একটি অ্যাডাডেল্টা অপ্টিমাইজার তৈরি করে

পরামিতি
চিত্রলেখ টেনসরফ্লো গ্রাফ
নাম এই অপ্টিমাইজারের নাম (ডিফল্ট 'Adadelta')
শেখার হার শেখার হার
rho ক্ষয় ফ্যাক্টর
epsilon একটি ধ্রুবক এপসিলন গ্র্যাড আপডেটকে আরও ভাল কন্ডিশনার করতে ব্যবহৃত হয়

পাবলিক পদ্ধতি

সর্বজনীন স্ট্রিং getOptimizerName ()

অপ্টিমাইজারের নাম পান।

রিটার্নস
  • অপ্টিমাইজারের নাম।

পাবলিক স্ট্রিং থেকে স্ট্রিং ()