AdaDelta

পাবলিক ক্লাস অ্যাডাডেল্টা

অপ্টিমাইজার যা অ্যাডাডেল্টা অ্যালগরিদম প্রয়োগ করে।

অ্যাডাডেল্টা অপ্টিমাইজেশান হল একটি স্টোকাস্টিক গ্রেডিয়েন্ট ডিসেন্ট পদ্ধতি যা দুটি ত্রুটি দূর করতে প্রতি মাত্রায় অভিযোজিত শিক্ষার হারের উপর ভিত্তি করে:

  • প্রশিক্ষণ জুড়ে শেখার হারের ক্রমাগত ক্ষয়
  • একটি ম্যানুয়ালি নির্বাচিত বৈশ্বিক শিক্ষার হারের প্রয়োজন

Adadelta হল Adagrad-এর আরও শক্তিশালী এক্সটেনশন যা অতীতের সমস্ত গ্রেডিয়েন্ট জমা করার পরিবর্তে গ্রেডিয়েন্ট আপডেটের চলমান উইন্ডোর উপর ভিত্তি করে শেখার হারগুলিকে মানিয়ে নেয়। এইভাবে, অ্যাডাডেল্টা শেখা চালিয়ে যায় এমনকি যখন অনেক আপডেট করা হয়েছে। অ্যাডাগ্রাডের তুলনায়, অ্যাডাডেল্টার আসল সংস্করণে আপনাকে প্রাথমিক শিক্ষার হার সেট করতে হবে না। এই সংস্করণে, প্রাথমিক শিক্ষার হার সেট করা যেতে পারে, যেমনটি অন্যান্য অপ্টিমাইজারের মতো।

অধ্যায় 4.3 ("কার্যকর শিক্ষার হার") অনুসারে, প্রশিক্ষণের শেষের দিকে ধাপের আকার 1 এ একত্রিত হয় যা কার্যকরভাবে একটি উচ্চ শিক্ষার হার যা ভিন্নতা সৃষ্টি করবে। এটি শুধুমাত্র প্রশিক্ষণের শেষের কাছাকাছি ঘটে কারণ গ্রেডিয়েন্ট এবং ধাপের আকার ছোট হয় এবং লব এবং ডিনোমিনেটরের এপিসিলন ধ্রুবকটি অতীতের গ্রেডিয়েন্ট এবং প্যারামিটার আপডেটগুলিকে প্রাধান্য দেয় যা শেখার হারকে 1 এ রূপান্তর করে।

অধ্যায় 4.4("স্পিচ ডেটা") অনুসারে, যেখানে 4টি লুকানো স্তর সহ একটি বৃহৎ নিউরাল নেটওয়ার্ককে ইউএস ইংলিশ ডেটার একটি কর্পাসে প্রশিক্ষিত করা হয়েছিল, ADADELTA 100টি নেটওয়ার্ক প্রতিলিপির সাথে ব্যবহার করা হয়েছিল৷ ব্যবহৃত epsilon হল 1e-6 যার সাথে rho=0.95 নিম্নলিখিত নির্মাণ দ্বারা ADAGRAD এর চেয়ে দ্রুত একত্রিত হয়েছে: new AdaDelta(graph, 1.0f, 0.95f, 1e-6f);

ধ্রুবক

স্ট্রিং সঞ্চয়কারী
স্ট্রিং ACCUMULATOR_UPDATE
ভাসা EPSILON_DEFAULT
ভাসা LEARNING_RATE_DEFAULT
ভাসা RHO_DEFAULT

উত্তরাধিকার সূত্রে প্রাপ্ত ধ্রুবক

পাবলিক কনস্ট্রাক্টর

অ্যাডাডেল্টা ( গ্রাফ গ্রাফ, ফ্লোট লার্নিং রেট)
একটি অ্যাডাডেল্টা অপ্টিমাইজার তৈরি করে
অ্যাডাডেল্টা ( গ্রাফ গ্রাফ, ফ্লোট লার্নিং রেট, ফ্লোট রো, ফ্লোট এপসিলন)
একটি অ্যাডাডেল্টা অপ্টিমাইজার তৈরি করে
অ্যাডাডেল্টা ( গ্রাফ গ্রাফ, স্ট্রিং নাম, ফ্লোট লার্নিং রেট)
একটি অ্যাডাডেল্টা অপ্টিমাইজার তৈরি করে
অ্যাডাডেল্টা ( গ্রাফ গ্রাফ, স্ট্রিং নাম, ফ্লোট লার্নিং রেট, ফ্লোট রো, ফ্লোট এপসিলন)
একটি অ্যাডাডেল্টা অপ্টিমাইজার তৈরি করে

পাবলিক পদ্ধতি

স্ট্রিং
getOptimizerName ()
অপ্টিমাইজারের নাম পান।
স্ট্রিং

উত্তরাধিকারসূত্রে প্রাপ্ত পদ্ধতি

ধ্রুবক

পাবলিক স্ট্যাটিক ফাইনাল স্ট্রিং অ্যাকিউমুলেটর

ধ্রুবক মান: "accum"

সর্বজনীন স্ট্যাটিক চূড়ান্ত স্ট্রিং ACCUMULATOR_UPDATE৷

ধ্রুবক মান: "accum_update"

পাবলিক স্ট্যাটিক ফাইনাল ফ্লোট EPSILON_DEFAULT

ধ্রুবক মান: 1.0E-7

পাবলিক স্ট্যাটিক ফাইনাল ফ্লোট LEARNING_RATE_DEFAULT

ধ্রুবক মান: 0.001

পাবলিক স্ট্যাটিক ফাইনাল ফ্লোট RHO_DEFAULT

ধ্রুবক মান: 0.95

পাবলিক কনস্ট্রাক্টর

পাবলিক অ্যাডাডেল্টা ( গ্রাফ গ্রাফ)

পাবলিক অ্যাডাডেল্টা ( গ্রাফ গ্রাফ, ফ্লোট লার্নিং রেট)

একটি অ্যাডাডেল্টা অপ্টিমাইজার তৈরি করে

পরামিতি
চিত্রলেখ টেনসরফ্লো গ্রাফ
শেখার হার শেখার হার

পাবলিক অ্যাডাডেল্টা ( গ্রাফ গ্রাফ, ফ্লোট লার্নিং রেট, ফ্লোট রো, ফ্লোট এপসিলন)

একটি অ্যাডাডেল্টা অপ্টিমাইজার তৈরি করে

পরামিতি
চিত্রলেখ টেনসরফ্লো গ্রাফ
শেখার হার শেখার হার
rho ক্ষয় ফ্যাক্টর
epsilon একটি ধ্রুবক এপসিলন গ্র্যাড আপডেটকে আরও ভাল কন্ডিশনার করতে ব্যবহৃত হয়

পাবলিক অ্যাডাডেল্টা ( গ্রাফ গ্রাফ, স্ট্রিং নাম, ফ্লোট লার্নিং রেট)

একটি অ্যাডাডেল্টা অপ্টিমাইজার তৈরি করে

পরামিতি
চিত্রলেখ টেনসরফ্লো গ্রাফ
নাম এই অপ্টিমাইজারের নাম (ডিফল্ট 'Adadelta')
শেখার হার শেখার হার

পাবলিক অ্যাডাডেল্টা ( গ্রাফ গ্রাফ, স্ট্রিং নাম, ফ্লোট লার্নিং রেট, ফ্লোট রো, ফ্লোট এপসিলন)

একটি অ্যাডাডেল্টা অপ্টিমাইজার তৈরি করে

পরামিতি
চিত্রলেখ টেনসরফ্লো গ্রাফ
নাম এই অপ্টিমাইজারের নাম (ডিফল্ট 'Adadelta')
শেখার হার শেখার হার
rho ক্ষয় ফ্যাক্টর
epsilon একটি ধ্রুবক এপসিলন গ্র্যাড আপডেটকে আরও ভাল কন্ডিশনার করতে ব্যবহৃত হয়

পাবলিক পদ্ধতি

সর্বজনীন স্ট্রিং getOptimizerName ()

অপ্টিমাইজারের নাম পান।

রিটার্নস
  • অপ্টিমাইজারের নাম।

পাবলিক স্ট্রিং থেকে স্ট্রিং ()