অপ্টিমাইজার যা অ্যাডাডেল্টা অ্যালগরিদম প্রয়োগ করে।
অ্যাডাডেল্টা অপ্টিমাইজেশান হল একটি স্টোকাস্টিক গ্রেডিয়েন্ট ডিসেন্ট পদ্ধতি যা দুটি ত্রুটি দূর করতে প্রতি মাত্রায় অভিযোজিত শিক্ষার হারের উপর ভিত্তি করে:
- প্রশিক্ষণ জুড়ে শেখার হারের ক্রমাগত ক্ষয়
- একটি ম্যানুয়ালি নির্বাচিত বৈশ্বিক শিক্ষার হারের প্রয়োজন
Adadelta হল Adagrad-এর আরও শক্তিশালী এক্সটেনশন যা অতীতের সমস্ত গ্রেডিয়েন্ট জমা করার পরিবর্তে গ্রেডিয়েন্ট আপডেটের চলমান উইন্ডোর উপর ভিত্তি করে শেখার হারগুলিকে মানিয়ে নেয়। এইভাবে, অ্যাডাডেল্টা শেখা চালিয়ে যায় এমনকি যখন অনেক আপডেট করা হয়েছে। অ্যাডাগ্রাডের তুলনায়, অ্যাডাডেল্টার আসল সংস্করণে আপনাকে প্রাথমিক শিক্ষার হার সেট করতে হবে না। এই সংস্করণে, প্রাথমিক শিক্ষার হার সেট করা যেতে পারে, যেমনটি অন্যান্য অপ্টিমাইজারের মতো।
অধ্যায় 4.3 ("কার্যকর শিক্ষার হার") অনুসারে, প্রশিক্ষণের শেষের দিকে ধাপের আকার 1 এ একত্রিত হয় যা কার্যকরভাবে একটি উচ্চ শিক্ষার হার যা ভিন্নতা সৃষ্টি করবে। এটি শুধুমাত্র প্রশিক্ষণের শেষের কাছাকাছি ঘটে কারণ গ্রেডিয়েন্ট এবং ধাপের আকার ছোট হয় এবং লব এবং ডিনোমিনেটরের এপিসিলন ধ্রুবকটি অতীতের গ্রেডিয়েন্ট এবং প্যারামিটার আপডেটগুলিকে প্রাধান্য দেয় যা শেখার হারকে 1 এ রূপান্তর করে।
অধ্যায় 4.4("স্পিচ ডেটা") অনুসারে, যেখানে 4টি লুকানো স্তর সহ একটি বৃহৎ নিউরাল নেটওয়ার্ককে ইউএস ইংলিশ ডেটার একটি কর্পাসে প্রশিক্ষিত করা হয়েছিল, ADADELTA 100টি নেটওয়ার্ক প্রতিলিপির সাথে ব্যবহার করা হয়েছিল৷ ব্যবহৃত epsilon হল 1e-6 যার সাথে rho=0.95 নিম্নলিখিত নির্মাণ দ্বারা ADAGRAD এর চেয়ে দ্রুত একত্রিত হয়েছে: new AdaDelta(graph, 1.0f, 0.95f, 1e-6f);
ধ্রুবক
স্ট্রিং | সঞ্চয়কারী | |
স্ট্রিং | ACCUMULATOR_UPDATE | |
ভাসা | EPSILON_DEFAULT | |
ভাসা | LEARNING_RATE_DEFAULT | |
ভাসা | RHO_DEFAULT |
উত্তরাধিকার সূত্রে প্রাপ্ত ধ্রুবক
পাবলিক কনস্ট্রাক্টর
অ্যাডাডেল্টা ( গ্রাফ গ্রাফ) | |
অ্যাডাডেল্টা ( গ্রাফ গ্রাফ, ফ্লোট লার্নিং রেট, ফ্লোট রো, ফ্লোট এপসিলন) একটি অ্যাডাডেল্টা অপ্টিমাইজার তৈরি করে | |
অ্যাডাডেল্টা ( গ্রাফ গ্রাফ, স্ট্রিং নাম, ফ্লোট লার্নিং রেট, ফ্লোট রো, ফ্লোট এপসিলন) একটি অ্যাডাডেল্টা অপ্টিমাইজার তৈরি করে |
পাবলিক পদ্ধতি
স্ট্রিং | getOptimizerName () অপ্টিমাইজারের নাম পান। |
স্ট্রিং | স্ট্রিং () |
উত্তরাধিকারসূত্রে প্রাপ্ত পদ্ধতি
ধ্রুবক
পাবলিক স্ট্যাটিক ফাইনাল স্ট্রিং অ্যাকিউমুলেটর
সর্বজনীন স্ট্যাটিক চূড়ান্ত স্ট্রিং ACCUMULATOR_UPDATE৷
পাবলিক স্ট্যাটিক ফাইনাল ফ্লোট EPSILON_DEFAULT
পাবলিক স্ট্যাটিক ফাইনাল ফ্লোট LEARNING_RATE_DEFAULT
পাবলিক স্ট্যাটিক ফাইনাল ফ্লোট RHO_DEFAULT
পাবলিক কনস্ট্রাক্টর
পাবলিক অ্যাডাডেল্টা ( গ্রাফ গ্রাফ, ফ্লোট লার্নিং রেট)
একটি অ্যাডাডেল্টা অপ্টিমাইজার তৈরি করে
পরামিতি
চিত্রলেখ | টেনসরফ্লো গ্রাফ |
---|---|
শেখার হার | শেখার হার |
পাবলিক অ্যাডাডেল্টা ( গ্রাফ গ্রাফ, ফ্লোট লার্নিং রেট, ফ্লোট রো, ফ্লোট এপসিলন)
একটি অ্যাডাডেল্টা অপ্টিমাইজার তৈরি করে
পরামিতি
চিত্রলেখ | টেনসরফ্লো গ্রাফ |
---|---|
শেখার হার | শেখার হার |
rho | ক্ষয় ফ্যাক্টর |
epsilon | একটি ধ্রুবক এপসিলন গ্র্যাড আপডেটকে আরও ভাল কন্ডিশনার করতে ব্যবহৃত হয় |
পাবলিক অ্যাডাডেল্টা ( গ্রাফ গ্রাফ, স্ট্রিং নাম, ফ্লোট লার্নিং রেট)
একটি অ্যাডাডেল্টা অপ্টিমাইজার তৈরি করে
পরামিতি
চিত্রলেখ | টেনসরফ্লো গ্রাফ |
---|---|
নাম | এই অপ্টিমাইজারের নাম (ডিফল্ট 'Adadelta') |
শেখার হার | শেখার হার |
পাবলিক অ্যাডাডেল্টা ( গ্রাফ গ্রাফ, স্ট্রিং নাম, ফ্লোট লার্নিং রেট, ফ্লোট রো, ফ্লোট এপসিলন)
একটি অ্যাডাডেল্টা অপ্টিমাইজার তৈরি করে
পরামিতি
চিত্রলেখ | টেনসরফ্লো গ্রাফ |
---|---|
নাম | এই অপ্টিমাইজারের নাম (ডিফল্ট 'Adadelta') |
শেখার হার | শেখার হার |
rho | ক্ষয় ফ্যাক্টর |
epsilon | একটি ধ্রুবক এপসিলন গ্র্যাড আপডেটকে আরও ভাল কন্ডিশনার করতে ব্যবহৃত হয় |
পাবলিক পদ্ধতি
সর্বজনীন স্ট্রিং getOptimizerName ()
অপ্টিমাইজারের নাম পান।
রিটার্নস
- অপ্টিমাইজারের নাম।