AdaGrad

सार्वजनिक वर्ग AdaGrad

ऑप्टिमाइज़र जो एडाग्रेड एल्गोरिथम को लागू करता है।

एडाग्रैड पैरामीटर-विशिष्ट सीखने की दरों के साथ एक ऑप्टिमाइज़र है, जो प्रशिक्षण के दौरान एक पैरामीटर कितनी बार अपडेट होता है इसके सापेक्ष अनुकूलित किया जाता है। किसी पैरामीटर को जितने अधिक अपडेट प्राप्त होंगे, अपडेट उतने ही छोटे होंगे।

स्थिरांक

विरासत में मिले स्थिरांक

org.tensorflow.framework.optimizers.Optimizer से
डोरी VARIABLE_V2

सार्वजनिक निर्माता

एडाग्रैड ( ग्राफ ग्राफ)
एक AdaGrad ऑप्टिमाइज़र बनाता है
AdaGrad ( ग्राफ़ ग्राफ़, फ़्लोट लर्निंग रेट)
एक AdaGrad ऑप्टिमाइज़र बनाता है
AdaGrad ( ग्राफ़ ग्राफ़, फ़्लोट लर्निंगरेट, फ़्लोट इनिशियलएक्युमुलेटरवैल्यू)
एक AdaGrad ऑप्टिमाइज़र बनाता है
AdaGrad ( ग्राफ़ ग्राफ़, स्ट्रिंग नाम, फ़्लोट लर्निंग रेट)
एक AdaGrad ऑप्टिमाइज़र बनाता है
AdaGrad ( ग्राफ़ ग्राफ़, स्ट्रिंग नाम, फ़्लोट लर्निंग रेट, फ़्लोट प्रारंभिक AccumulatorValue)
एक AdaGrad ऑप्टिमाइज़र बनाता है

सार्वजनिक तरीके

डोरी
गेटऑप्टिमाइज़रनाम ()
अनुकूलक का नाम प्राप्त करें.
डोरी

विरासत में मिली विधियाँ

org.tensorflow.framework.optimizers.Optimizer से
सेशन
ApplyGradients (सूची< GradAndVar <? विस्तारित TType >> gradsAndVars, स्ट्रिंग नाम)
वेरिएबल्स पर ग्रेडिएंट लागू करता है
<T टीटीटाइप का विस्तार करता है > सूची < GradAndVar <?>>
कंप्यूटग्रैडिएंट्स ( ऑपरेंड <?> हानि)
हानि ऑपरेंड के आधार पर ग्रेडिएंट की गणना करता है।
स्थिर स्ट्रिंग
createName ( आउटपुट <? विस्तारित TType > वेरिएबल, स्ट्रिंग स्लॉटनाम)
एक वेरिएबल नाम और एक स्लॉट नाम को मिलाकर एक नाम बनाता है
सार स्ट्रिंग
गेटऑप्टिमाइज़रनाम ()
अनुकूलक का नाम प्राप्त करें.
<T टीटाइप का विस्तार करता है > वैकल्पिक < वेरिएबल <T>>
getSlot ( आउटपुट <T> var, स्ट्रिंग स्लॉटनाम)
निर्दिष्ट वेरिएबल और स्लॉट नाम से संबद्ध स्लॉट प्राप्त करता है।
अंतिम ऑप्स
getTF ()
ऑप्टिमाइज़र का ऑप्स उदाहरण प्राप्त करता है
सेशन
न्यूनतम ( ऑपरेंड <?> हानि)
वेरिएबल्स को अद्यतन करके हानि को कम करता है
सेशन
न्यूनतम करें ( ऑपरेंड <?> हानि, स्ट्रिंग नाम)
वेरिएबल्स को अद्यतन करके हानि को कम करता है
बूलियन
बराबर (ऑब्जेक्ट arg0)
अंतिम कक्षा<?>
गेटक्लास ()
int यहाँ
हैश कोड ()
अंतिम शून्य
सूचित करें ()
अंतिम शून्य
सभी को सूचित करें ()
डोरी
स्ट्रिंग ()
अंतिम शून्य
प्रतीक्षा करें (लंबा arg0, int arg1)
अंतिम शून्य
प्रतीक्षा करें (लंबा arg0)
अंतिम शून्य
इंतज़ार ()

स्थिरांक

सार्वजनिक स्थैतिक अंतिम स्ट्रिंग संचायक

स्थिर मान: "संचायक"

सार्वजनिक स्थैतिक अंतिम फ़्लोट INITIAL_ACCUMULATOR_DEFAULT

स्थिर मान: 0.01

सार्वजनिक स्थैतिक अंतिम फ़्लोट LEARNING_RATE_DEFAULT

स्थिर मान: 0.001

सार्वजनिक निर्माता

सार्वजनिक AdaGrad ( ग्राफ़ ग्राफ़)

एक AdaGrad ऑप्टिमाइज़र बनाता है

पैरामीटर
ग्राफ टेंसरफ़्लो ग्राफ़

सार्वजनिक AdaGrad ( ग्राफ़ ग्राफ़, फ़्लोट लर्निंगरेट)

एक AdaGrad ऑप्टिमाइज़र बनाता है

पैरामीटर
ग्राफ टेंसरफ़्लो ग्राफ़
सीखने की दर सीखने की दर

सार्वजनिक AdaGrad ( ग्राफ़ ग्राफ़, फ़्लोट लर्निंगरेट, फ़्लोट इनिशियलएक्युमुलेटरवैल्यू)

एक AdaGrad ऑप्टिमाइज़र बनाता है

पैरामीटर
ग्राफ टेंसरफ़्लो ग्राफ़
सीखने की दर सीखने की दर
प्रारंभिक संचायक मान संचायकों के लिए प्रारंभिक मूल्य, गैर-नकारात्मक होना चाहिए।
फेंकता
अवैध तर्क अपवाद यदि प्रारंभिक AccumulatorValue नकारात्मक है

सार्वजनिक AdaGrad ( ग्राफ़ ग्राफ़, स्ट्रिंग नाम, फ़्लोट लर्निंग रेट)

एक AdaGrad ऑप्टिमाइज़र बनाता है

पैरामीटर
ग्राफ टेंसरफ़्लो ग्राफ़
नाम इस ऑप्टिमाइज़र का नाम (डिफ़ॉल्ट रूप से 'एडग्राड')
सीखने की दर सीखने की दर

सार्वजनिक AdaGrad ( ग्राफ़ ग्राफ़, स्ट्रिंग नाम, फ़्लोट लर्निंग रेट, फ़्लोट प्रारंभिक AccumulatorValue)

एक AdaGrad ऑप्टिमाइज़र बनाता है

पैरामीटर
ग्राफ टेंसरफ़्लो ग्राफ़
नाम इस ऑप्टिमाइज़र का नाम (डिफ़ॉल्ट रूप से 'एडग्राड')
सीखने की दर सीखने की दर
प्रारंभिक संचायक मान संचायकों के लिए प्रारंभिक मूल्य, गैर-नकारात्मक होना चाहिए।
फेंकता
अवैध तर्क अपवाद यदि प्रारंभिक AccumulatorValue नकारात्मक है

सार्वजनिक तरीके

सार्वजनिक स्ट्रिंग getOptimizerName ()

अनुकूलक का नाम प्राप्त करें.

रिटर्न
  • अनुकूलक नाम.

सार्वजनिक स्ट्रिंग toString ()