ऑप्टिमाइज़र जो एडाग्रेड एल्गोरिथम को लागू करता है।
एडाग्रैड पैरामीटर-विशिष्ट सीखने की दरों के साथ एक ऑप्टिमाइज़र है, जो प्रशिक्षण के दौरान एक पैरामीटर कितनी बार अपडेट होता है इसके सापेक्ष अनुकूलित किया जाता है। किसी पैरामीटर को जितने अधिक अपडेट प्राप्त होंगे, अपडेट उतने ही छोटे होंगे।
स्थिरांक
डोरी | संचायक | |
तैरना | प्रारंभिक_ACCUMULATOR_DEFAULT | |
तैरना | LEARNING_RATE_DEFAULT |
विरासत में मिले स्थिरांक
डोरी | VARIABLE_V2 |
सार्वजनिक निर्माता
सार्वजनिक तरीके
डोरी | गेटऑप्टिमाइज़रनाम () अनुकूलक का नाम प्राप्त करें. |
डोरी | स्ट्रिंग () |
विरासत में मिली विधियाँ
सेशन | ApplyGradients (सूची< GradAndVar <? विस्तारित TType >> gradsAndVars, स्ट्रिंग नाम) वेरिएबल्स पर ग्रेडिएंट लागू करता है |
<T टीटीटाइप का विस्तार करता है > सूची < GradAndVar <?>> | |
स्थिर स्ट्रिंग | createName ( आउटपुट <? विस्तारित TType > वेरिएबल, स्ट्रिंग स्लॉटनाम) एक वेरिएबल नाम और एक स्लॉट नाम को मिलाकर एक नाम बनाता है |
सार स्ट्रिंग | गेटऑप्टिमाइज़रनाम () अनुकूलक का नाम प्राप्त करें. |
<T टीटाइप का विस्तार करता है > वैकल्पिक < वेरिएबल <T>> | |
अंतिम ऑप्स | getTF () ऑप्टिमाइज़र का ऑप्स उदाहरण प्राप्त करता है |
सेशन | |
सेशन |
बूलियन | बराबर (ऑब्जेक्ट arg0) |
अंतिम कक्षा<?> | गेटक्लास () |
int यहाँ | हैश कोड () |
अंतिम शून्य | सूचित करें () |
अंतिम शून्य | सभी को सूचित करें () |
डोरी | स्ट्रिंग () |
अंतिम शून्य | प्रतीक्षा करें (लंबा arg0, int arg1) |
अंतिम शून्य | प्रतीक्षा करें (लंबा arg0) |
अंतिम शून्य | इंतज़ार () |
स्थिरांक
सार्वजनिक स्थैतिक अंतिम स्ट्रिंग संचायक
सार्वजनिक स्थैतिक अंतिम फ़्लोट INITIAL_ACCUMULATOR_DEFAULT
सार्वजनिक स्थैतिक अंतिम फ़्लोट LEARNING_RATE_DEFAULT
सार्वजनिक निर्माता
सार्वजनिक AdaGrad ( ग्राफ़ ग्राफ़, फ़्लोट लर्निंगरेट)
एक AdaGrad ऑप्टिमाइज़र बनाता है
पैरामीटर
ग्राफ | टेंसरफ़्लो ग्राफ़ |
---|---|
सीखने की दर | सीखने की दर |
सार्वजनिक AdaGrad ( ग्राफ़ ग्राफ़, फ़्लोट लर्निंगरेट, फ़्लोट इनिशियलएक्युमुलेटरवैल्यू)
एक AdaGrad ऑप्टिमाइज़र बनाता है
पैरामीटर
ग्राफ | टेंसरफ़्लो ग्राफ़ |
---|---|
सीखने की दर | सीखने की दर |
प्रारंभिक संचायक मान | संचायकों के लिए प्रारंभिक मूल्य, गैर-नकारात्मक होना चाहिए। |
फेंकता
अवैध तर्क अपवाद | यदि प्रारंभिक AccumulatorValue नकारात्मक है |
---|
सार्वजनिक AdaGrad ( ग्राफ़ ग्राफ़, स्ट्रिंग नाम, फ़्लोट लर्निंग रेट)
एक AdaGrad ऑप्टिमाइज़र बनाता है
पैरामीटर
ग्राफ | टेंसरफ़्लो ग्राफ़ |
---|---|
नाम | इस ऑप्टिमाइज़र का नाम (डिफ़ॉल्ट रूप से 'एडग्राड') |
सीखने की दर | सीखने की दर |
सार्वजनिक AdaGrad ( ग्राफ़ ग्राफ़, स्ट्रिंग नाम, फ़्लोट लर्निंग रेट, फ़्लोट प्रारंभिक AccumulatorValue)
एक AdaGrad ऑप्टिमाइज़र बनाता है
पैरामीटर
ग्राफ | टेंसरफ़्लो ग्राफ़ |
---|---|
नाम | इस ऑप्टिमाइज़र का नाम (डिफ़ॉल्ट रूप से 'एडग्राड') |
सीखने की दर | सीखने की दर |
प्रारंभिक संचायक मान | संचायकों के लिए प्रारंभिक मूल्य, गैर-नकारात्मक होना चाहिए। |
फेंकता
अवैध तर्क अपवाद | यदि प्रारंभिक AccumulatorValue नकारात्मक है |
---|
सार्वजनिक तरीके
सार्वजनिक स्ट्रिंग getOptimizerName ()
अनुकूलक का नाम प्राप्त करें.
रिटर्न
- अनुकूलक नाम.