ऑप्टिमाइज़र जो एडाग्रेड डुअल-एवरेजिंग एल्गोरिदम को लागू करता है।
यह ऑप्टिमाइज़र एक मिनी बैच में अनदेखी सुविधाओं को बंद फॉर्म अपडेट नियम के साथ देखे जाने पर उन्हें अपडेट करके नियमित करने का ख्याल रखता है जो उन्हें हर मिनी-बैच पर अपडेट करने के बराबर है।
AdagradDA का उपयोग आम तौर पर तब किया जाता है जब प्रशिक्षित मॉडल में बड़ी विरलता की आवश्यकता होती है। यह अनुकूलक केवल रैखिक मॉडलों के लिए विरलता की गारंटी देता है। गहरे नेटवर्क के लिए AdagradDA का उपयोग करते समय सावधान रहें क्योंकि इसे प्रशिक्षित करने के लिए ग्रेडिएंट एक्युमुलेटर की सावधानीपूर्वक शुरुआत की आवश्यकता होगी।
स्थिरांक
डोरी | संचायक | |
तैरना | प्रारंभिक_ACCUMULATOR_DEFAULT | |
तैरना | L1_STRENGTH_DEFAULT | |
तैरना | L2_STRENGTH_DEFAULT | |
तैरना | LEARNING_RATE_DEFAULT | |
डोरी | SQUARED_ACCUMULATOR |
विरासत में मिले स्थिरांक
डोरी | VARIABLE_V2 |
सार्वजनिक निर्माता
सार्वजनिक तरीके
डोरी | गेटऑप्टिमाइज़रनाम () अनुकूलक का नाम प्राप्त करें. |
डोरी | स्ट्रिंग () |
विरासत में मिली विधियाँ
सेशन | ApplyGradients (सूची< GradAndVar <? विस्तारित TType >> gradsAndVars, स्ट्रिंग नाम) वेरिएबल्स पर ग्रेडिएंट लागू करता है |
<T टीटीटाइप का विस्तार करता है > सूची < GradAndVar <?>> | |
स्थिर स्ट्रिंग | createName ( आउटपुट <? विस्तारित TType > वेरिएबल, स्ट्रिंग स्लॉटनाम) एक वेरिएबल नाम और एक स्लॉट नाम को मिलाकर एक नाम बनाता है |
सार स्ट्रिंग | गेटऑप्टिमाइज़रनाम () अनुकूलक का नाम प्राप्त करें. |
<T टीटाइप का विस्तार करता है > वैकल्पिक < वेरिएबल <T>> | |
अंतिम ऑप्स | getTF () ऑप्टिमाइज़र का ऑप्स उदाहरण प्राप्त करता है |
सेशन | |
सेशन |
बूलियन | बराबर (ऑब्जेक्ट arg0) |
अंतिम कक्षा<?> | गेटक्लास () |
int यहाँ | हैश कोड () |
अंतिम शून्य | सूचित करें () |
अंतिम शून्य | सभी को सूचित करें () |
डोरी | स्ट्रिंग () |
अंतिम शून्य | प्रतीक्षा करें (लंबा arg0, int arg1) |
अंतिम शून्य | प्रतीक्षा करें (लंबा arg0) |
अंतिम शून्य | इंतज़ार () |
स्थिरांक
सार्वजनिक स्थैतिक अंतिम स्ट्रिंग संचायक
सार्वजनिक स्थैतिक अंतिम फ़्लोट INITIAL_ACCUMULATOR_DEFAULT
सार्वजनिक स्थैतिक अंतिम फ़्लोट L1_STRENGTH_DEFAULT
सार्वजनिक स्थैतिक अंतिम फ़्लोट L2_STRENGTH_DEFAULT
सार्वजनिक स्थैतिक अंतिम फ़्लोट LEARNING_RATE_DEFAULT
सार्वजनिक स्थैतिक अंतिम स्ट्रिंग SQUARED_ACCUMULATOR
सार्वजनिक निर्माता
सार्वजनिक AdaGradDA ( ग्राफ़ ग्राफ़)
एक AdaGradDA ऑप्टिमाइज़र बनाता है
पैरामीटर
ग्राफ | टेंसरफ़्लो ग्राफ़ |
---|
सार्वजनिक AdaGradDA ( ग्राफ़ ग्राफ़, फ़्लोट लर्निंग रेट)
एक AdaGradDA ऑप्टिमाइज़र बनाता है
पैरामीटर
ग्राफ | टेंसरफ़्लो ग्राफ़ |
---|---|
सीखने की दर | सीखने की दर |
सार्वजनिक AdaGradDA ( ग्राफ़ ग्राफ़, फ़्लोट लर्निंग रेट, फ़्लोट इनिशियलएक्यूमुलेटर वैल्यू, फ़्लोट l1Strength, फ़्लोट l2Strength)
एक AdaGradDA ऑप्टिमाइज़र बनाता है
पैरामीटर
ग्राफ | टेंसरफ़्लो ग्राफ़ |
---|---|
सीखने की दर | सीखने की दर |
प्रारंभिक संचायक मान | संचायकों के लिए आरंभिक मान शून्य से अधिक होना चाहिए। |
एल1ताकत | एल1 नियमितीकरण शक्ति, शून्य से अधिक या उसके बराबर होनी चाहिए। |
एल2ताकत | एल2 नियमितीकरण शक्ति, शून्य से अधिक या उसके बराबर होनी चाहिए। |
फेंकता
अवैध तर्क अपवाद | यदि प्रारंभिक AccumulatorValue शून्य से अधिक नहीं है, या l1Strength या l2Strength शून्य से कम है |
---|
सार्वजनिक AdaGradDA ( ग्राफ़ ग्राफ़, स्ट्रिंग नाम, फ़्लोट लर्निंग रेट)
एक AdaGradDA ऑप्टिमाइज़र बनाता है
पैरामीटर
ग्राफ | टेंसरफ़्लो ग्राफ़ |
---|---|
नाम | इस ऑप्टिमाइज़र का नाम (डिफ़ॉल्ट रूप से 'एडाग्राड-दा') |
सीखने की दर | सीखने की दर |
सार्वजनिक AdaGradDA ( ग्राफ़ ग्राफ़, स्ट्रिंग नाम, फ़्लोट लर्निंग रेट, फ़्लोट इनिशियलएक्यूमुलेटर वैल्यू, फ़्लोट l1Strength, फ़्लोट l2Strength)
एक AdaGradDA ऑप्टिमाइज़र बनाता है
पैरामीटर
ग्राफ | टेंसरफ़्लो ग्राफ़ |
---|---|
नाम | इस ऑप्टिमाइज़र का नाम (डिफ़ॉल्ट रूप से 'एडाग्राड-दा') |
सीखने की दर | सीखने की दर |
प्रारंभिक संचायक मान | संचायक के लिए प्रारंभिक मूल्य सकारात्मक होना चाहिए |
एल1ताकत | एल1 नियमितीकरण शक्ति, शून्य से अधिक या उसके बराबर होनी चाहिए। |
एल2ताकत | एल2 नियमितीकरण शक्ति, शून्य से अधिक या उसके बराबर होनी चाहिए। |
फेंकता
अवैध तर्क अपवाद | यदि प्रारंभिक AccumulatorValue शून्य से अधिक नहीं है, या * l1Strength या l2Strength शून्य से कम है |
---|
सार्वजनिक तरीके
सार्वजनिक स्ट्रिंग getOptimizerName ()
अनुकूलक का नाम प्राप्त करें.
रिटर्न
- अनुकूलक नाम.