गति योजना के अनुसार '*var' और '*accum' में प्रासंगिक प्रविष्टियाँ अद्यतन करें।
यदि आप नेस्टरोव संवेग का उपयोग करना चाहते हैं तो use_nesterov = True सेट करें।
यानी उन पंक्तियों के लिए जिनके लिए हमारे पास ग्रेड है, हम var और accum को निम्नानुसार अपडेट करते हैं:
संचय = संचय * संवेग + ग्रेड वर - = एलआर * संचय
नेस्टेड क्लासेस
कक्षा | रिसोर्सस्पार्सएप्लाईमोमेंटम.विकल्प | ResourceSparseApplyMomentum के लिए वैकल्पिक विशेषताएँ |
स्थिरांक
डोरी | OP_NAME | इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है |
सार्वजनिक तरीके
स्थिर <टी टीटाइप का विस्तार करता है > रिसोर्सस्पार्सएप्लाईमोमेंटम | |
स्थैतिक रिसोर्सस्पार्सएप्लाईमोमेंटम.विकल्प | यूज़लॉकिंग (बूलियन यूज़लॉकिंग) |
स्थैतिक रिसोर्सस्पार्सएप्लाईमोमेंटम.विकल्प | यूज़नेस्टरोव (बूलियन यूज़नेस्टरोव) |
विरासत में मिली विधियाँ
स्थिरांक
सार्वजनिक स्थैतिक अंतिम स्ट्रिंग OP_NAME
इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है
सार्वजनिक तरीके
सार्वजनिक स्थैतिक रिसोर्सस्पार्सएप्लाईमोमेंटम क्रिएट ( स्कोप स्कोप, ऑपरेंड <?> वर, ऑपरेंड <?> एक्यूम, ऑपरेंड <T> एलआर, ऑपरेंड <T> ग्रेड, ऑपरेंड <? एक्सटेंड्स TNumber > इंडेक्स, ऑपरेंड <T> मोमेंटम, ऑप्शंस... विकल्प)
एक नए रिसोर्सस्पार्सएप्लाईमोमेंटम ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।
पैरामीटर
दायरा | वर्तमान दायरा |
---|---|
वर | एक वेरिएबल() से होना चाहिए। |
जमा | एक वेरिएबल() से होना चाहिए। |
एलआर | सीखने की दर। एक अदिश राशि होनी चाहिए. |
ग्रैड | ढाल. |
सूचकांक | var और accum के पहले आयाम में सूचकांकों का एक वेक्टर। |
गति | गति। एक अदिश राशि होनी चाहिए. |
विकल्प | वैकल्पिक गुण मान रखता है |
रिटर्न
- रिसोर्सस्पार्सएप्लाईमोमेंटम का एक नया उदाहरण
सार्वजनिक स्थैतिक संसाधनSparseApplyMomentum.Options उपयोगलॉकिंग (बूलियन उपयोगलॉकिंग)
पैरामीटर
लॉकिंग का उपयोग करें | यदि `सही` है, तो var और Accum Tensors का अद्यतनीकरण एक लॉक द्वारा संरक्षित किया जाएगा; अन्यथा व्यवहार अपरिभाषित है, लेकिन कम विवाद प्रदर्शित कर सकता है। |
---|
सार्वजनिक स्थैतिक संसाधनSparseApplyMomentum.Options उपयोगनेस्टरोव (बूलियन उपयोगनेस्टरोव)
पैरामीटर
नेस्टरोव का उपयोग करें | यदि `सही` है, तो ग्रेड की गणना करने के लिए पारित टेंसर var - lr * संवेग * accum होगा, इसलिए अंत में, आपको जो var मिलता है वह वास्तव में var - lr * संवेग * accum है। |
---|