निश्चित सीखने की दर के साथ एफओबीओएस एल्गोरिदम के रूप में विरल अद्यतन '*var'।
यानी उन पंक्तियों के लिए जिनके लिए हमारे पास ग्रेड है, हम var को इस प्रकार अपडेट करते हैं: prox_v = var - alpha grad var =sign(prox_v)/(1+alpha l2) max{|prox_v|-alpha l1,0}
नेस्टेड क्लासेस
कक्षा | रिसोर्सस्पार्सप्रॉक्सिमलग्रेडिएंटडिसेंट.विकल्प लागू करें | ResourceSparseApplyProximalGradientDescent के लिए वैकल्पिक विशेषताएँ |
स्थिरांक
डोरी | OP_NAME | इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है |
सार्वजनिक तरीके
स्थिर <टी टीटाइप का विस्तार करता है > रिसोर्सस्पार्सएप्लाईप्रॉक्सिमलग्राडिएंटडिसेंट | |
स्टेटिक रिसोर्सस्पार्सएप्लाईप्रॉक्सिमलग्रेडिएंटडिसेंट.ऑप्शंस | यूज़लॉकिंग (बूलियन यूज़लॉकिंग) |
विरासत में मिली विधियाँ
स्थिरांक
सार्वजनिक स्थैतिक अंतिम स्ट्रिंग OP_NAME
इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है
सार्वजनिक तरीके
सार्वजनिक स्थैतिक रिसोर्सस्पार्सएप्लाईप्रॉक्सिमलग्रैडिएंटडिसेंट क्रिएट ( स्कोप स्कोप, ऑपरेंड <?> वर, ऑपरेंड <टी> अल्फा, ऑपरेंड <टी> एल1, ऑपरेंड <टी> एल2, ऑपरेंड <टी> ग्रेड, ऑपरेंड <? एक्सटेंड्स टीएनंबर > इंडेक्स, विकल्प... विकल्प)
एक नया रिसोर्सस्पार्सएप्लाईप्रोक्सिमलग्रैडिएंटडिसेंट ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।
पैरामीटर
दायरा | वर्तमान दायरा |
---|---|
वर | एक वेरिएबल() से होना चाहिए। |
अल्फा | मापन कारक। एक अदिश राशि होनी चाहिए. |
एल1 | एल1 नियमितीकरण. एक अदिश राशि होनी चाहिए. |
एल2 | L2 नियमितीकरण. एक अदिश राशि होनी चाहिए. |
ग्रैड | ढाल. |
सूचकांक | var और accum के पहले आयाम में सूचकांकों का एक वेक्टर। |
विकल्प | वैकल्पिक गुण मान रखता है |
रिटर्न
- resourceSparseApplyProximalGradientDescent का एक नया उदाहरण
सार्वजनिक स्थैतिक रिसोर्सस्पार्सएप्लाईप्रॉक्सिमलग्राडिएंटडिसेंट.ऑप्शंस यूज़लॉकिंग (बूलियन यूज़लॉकिंग)
पैरामीटर
लॉकिंग का उपयोग करें | यदि सत्य है, तो घटाव को ताले द्वारा संरक्षित किया जाएगा; अन्यथा व्यवहार अपरिभाषित है, लेकिन कम विवाद प्रदर्शित कर सकता है। |
---|