निश्चित सीखने की दर के साथ एफओबीओएस एल्गोरिदम के रूप में विरल अद्यतन '*var'।
यानी उन पंक्तियों के लिए जिनके लिए हमारे पास ग्रेड है, हम var को निम्नानुसार अपडेट करते हैं: $$prox_v = var - alpha gradvar = sign(prox_v)/(1+alphal2) max{|prox_v|-alphal1,0}$$
नेस्टेड क्लासेस
कक्षा | SparseApplyProximalGradientDescent.Options | SparseApplyProximalGradientDescent के लिए वैकल्पिक विशेषताएँ |
स्थिरांक
डोरी | OP_NAME | इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है |
सार्वजनिक तरीके
आउटपुट <T> | आउटपुट के रूप में () टेंसर का प्रतीकात्मक हैंडल लौटाता है। |
स्थिर <T टीटाइप का विस्तार करता है > SparseApplyProximalGradientDescent <T> | |
आउटपुट <T> | बाहर () "var" के समान। |
स्थिर स्पार्सअप्लाईप्रॉक्सिमलग्रेडिएंटडिसेंट.विकल्प | यूज़लॉकिंग (बूलियन यूज़लॉकिंग) |
विरासत में मिली विधियाँ
बूलियन | बराबर (ऑब्जेक्ट arg0) |
अंतिम कक्षा<?> | गेटक्लास () |
int यहाँ | हैशकोड () |
अंतिम शून्य | सूचित करें () |
अंतिम शून्य | सभी को सूचित करें () |
डोरी | स्ट्रिंग () |
अंतिम शून्य | प्रतीक्षा करें (लंबा arg0, int arg1) |
अंतिम शून्य | प्रतीक्षा करें (लंबा arg0) |
अंतिम शून्य | इंतज़ार () |
सार निष्पादन वातावरण | एनवी () उस निष्पादन वातावरण को लौटाएँ जिसमें यह ऑप बनाया गया था। |
सार संचालन |
स्थिरांक
सार्वजनिक स्थैतिक अंतिम स्ट्रिंग OP_NAME
इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है
सार्वजनिक तरीके
सार्वजनिक आउटपुट <T> asOutput ()
टेंसर का प्रतीकात्मक हैंडल लौटाता है।
TensorFlow संचालन के इनपुट किसी अन्य TensorFlow ऑपरेशन के आउटपुट हैं। इस पद्धति का उपयोग एक प्रतीकात्मक हैंडल प्राप्त करने के लिए किया जाता है जो इनपुट की गणना का प्रतिनिधित्व करता है।
सार्वजनिक स्थैतिक SparseApplyProximalGradientDescent <T> बनाएं ( स्कोप स्कोप, ऑपरेंड <T> var, ऑपरेंड <T> अल्फा, ऑपरेंड <T> l1, ऑपरेंड <T> l2, ऑपरेंड <T> ग्रेड, ऑपरेंड <? विस्तारित TNumber > सूचकांक, विकल्प ... विकल्प)
एक नए SparseApplyProximalGradientDescent ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।
पैरामीटर
दायरा | वर्तमान दायरा |
---|---|
वर | एक वेरिएबल() से होना चाहिए। |
अल्फा | मापन कारक। एक अदिश राशि होनी चाहिए. |
एल1 | एल1 नियमितीकरण. एक अदिश राशि होनी चाहिए. |
एल2 | L2 नियमितीकरण. एक अदिश राशि होनी चाहिए. |
ग्रैड | ढाल. |
सूचकांक | var और accum के पहले आयाम में सूचकांकों का एक वेक्टर। |
विकल्प | वैकल्पिक गुण मान रखता है |
रिटर्न
- SparseApplyProximalGradientDescent का एक नया उदाहरण
सार्वजनिक स्थैतिक SparseApplyProximalGradientDescent.Options यूज़लॉकिंग (बूलियन यूज़लॉकिंग)
पैरामीटर
लॉकिंग का उपयोग करें | यदि सत्य है, तो घटाव को ताले द्वारा संरक्षित किया जाएगा; अन्यथा व्यवहार अपरिभाषित है, लेकिन कम विवाद प्रदर्शित कर सकता है। |
---|