ResourceSparseApplyProximalAdagrad

सार्वजनिक अंतिम वर्ग रिसोर्सस्पार्सएप्लाईप्रॉक्सिमलएडाग्रेड

FOBOS एल्गोरिथ्म के अनुसार '*var' और '*accum' में विरल अद्यतन प्रविष्टियाँ।

यानी उन पंक्तियों के लिए जिनके लिए हमारे पास ग्रेड है, हम var और accum को इस प्रकार अपडेट करते हैं: accum += grad grad prox_v = var prox_v -= lr grad (1 / sqrt(accum)) var = साइन(prox_v)/(1+lr l2 ) अधिकतम{|prox_v|-lr l1,0}

नेस्टेड क्लासेस

कक्षा रिसोर्सस्पार्सएप्लाईप्रॉक्सिमलएडाग्रेड.ऑप्शंस ResourceSparseApplyProximalAdagrad के लिए वैकल्पिक विशेषताएँ

स्थिरांक

डोरी OP_NAME इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है

सार्वजनिक तरीके

स्थिर <टी टीटाइप का विस्तार करता है > रिसोर्सस्पार्सएप्लाईप्रोक्सिमलएडाग्रेड
बनाएँ ( स्कोप स्कोप, ऑपरेंड <?> var, ऑपरेंड <?> accum, ऑपरेंड <T> lr, ऑपरेंड <T> l1, ऑपरेंड <T> l2, ऑपरेंड <T> ग्रेड, ऑपरेंड <? एक्सटेंड्स TNumber > इंडेक्स, विकल्प ... विकल्प)
एक नए रिसोर्सस्पार्सएप्लाईप्रोक्सिमलएडग्रेड ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।
स्थैतिक रिसोर्सस्पार्सएप्लाईप्रॉक्सिमलएडाग्रेड.ऑप्शंस
यूज़लॉकिंग (बूलियन यूज़लॉकिंग)

विरासत में मिली विधियाँ

स्थिरांक

सार्वजनिक स्थैतिक अंतिम स्ट्रिंग OP_NAME

इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है

स्थिर मान: "ResourceSparseApplyProximalAdagrad"

सार्वजनिक तरीके

सार्वजनिक स्थैतिक संसाधनSparseApplyProximalAdagrad बनाएं ( स्कोप स्कोप, ऑपरेंड <?> var, ऑपरेंड <?> accum, ऑपरेंड <T> lr, ऑपरेंड <T> l1, ऑपरेंड <T> l2, ऑपरेंड <T> ग्रेड, ऑपरेंड <? एक्सटेंड TNumber > सूचकांक, विकल्प... विकल्प)

एक नए रिसोर्सस्पार्सएप्लाईप्रोक्सिमलएडग्रेड ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।

पैरामीटर
दायरा वर्तमान दायरा
वर एक वेरिएबल() से होना चाहिए।
जमा एक वेरिएबल() से होना चाहिए।
एलआर सीखने की दर। एक अदिश राशि होनी चाहिए.
एल1 एल1 नियमितीकरण. एक अदिश राशि होनी चाहिए.
एल2 L2 नियमितीकरण. एक अदिश राशि होनी चाहिए.
ग्रैड ढाल.
सूचकांक var और accum के पहले आयाम में सूचकांकों का एक वेक्टर।
विकल्प वैकल्पिक गुण मान रखता है
रिटर्न
  • resourceSparseApplyProximalAdagrad का एक नया उदाहरण

सार्वजनिक स्थैतिक संसाधनSparseApplyProximalAdagrad.Options उपयोगलॉकिंग (बूलियन उपयोगलॉकिंग)

पैरामीटर
लॉकिंग का उपयोग करें यदि सत्य है, तो var और Accum Tensors का अद्यतनीकरण एक लॉक द्वारा सुरक्षित किया जाएगा; अन्यथा व्यवहार अपरिभाषित है, लेकिन कम विवाद प्रदर्शित कर सकता है।