ResourceApplyProximalGradientDescent

सार्वजनिक अंतिम वर्ग रिसोर्सएप्लाईप्रॉक्सिमलग्रेडिएंटडिसेंट

निश्चित सीखने की दर के साथ '*var' को FOBOS एल्गोरिदम के रूप में अपडेट करें।

prox_v = var - अल्फा डेल्टा var = साइन(prox_v)/(1+अल्फा l2) अधिकतम{|prox_v|-अल्फा l1,0}

नेस्टेड क्लासेस

कक्षा रिसोर्सएप्लाईप्रॉक्सिमलग्रेडिएंटडिसेंट.ऑप्शंस ResourceApplyProximalGradientDescent के लिए वैकल्पिक विशेषताएँ

स्थिरांक

डोरी OP_NAME इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है

सार्वजनिक तरीके

स्थैतिक <टी टीटाइप का विस्तार करता है > रिसोर्सएप्लाईप्रॉक्सिमलग्रैडिएंटडिसेंट
बनाएं ( स्कोप स्कोप, ऑपरेंड <?> var, ऑपरेंड <T> अल्फा, ऑपरेंड <T> l1, ऑपरेंड <T> l2, ऑपरेंड <T> डेल्टा, विकल्प... विकल्प)
एक नए रिसोर्सएप्लाईप्रॉक्सिमलग्रैडिएंटडिसेंट ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।
स्थैतिक संसाधन लागू करें ProximalGradientDescent.Options
यूज़लॉकिंग (बूलियन यूज़लॉकिंग)

विरासत में मिली विधियाँ

स्थिरांक

सार्वजनिक स्थैतिक अंतिम स्ट्रिंग OP_NAME

इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है

स्थिर मान: "ResourceApplyProximalGradientDescent"

सार्वजनिक तरीके

सार्वजनिक स्थैतिक संसाधनApplyProximalGradientDescent बनाएँ ( स्कोप स्कोप, ऑपरेंड <?> var, ऑपरेंड <T> अल्फा, ऑपरेंड <T> l1, ऑपरेंड <T> l2, ऑपरेंड <T> डेल्टा, विकल्प... विकल्प)

एक नए रिसोर्सएप्लाईप्रॉक्सिमलग्रैडिएंटडिसेंट ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।

पैरामीटर
दायरा वर्तमान दायरा
वर एक वेरिएबल() से होना चाहिए।
अल्फा मापन कारक। एक अदिश राशि होनी चाहिए.
एल1 एल1 नियमितीकरण. एक अदिश राशि होनी चाहिए.
एल2 L2 नियमितीकरण. एक अदिश राशि होनी चाहिए.
डेल्टा परिवर्तन।
विकल्प वैकल्पिक गुण मान रखता है
रिटर्न
  • resourceApplyProximalGradientDescent का एक नया उदाहरण

सार्वजनिक स्थैतिक संसाधनApplyProximalGradientDescent.Options उपयोगलॉकिंग (बूलियन उपयोगलॉकिंग)

पैरामीटर
लॉकिंग का उपयोग करें यदि सत्य है, तो घटाव को ताले द्वारा संरक्षित किया जाएगा; अन्यथा व्यवहार अपरिभाषित है, लेकिन कम विवाद प्रदर्शित कर सकता है।