ResourceSparseApplyAdagradV2

सार्वजनिक अंतिम वर्ग रिसोर्सस्पार्सएप्लाईएडग्रेडवी 2

एडाग्रेड योजना के अनुसार '*var' और '*accum' में प्रासंगिक प्रविष्टियाँ अद्यतन करें।

यानी उन पंक्तियों के लिए जिनके लिए हमारे पास ग्रेड है, हम var और accum को निम्नानुसार अपडेट करते हैं: accum += grad * grad var -= lr * grad * (1 / sqrt(accum))

नेस्टेड क्लासेस

कक्षा रिसोर्सस्पार्सएप्लाईएडाग्रेडवी2.विकल्प ResourceSparseApplyAdagradV2 के लिए वैकल्पिक विशेषताएँ

स्थिरांक

डोरी OP_NAME इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है

सार्वजनिक तरीके

स्थैतिक <T टीटाइप का विस्तार करता है > रिसोर्सस्पार्सएप्लाईएडग्रेडवी2
बनाएँ ( स्कोप स्कोप, ऑपरेंड <?> var, ऑपरेंड <?> accum, ऑपरेंड <T> lr, ऑपरेंड <T> एप्सिलॉन, ऑपरेंड <T> ग्रेड, ऑपरेंड <? एक्सटेंड्स TNumber > इंडेक्स, विकल्प... विकल्प)
एक नया रिसोर्सस्पार्सएप्लाईएडाग्रेडवी2 ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।
स्थैतिक रिसोर्सस्पार्सएप्लाईएडाग्रेडवी2.विकल्प
अपडेटस्लॉट्स (बूलियन अपडेटस्लॉट्स)
स्थैतिक रिसोर्सस्पार्सएप्लाईएडाग्रेडवी2.विकल्प
यूज़लॉकिंग (बूलियन यूज़लॉकिंग)

विरासत में मिली विधियाँ

स्थिरांक

सार्वजनिक स्थैतिक अंतिम स्ट्रिंग OP_NAME

इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है

स्थिर मान: "ResourceSparseApplyAdagradV2"

सार्वजनिक तरीके

सार्वजनिक स्थैतिक संसाधनSparseApplyAdagradV2 बनाएं ( स्कोप स्कोप, ऑपरेंड <?> var, ऑपरेंड <?> accum, ऑपरेंड <T> lr, ऑपरेंड <T> एप्सिलॉन, ऑपरेंड <T> ग्रेड, ऑपरेंड <? एक्सटेंड्स TNumber > इंडेक्स, विकल्प... विकल्प)

एक नया रिसोर्सस्पार्सएप्लाईएडाग्रेडवी2 ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।

पैरामीटर
दायरा वर्तमान दायरा
वर एक वेरिएबल() से होना चाहिए।
जमा एक वेरिएबल() से होना चाहिए।
एलआर सीखने की दर। एक अदिश राशि होनी चाहिए.
एप्सिलॉन निरंतर कारक. एक अदिश राशि होनी चाहिए.
ग्रैड ढाल.
सूचकांक var और accum के पहले आयाम में सूचकांकों का एक वेक्टर।
विकल्प वैकल्पिक गुण मान रखता है
रिटर्न
  • resourceSparseApplyAdagradV2 का एक नया उदाहरण

सार्वजनिक स्थैतिक संसाधनSparseApplyAdagradV2 .ऑप्शंस अपडेटस्लॉट्स (बूलियन अपडेटस्लॉट्स)

सार्वजनिक स्थैतिक संसाधनSparseApplyAdagradV2 .ऑप्शंस यूज़लॉकिंग (बूलियन यूज़लॉकिंग)

पैरामीटर
लॉकिंग का उपयोग करें यदि `सही` है, तो var और Accum Tensors का अद्यतनीकरण एक लॉक द्वारा संरक्षित किया जाएगा; अन्यथा व्यवहार अपरिभाषित है, लेकिन कम विवाद प्रदर्शित कर सकता है।