एडाग्रेड योजना के अनुसार '*var' और '*accum' में प्रासंगिक प्रविष्टियाँ अद्यतन करें।
यानी उन पंक्तियों के लिए जिनके लिए हमारे पास ग्रेड है, हम var और accum को निम्नानुसार अपडेट करते हैं: $$accum += grad * grad$$$$var -= lr * grad * (1 / sqrt(accum))$$
नेस्टेड क्लासेस
कक्षा | SparseApplyAdagradV2.विकल्प | SparseApplyAdagradV2 के लिए वैकल्पिक विशेषताएँ |
सार्वजनिक तरीके
आउटपुट <T> | आउटपुट के रूप में () टेंसर का प्रतीकात्मक हैंडल लौटाता है। |
स्थिर <T, U संख्या बढ़ाता है> SparseApplyAdagradV2 <T> | |
आउटपुट <T> | बाहर () "var" के समान। |
स्थिर SparseApplyAdagradV2.विकल्प | अपडेटस्लॉट्स (बूलियन अपडेटस्लॉट्स) |
स्थिर SparseApplyAdagradV2.विकल्प | यूज़लॉकिंग (बूलियन यूज़लॉकिंग) |
विरासत में मिली विधियाँ
सार्वजनिक तरीके
सार्वजनिक आउटपुट <T> asOutput ()
टेंसर का प्रतीकात्मक हैंडल लौटाता है।
TensorFlow संचालन के इनपुट किसी अन्य TensorFlow ऑपरेशन के आउटपुट हैं। इस पद्धति का उपयोग एक प्रतीकात्मक हैंडल प्राप्त करने के लिए किया जाता है जो इनपुट की गणना का प्रतिनिधित्व करता है।
सार्वजनिक स्थैतिक SparseApplyAdagradV2 <T> बनाएं ( स्कोप स्कोप, ऑपरेंड <T> var, ऑपरेंड <T> जमा, ऑपरेंड <T> एलआर, ऑपरेंड <T> एप्सिलॉन, ऑपरेंड <T> ग्रेड, ऑपरेंड <U> इंडेक्स, विकल्प.. विकल्प )
एक नए SparseApplyAdagradV2 ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।
पैरामीटर
दायरा | वर्तमान दायरा |
---|---|
वर | एक वेरिएबल() से होना चाहिए। |
जमा | एक वेरिएबल() से होना चाहिए। |
एलआर | सीखने की दर. एक अदिश राशि होनी चाहिए. |
एप्सिलॉन | निरंतर कारक. एक अदिश राशि होनी चाहिए. |
ग्रैड | ढाल. |
सूचकांक | var और accum के पहले आयाम में सूचकांकों का एक वेक्टर। |
विकल्प | वैकल्पिक गुण मान रखता है |
रिटर्न
- SparseApplyAdagradV2 का एक नया उदाहरण
सार्वजनिक स्थैतिक SparseApplyAdagradV2. ऑप्शंस यूज़लॉकिंग (बूलियन यूज़लॉकिंग)
पैरामीटर
लॉकिंग का उपयोग करें | यदि `सही` है, तो var और Accum Tensors का अद्यतनीकरण एक लॉक द्वारा संरक्षित किया जाएगा; अन्यथा व्यवहार अपरिभाषित है, लेकिन कम विवाद प्रदर्शित कर सकता है। |
---|