टेंसरफ़्लो :: ऑप्स :: ResourceApplyAdagrad
#include <training_ops.h>
एडग्रैड स्कीम के अनुसार '* var' अपडेट करें।
सारांश
जमा + = ग्रेड * ग्रेड वैरिएंट - = एलआर * ग्रेड * (१ / वर्गर्ट (संचित))
तर्क:
- गुंजाइश: एक स्कोप ऑब्जेक्ट
- var: एक चर () से होना चाहिए।
- संचित: एक चर () से होना चाहिए।
- lr: स्केलिंग फैक्टर। एक स्केलर होना चाहिए।
- grad: ढाल।
वैकल्पिक विशेषताएँ ( Attrs
देखें):
- use_locking: यदि
True
, तो var का अपडेट और संचित टेंसरों को लॉक द्वारा संरक्षित किया जाएगा; अन्यथा व्यवहार अपरिभाषित है, लेकिन कम विवाद को प्रदर्शित कर सकता है।
रिटर्न:
- बनाया गया
Operation
कंस्ट्रक्टर और डिस्ट्रक्टर्स | |
---|---|
ResourceApplyAdagrad (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input accum, :: tensorflow::Input lr, :: tensorflow::Input grad) | |
ResourceApplyAdagrad (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input accum, :: tensorflow::Input lr, :: tensorflow::Input grad, const ResourceApplyAdagrad::Attrs & attrs) |
सार्वजनिक विशेषताएँ | |
---|---|
operation |
सार्वजनिक कार्य | |
---|---|
operator::tensorflow::Operation () const |
सार्वजनिक स्थैतिक कार्य | |
---|---|
UpdateSlots (bool x) | |
UseLocking (bool x) |
संरचनाएं | |
---|---|
टेनसफ़्लो :: ऑप्स :: रिसोर्सएपली एडग्रैड :: अट्र्स | वैकल्पिक विशेषता ResourceApplyAdagrad के लिए बसता है। |
सार्वजनिक विशेषताएँ
ऑपरेशन
Operation operation
सार्वजनिक कार्य
ResourceApplyAdagrad
08 बी 8641 ई 30ResourceApplyAdagrad
ResourceApplyAdagrad( const ::tensorflow::Scope & scope, ::tensorflow::Input var, ::tensorflow::Input accum, ::tensorflow::Input lr, ::tensorflow::Input grad, const ResourceApplyAdagrad::Attrs & attrs )
ऑपरेटर :: टेंसरफ़्लो :: ऑपरेशन
operator::tensorflow::Operation() const
सार्वजनिक स्थैतिक कार्य
अद्यतन
Attrs UpdateSlots( bool x )
उपयोग करना
Attrs UseLocking( bool x )