टेंसरफ़्लो :: ऑप्स :: AdAdagradDA लागू करें
#include <training_ops.h>
समीपस्थ एडग्राड योजना के अनुसार '* var' अपडेट करें।
सारांश
तर्क:
- गुंजाइश: एक स्कोप ऑब्जेक्ट
- var: एक चर () से होना चाहिए।
- gradient_accumulator: एक परिवर्तनीय () से होना चाहिए।
- gradient_squared_accumulator: एक परिवर्तनीय () से होना चाहिए।
- grad: ढाल।
- lr: स्केलिंग फैक्टर। एक स्केलर होना चाहिए।
- एल 1: एल 1 नियमितीकरण। एक स्केलर होना चाहिए।
- एल 2: एल 2 नियमितीकरण। एक स्केलर होना चाहिए।
- Global_step: प्रशिक्षण चरण संख्या। एक स्केलर होना चाहिए।
वैकल्पिक विशेषताएँ ( Attrs
देखें):
- use_locking: यदि सही है, तो var का अपडेट और संचित टेंसरों को लॉक द्वारा संरक्षित किया जाएगा; अन्यथा व्यवहार अपरिभाषित है, लेकिन कम विवाद को प्रदर्शित कर सकता है।
रिटर्न:
-
Output
: "var" के समान।
कंस्ट्रक्टर और डिस्ट्रक्टर्स | |
---|---|
ApplyAdagradDA (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input gradient_accumulator, :: tensorflow::Input gradient_squared_accumulator, :: tensorflow::Input grad, :: tensorflow::Input lr, :: tensorflow::Input l1, :: tensorflow::Input l2, :: tensorflow::Input global_step) | |
ApplyAdagradDA (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input gradient_accumulator, :: tensorflow::Input gradient_squared_accumulator, :: tensorflow::Input grad, :: tensorflow::Input lr, :: tensorflow::Input l1, :: tensorflow::Input l2, :: tensorflow::Input global_step, const ApplyAdagradDA::Attrs & attrs) |
सार्वजनिक विशेषताएँ | |
---|---|
operation | |
out |
सार्वजनिक कार्य | |
---|---|
node () const | ::tensorflow::Node * |
operator::tensorflow::Input () const | |
operator::tensorflow::Output () const |
सार्वजनिक स्थैतिक कार्य | |
---|---|
UseLocking (bool x) |
संरचनाएं | |
---|---|
टेनसफ़्लो :: ऑप्स :: ApplyAdagradDA :: Attrs | वैकल्पिक विशेषता ApplyAdagradDA के लिए व्यवस्थित होती है । |
सार्वजनिक विशेषताएँ
ऑपरेशन
Operation operation
बाहर
::tensorflow::Output out
सार्वजनिक कार्य
AdAdagradDA लागू करें
ApplyAdagradDA( const ::tensorflow::Scope & scope, ::tensorflow::Input var, ::tensorflow::Input gradient_accumulator, ::tensorflow::Input gradient_squared_accumulator, ::tensorflow::Input grad, ::tensorflow::Input lr, ::tensorflow::Input l1, ::tensorflow::Input l2, ::tensorflow::Input global_step )है
AdAdagradDA लागू करें
ApplyAdagradDA( const ::tensorflow::Scope & scope, ::tensorflow::Input var, ::tensorflow::Input gradient_accumulator, ::tensorflow::Input gradient_squared_accumulator, ::tensorflow::Input grad, ::tensorflow::Input lr, ::tensorflow::Input l1, ::tensorflow::Input l2, ::tensorflow::Input global_step, const ApplyAdagradDA::Attrs & attrs )
नोड
::tensorflow::Node * node() const
ऑपरेटर :: टेंसरफ़्लो :: इनपुट
operator::tensorflow::Input() constहै
ऑपरेटर :: टेंसरफ़्लो :: आउटपुट
operator::tensorflow::Output() const
सार्वजनिक स्थैतिक कार्य
उपयोग करना
Attrs UseLocking( bool x )