Google I/O में ट्यूनिंग के लिए धन्यवाद। मांग पर सभी सत्र देखें मांग पर देखें

टेंसरफ़्लो :: ऑप्स :: ResourceApplyAdagrad

#include <training_ops.h>

एडग्रैड स्कीम के अनुसार '* var' अपडेट करें।

सारांश

जमा + = ग्रेड * ग्रेड वैरिएंट - = एलआर * ग्रेड * (१ / वर्गर्ट (संचित))

तर्क:

  • गुंजाइश: एक स्कोप ऑब्जेक्ट
  • var: एक चर () से होना चाहिए।
  • संचित: एक चर () से होना चाहिए।
  • lr: स्केलिंग फैक्टर। एक स्केलर होना चाहिए।
  • grad: ढाल।

वैकल्पिक विशेषताएँ ( Attrs देखें):

  • use_locking: यदि True , तो var का अपडेट और संचित टेंसरों को लॉक द्वारा संरक्षित किया जाएगा; अन्यथा व्यवहार अपरिभाषित है, लेकिन कम विवाद को प्रदर्शित कर सकता है।

रिटर्न:

कंस्ट्रक्टर और डिस्ट्रक्टर्स

ResourceApplyAdagrad (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input accum, :: tensorflow::Input lr, :: tensorflow::Input grad)
ResourceApplyAdagrad (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input accum, :: tensorflow::Input lr, :: tensorflow::Input grad, const ResourceApplyAdagrad::Attrs & attrs)

सार्वजनिक विशेषताएँ

operation

सार्वजनिक कार्य

operator::tensorflow::Operation () const

सार्वजनिक स्थैतिक कार्य

UpdateSlots (bool x)
UseLocking (bool x)

संरचनाएं

टेनसफ़्लो :: ऑप्स :: रिसोर्सएपली एडग्रैड :: अट्र्स

वैकल्पिक विशेषता ResourceApplyAdagrad के लिए बसता है।

सार्वजनिक विशेषताएँ

ऑपरेशन

Operation operation

सार्वजनिक कार्य

ResourceApplyAdagrad

08 बी 8641 ई 30

ResourceApplyAdagrad

 ResourceApplyAdagrad(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input var,
  ::tensorflow::Input accum,
  ::tensorflow::Input lr,
  ::tensorflow::Input grad,
  const ResourceApplyAdagrad::Attrs & attrs
)

ऑपरेटर :: टेंसरफ़्लो :: ऑपरेशन

 operator::tensorflow::Operation() const 

सार्वजनिक स्थैतिक कार्य

अद्यतन

Attrs UpdateSlots(
  bool x
)

उपयोग करना

Attrs UseLocking(
  bool x
)