टेंसरफ़्लो :: ऑप्स :: SparseApplyProximalAdagrad

#include <training_ops.h>

एफओबीओएस एल्गोरिथ्म के अनुसार '* var' और '*' संचित में स्पार्स अद्यतन प्रविष्टियाँ।

सारांश

यह उन पंक्तियों के लिए है जिनके लिए हम वर्गीकृत हैं, हम var और संचय को निम्नानुसार अपडेट करते हैं: $$accum += grad * grad$$ $$prox_v = var$$ $$prox_v -= lr * grad * (1 / sqrt(accum))$$ $$var = sign(prox_v)/(1+lr*l2) * max{|prox_v|-lr*l1,0}$$

तर्क:

  • गुंजाइश: एक स्कोप ऑब्जेक्ट
  • var: एक चर () से होना चाहिए।
  • संचित: एक चर () से होना चाहिए।
  • lr: सीखने की दर। एक स्केलर होना चाहिए।
  • एल 1: एल 1 नियमितीकरण। एक स्केलर होना चाहिए।
  • एल 2: एल 2 नियमितीकरण। एक स्केलर होना चाहिए।
  • grad: ढाल।
  • सूचकांक: संस्करण और संचय के पहले आयाम में सूचकांकों का वेक्टर।

वैकल्पिक विशेषताएँ ( Attrs देखें):

  • use_locking: यदि सही है, तो var का अपडेट और संचित टेंसरों को लॉक द्वारा संरक्षित किया जाएगा; अन्यथा व्यवहार अपरिभाषित है, लेकिन कम विवाद को प्रदर्शित कर सकता है।

रिटर्न:

  • Output : "var" के समान।

कंस्ट्रक्टर और डिस्ट्रक्टर्स

SparseApplyProximalAdagrad (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input accum, :: tensorflow::Input lr, :: tensorflow::Input l1, :: tensorflow::Input l2, :: tensorflow::Input grad, :: tensorflow::Input indices)
SparseApplyProximalAdagrad (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input accum, :: tensorflow::Input lr, :: tensorflow::Input l1, :: tensorflow::Input l2, :: tensorflow::Input grad, :: tensorflow::Input indices, const SparseApplyProximalAdagrad::Attrs & attrs)

सार्वजनिक विशेषताएँ

operation
out

सार्वजनिक कार्य

node () const
::tensorflow::Node *
operator::tensorflow::Input () const
operator::tensorflow::Output () const

सार्वजनिक स्थैतिक कार्य

UseLocking (bool x)

संरचनाएं

टेंसोफ़्लो :: ऑप्स :: स्पार्सेप्लीप्रोक्सिमल एडग्रैड :: एट्र्स

वैकल्पिक विशेषता SparseApplyProximalAdagrad के लिए बसती है

सार्वजनिक विशेषताएँ

ऑपरेशन

Operation operation

बाहर

::tensorflow::Output out

सार्वजनिक कार्य

SparseApplyProximalAdagrad

 SparseApplyProximalAdagrad(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input var,
  ::tensorflow::Input accum,
  ::tensorflow::Input lr,
  ::tensorflow::Input l1,
  ::tensorflow::Input l2,
  ::tensorflow::Input grad,
  ::tensorflow::Input indices
)

SparseApplyProximalAdagrad

 SparseApplyProximalAdagrad(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input var,
  ::tensorflow::Input accum,
  ::tensorflow::Input lr,
  ::tensorflow::Input l1,
  ::tensorflow::Input l2,
  ::tensorflow::Input grad,
  ::tensorflow::Input indices,
  const SparseApplyProximalAdagrad::Attrs & attrs
)

नोड

::tensorflow::Node * node() const 

ऑपरेटर :: टेंसरफ़्लो :: इनपुट

 operator::tensorflow::Input() const 
है

ऑपरेटर :: टेंसरफ़्लो :: आउटपुट

 operator::tensorflow::Output() const 

सार्वजनिक स्थैतिक कार्य

उपयोग करना

Attrs UseLocking(
  bool x
)