টেনসরফ্লো :: অপস:: SparseApplyAdagradDA

#include <training_ops.h>

প্রক্সিমাল অ্যাডাগ্রাড স্কিম অনুযায়ী '*var' এবং '*accum'-এ এন্ট্রি আপডেট করুন।

সারসংক্ষেপ

যুক্তি:

  • স্কোপ: একটি স্কোপ অবজেক্ট
  • var: একটি পরিবর্তনশীল() থেকে হওয়া উচিত।
  • gradient_accumulator: একটি পরিবর্তনশীল() থেকে হতে হবে।
  • gradient_squared_accumulator: একটি পরিবর্তনশীল() থেকে হওয়া উচিত।
  • grad: গ্রেডিয়েন্ট।
  • সূচক: var এবং accum-এর প্রথম মাত্রায় সূচকগুলির একটি ভেক্টর।
  • lr: শেখার হার। একটি স্কেলার হতে হবে।
  • l1: L1 নিয়মিতকরণ। একটি স্কেলার হতে হবে।
  • l2: L2 নিয়মিতকরণ। একটি স্কেলার হতে হবে।
  • global_step: প্রশিক্ষণের ধাপ নম্বর। একটি স্কেলার হতে হবে।

ঐচ্ছিক বৈশিষ্ট্য (দেখুন Attrs ):

  • use_locking: যদি সত্য হয়, var এবং accum tensors আপডেট করা একটি লক দ্বারা সুরক্ষিত হবে; অন্যথায় আচরণটি অনির্ধারিত, তবে কম বিরোধ প্রদর্শন করতে পারে।

রিটার্ন:

  • Output : "var" এর মতোই।

কনস্ট্রাক্টর এবং ডেস্ট্রাক্টর

SparseApplyAdagradDA (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input gradient_accumulator, :: tensorflow::Input gradient_squared_accumulator, :: tensorflow::Input grad, :: tensorflow::Input indices, :: tensorflow::Input lr, :: tensorflow::Input l1, :: tensorflow::Input l2, :: tensorflow::Input global_step)
SparseApplyAdagradDA (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input gradient_accumulator, :: tensorflow::Input gradient_squared_accumulator, :: tensorflow::Input grad, :: tensorflow::Input indices, :: tensorflow::Input lr, :: tensorflow::Input l1, :: tensorflow::Input l2, :: tensorflow::Input global_step, const SparseApplyAdagradDA::Attrs & attrs)

পাবলিক বৈশিষ্ট্য

operation
out

পাবলিক ফাংশন

node () const
::tensorflow::Node *
operator::tensorflow::Input () const
operator::tensorflow::Output () const

পাবলিক স্ট্যাটিক ফাংশন

UseLocking (bool x)

কাঠামো

tensorflow:: ops:: SparseApplyAdagradDA:: Attrs

SparseApplyAdagradDA- এর জন্য ঐচ্ছিক বৈশিষ্ট্য নির্ধারণকারী।

পাবলিক বৈশিষ্ট্য

অপারেশন

Operation operation

আউট

::tensorflow::Output out

পাবলিক ফাংশন

SparseApplyAdagradDA

 SparseApplyAdagradDA(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input var,
  ::tensorflow::Input gradient_accumulator,
  ::tensorflow::Input gradient_squared_accumulator,
  ::tensorflow::Input grad,
  ::tensorflow::Input indices,
  ::tensorflow::Input lr,
  ::tensorflow::Input l1,
  ::tensorflow::Input l2,
  ::tensorflow::Input global_step
)

SparseApplyAdagradDA

 SparseApplyAdagradDA(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input var,
  ::tensorflow::Input gradient_accumulator,
  ::tensorflow::Input gradient_squared_accumulator,
  ::tensorflow::Input grad,
  ::tensorflow::Input indices,
  ::tensorflow::Input lr,
  ::tensorflow::Input l1,
  ::tensorflow::Input l2,
  ::tensorflow::Input global_step,
  const SparseApplyAdagradDA::Attrs & attrs
)

নোড

::tensorflow::Node * node() const 

অপারেটর::টেনসরফ্লো::ইনপুট

 operator::tensorflow::Input() const 

অপারেটর::টেনসরফ্লো::আউটপুট

 operator::tensorflow::Output() const 

পাবলিক স্ট্যাটিক ফাংশন

লকিং ব্যবহার করুন

Attrs UseLocking(
  bool x
)