Google I/O-তে টিউন করার জন্য ধন্যবাদ। চাহিদা অনুযায়ী সব সেশন দেখুন চাহিদা অনুযায়ী দেখুন

সেন্সরফ্লো :: অপস :: প্রয়োগডাডগ্রাডা

#include <training_ops.h>

প্রক্সিমাল অ্যাডগ্র্যাড স্কিম অনুযায়ী '* ভার' আপডেট করুন।

সারসংক্ষেপ

যুক্তি:

  • সুযোগ: একটি স্কোপ অবজেক্ট
  • var: পরিবর্তনশীল () থেকে হওয়া উচিত।
  • গ্রেডিয়েন্ট_ক্যাকুমুলেটর: চলক () থেকে হওয়া উচিত।
  • গ্রেডিয়েন্ট_সোয়ার্ড_অ্যাকিউমুলেটর: চলক () থেকে হওয়া উচিত।
  • গ্রেড: গ্রেডিয়েন্ট।
  • lr: স্কেলিং ফ্যাক্টর। অবশ্যই একটি স্কেলার হতে হবে।
  • l1: এল 1 নিয়মিতকরণ। অবশ্যই একটি স্কেলার হতে হবে।
  • l2: এল 2 নিয়মিতকরণ। অবশ্যই একটি স্কেলার হতে হবে।
  • গ্লোবাল_পদ্ধতি: প্রশিক্ষণ ধাপ নম্বর। অবশ্যই একটি স্কেলার হতে হবে।

Attrs বৈশিষ্ট্য ( Attrs ):

  • ব্যবহার_লকিং: যদি সত্য হয় তবে ভেরি এবং সংগ্রহের টেন্ডারগুলি আপডেট করা কোনও লক দ্বারা সুরক্ষিত থাকবে; অন্যথায় আচরণটি সংজ্ঞায়িত হলেও কম বিতর্ক প্রদর্শন করতে পারে।

রিটার্নস:

  • Output : "ভার" হিসাবে একই।

নির্মাণকারী এবং ধ্বংসকারী

ApplyAdagradDA (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input gradient_accumulator, :: tensorflow::Input gradient_squared_accumulator, :: tensorflow::Input grad, :: tensorflow::Input lr, :: tensorflow::Input l1, :: tensorflow::Input l2, :: tensorflow::Input global_step)
ApplyAdagradDA (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input gradient_accumulator, :: tensorflow::Input gradient_squared_accumulator, :: tensorflow::Input grad, :: tensorflow::Input lr, :: tensorflow::Input l1, :: tensorflow::Input l2, :: tensorflow::Input global_step, const ApplyAdagradDA::Attrs & attrs)

জনসাধারণের গুণাবলী

operation
out

পাবলিক ফাংশন

node () const
::tensorflow::Node *
operator::tensorflow::Input () const
operator::tensorflow::Output () const

পাবলিক স্ট্যাটিক ফাংশন

UseLocking (bool x)

স্ট্রাক্টস

টেনসরফ্লো :: অপ্স :: অ্যাপলএডগ্র্যাডডিএ :: অ্যাটার্স

প্রয়োগএডগ্র্যাডডিএর জন্য alচ্ছিক বৈশিষ্ট্য সেটটার

জনসাধারণের গুণাবলী

অপারেশন

Operation operation

আউট

::tensorflow::Output out

পাবলিক ফাংশন

প্রয়োগডাডগ্রাডা

 ApplyAdagradDA(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input var,
  ::tensorflow::Input gradient_accumulator,
  ::tensorflow::Input gradient_squared_accumulator,
  ::tensorflow::Input grad,
  ::tensorflow::Input lr,
  ::tensorflow::Input l1,
  ::tensorflow::Input l2,
  ::tensorflow::Input global_step
)

প্রয়োগডাডগ্রাডা

 ApplyAdagradDA(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input var,
  ::tensorflow::Input gradient_accumulator,
  ::tensorflow::Input gradient_squared_accumulator,
  ::tensorflow::Input grad,
  ::tensorflow::Input lr,
  ::tensorflow::Input l1,
  ::tensorflow::Input l2,
  ::tensorflow::Input global_step,
  const ApplyAdagradDA::Attrs & attrs
)

নোড

::tensorflow::Node * node() const 

অপারেটর :: টেনসরফ্লো :: ইনপুট

 operator::tensorflow::Input() const 

অপারেটর :: টেনসরফ্লো :: আউটপুট

 operator::tensorflow::Output() const 

পাবলিক স্ট্যাটিক ফাংশন

ইউজলকিং

Attrs UseLocking(
  bool x
)