جریان تنسور:: عملیات:: SparseApplyAdagradDA
#include <training_ops.h>
ورودیهای «*var» و «*accum» را طبق طرح آداگراد پروگزیمال بهروزرسانی کنید.
خلاصه
استدلال ها:
- scope: یک شی Scope
- var: باید از یک متغیر () باشد.
- gradient_accumulator: باید از یک متغیر () باشد.
- gradient_squared_accumulator: باید از یک متغیر () باشد.
- grad: گرادیان.
- شاخص ها: بردار شاخص ها در بعد اول var و accum.
- lr: میزان یادگیری. باید اسکالر باشد.
- l1: تنظیم L1. باید اسکالر باشد.
- l2: تنظیم L2. باید اسکالر باشد.
- global_step: شماره مرحله آموزش. باید اسکالر باشد.
ویژگی های اختیاری (به Attrs
مراجعه کنید):
- use_locking: اگر True باشد، بهروزرسانی تانسورهای var و accum توسط یک قفل محافظت میشود. در غیر این صورت رفتار تعریف نشده است، اما ممکن است اختلاف کمتری از خود نشان دهد.
برمی گرداند:
-
Output
: مانند "var".
سازندگان و ویرانگرها | |
---|---|
SparseApplyAdagradDA (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input gradient_accumulator, :: tensorflow::Input gradient_squared_accumulator, :: tensorflow::Input grad, :: tensorflow::Input indices, :: tensorflow::Input lr, :: tensorflow::Input l1, :: tensorflow::Input l2, :: tensorflow::Input global_step) | |
SparseApplyAdagradDA (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input gradient_accumulator, :: tensorflow::Input gradient_squared_accumulator, :: tensorflow::Input grad, :: tensorflow::Input indices, :: tensorflow::Input lr, :: tensorflow::Input l1, :: tensorflow::Input l2, :: tensorflow::Input global_step, const SparseApplyAdagradDA::Attrs & attrs) |
صفات عمومی | |
---|---|
operation | |
out |
توابع عمومی | |
---|---|
node () const | ::tensorflow::Node * |
operator::tensorflow::Input () const | |
operator::tensorflow::Output () const |
توابع استاتیک عمومی | |
---|---|
UseLocking (bool x) |
سازه ها | |
---|---|
tensorflow:: ops:: SparseApplyAdagradDA:: Attrs | تنظیم کننده های ویژگی اختیاری برای SparseApplyAdagradDA . |
صفات عمومی
عملیات
Operation operation
بیرون
::tensorflow::Output out
توابع عمومی
SparseApplyAdagradDA
SparseApplyAdagradDA( const ::tensorflow::Scope & scope, ::tensorflow::Input var, ::tensorflow::Input gradient_accumulator, ::tensorflow::Input gradient_squared_accumulator, ::tensorflow::Input grad, ::tensorflow::Input indices, ::tensorflow::Input lr, ::tensorflow::Input l1, ::tensorflow::Input l2, ::tensorflow::Input global_step )
SparseApplyAdagradDA
SparseApplyAdagradDA( const ::tensorflow::Scope & scope, ::tensorflow::Input var, ::tensorflow::Input gradient_accumulator, ::tensorflow::Input gradient_squared_accumulator, ::tensorflow::Input grad, ::tensorflow::Input indices, ::tensorflow::Input lr, ::tensorflow::Input l1, ::tensorflow::Input l2, ::tensorflow::Input global_step, const SparseApplyAdagradDA::Attrs & attrs )
گره
::tensorflow::Node * node() const
عملگر::tensorflow::ورودی
operator::tensorflow::Input() const
عملگر::tensorflow::خروجی
operator::tensorflow::Output() const
توابع استاتیک عمومی
استفاده از قفل
Attrs UseLocking( bool x )
جز در مواردی که غیر از این ذکر شده باشد،محتوای این صفحه تحت مجوز Creative Commons Attribution 4.0 License است. نمونه کدها نیز دارای مجوز Apache 2.0 License است. برای اطلاع از جزئیات، به خطمشیهای سایت Google Developers مراجعه کنید. جاوا علامت تجاری ثبتشده Oracle و/یا شرکتهای وابسته به آن است.
تاریخ آخرین بهروزرسانی 2024-11-24 بهوقت ساعت هماهنگ جهانی.
[null,null,["تاریخ آخرین بهروزرسانی 2024-11-24 بهوقت ساعت هماهنگ جهانی."],[],[]]