SparseApplyAdagradDa

کلاس نهایی عمومی SparseApplyAdagradDa

ورودی‌های «*var» و «*accum» را طبق طرح آداگراد پروگزیمال به‌روزرسانی کنید.

کلاس های تو در تو

کلاس SparseApplyAdagradDa.Options ویژگی های اختیاری برای SparseApplyAdagradDa

ثابت ها

رشته OP_NAME نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود

روش های عمومی

خروجی <T>
asOutput ()
دسته نمادین تانسور را برمی گرداند.
static <T TType > SparseApplyAdagradDa <T> را گسترش می دهد
ایجاد ( دامنه دامنه ، عملوند <T> var، عملوند <T> gradientAccumulator، عملوند <T> gradientSquaredAccumulator، عملوند <T> grad، عملوند <? گسترش TNumber > شاخص‌ها، عملوند <T> lr، عملوند <T> l1، عملوند <T> l2، عملوند < TINT64 > globalStep، گزینه‌ها... گزینه‌ها)
روش کارخانه برای ایجاد کلاسی که یک عملیات جدید SparseApplyAdagradDa را بسته بندی می کند.
خروجی <T>
بیرون ()
همان "var".
Static SparseApplyAdagradDa.Options
useLocking (قفل کردن استفاده بولی)

روش های ارثی

ثابت ها

رشته نهایی ثابت عمومی OP_NAME

نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود

مقدار ثابت: "SparseApplyAdagradDA"

روش های عمومی

خروجی عمومی <T> asOutput ()

دسته نمادین تانسور را برمی گرداند.

ورودی های عملیات TensorFlow خروجی های عملیات تنسورفلو دیگر هستند. این روش برای به دست آوردن یک دسته نمادین که نشان دهنده محاسبه ورودی است استفاده می شود.

عمومی استاتیک SparseApplyAdagradDa <T> ایجاد ( دامنه دامنه ، عملوند <T> var، عملوند <T> gradientAccumulator، عملوند <T> gradientSquaredAccumulator، عملوند <T> grad، عملوند <? گسترش TNumber > شاخص ها، عملوند <T> lr، عملوند <T> l1، عملوند <T> l2، عملوند < TINT64 > globalStep، گزینه‌ها... گزینه‌ها)

روش کارخانه برای ایجاد کلاسی که یک عملیات جدید SparseApplyAdagradDa را بسته بندی می کند.

مولفه های
محدوده محدوده فعلی
var باید از یک متغیر () باشد.
gradient accumulator باید از یک متغیر () باشد.
gradientSquaredAccumulator باید از یک متغیر () باشد.
درجه گرادیان.
شاخص ها بردار شاخص ها در بعد اول var و accum.
lr میزان یادگیری باید اسکالر باشد.
l1 تنظیم L1. باید اسکالر باشد.
l2 تنظیم L2. باید اسکالر باشد.
globalStep شماره مرحله آموزش باید اسکالر باشد.
گزینه ها مقادیر ویژگی های اختیاری را حمل می کند
برمی گرداند
  • یک نمونه جدید از SparseApplyAdagradDa

خروجی عمومی <T> خارج ()

همان "var".

عمومی استاتیک SparseApplyAdagradDa.Options useLocking (useLocking بولی)

مولفه های
استفاده از قفل کردن اگر درست باشد، به‌روزرسانی تانسورهای var و accum توسط یک قفل محافظت می‌شود. در غیر این صورت رفتار تعریف نشده است، اما ممکن است اختلاف کمتری از خود نشان دهد.