تدفق التوتر:: العمليات:: تطبيقAdadelta
#include <training_ops.h>
قم بتحديث '*var' وفقًا لمخطط adadelta.
ملخص
accum = rho() * accum + (1 - rho()) * grad.square(); التحديث = (update_accum + epsilon).sqrt() * (accum + epsilon()).rsqrt() * grad; update_accum = rho() * update_accum + (1 - rho()) * update.square(); فار -= تحديث;
الحجج:
- النطاق: كائن النطاق
- فار: يجب أن يكون من متغير ().
- تراكم: يجب أن يكون من متغير ().
- accum_update: يجب أن يكون من متغير ().
- lr: عامل التحجيم. يجب أن يكون العددية.
- رو: عامل الاضمحلال. يجب أن يكون العددية.
- إبسيلون: العامل الثابت. يجب أن يكون العددية.
- غراد: التدرج.
السمات الاختيارية (انظر Attrs
):
- use_locking: إذا كان صحيحًا، فسيتم حماية تحديث موترات var وaccum وupdate_accum بواسطة قفل؛ وإلا فإن السلوك غير محدد، ولكنه قد يحمل قدرًا أقل من الخلاف.
العوائد:
-
Output
: نفس "فار".
البنائين والمدمرين | |
---|---|
ApplyAdadelta (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input accum, :: tensorflow::Input accum_update, :: tensorflow::Input lr, :: tensorflow::Input rho, :: tensorflow::Input epsilon, :: tensorflow::Input grad) | |
ApplyAdadelta (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input accum, :: tensorflow::Input accum_update, :: tensorflow::Input lr, :: tensorflow::Input rho, :: tensorflow::Input epsilon, :: tensorflow::Input grad, const ApplyAdadelta::Attrs & attrs) |
الصفات العامة | |
---|---|
operation | |
out |
الوظائف العامة | |
---|---|
node () const | ::tensorflow::Node * |
operator::tensorflow::Input () const | |
operator::tensorflow::Output () const |
وظائف ثابتة العامة | |
---|---|
UseLocking (bool x) |
الهياكل | |
---|---|
Tensorflow:: ops:: ApplyAdadelta:: Attrs | محددات السمات الاختيارية لـ ApplyAdadelta . |
الصفات العامة
عملية
Operation operation
خارج
::tensorflow::Output out
الوظائف العامة
تطبيقAdadelta
ApplyAdadelta( const ::tensorflow::Scope & scope, ::tensorflow::Input var, ::tensorflow::Input accum, ::tensorflow::Input accum_update, ::tensorflow::Input lr, ::tensorflow::Input rho, ::tensorflow::Input epsilon, ::tensorflow::Input grad )
تطبيقAdadelta
ApplyAdadelta( const ::tensorflow::Scope & scope, ::tensorflow::Input var, ::tensorflow::Input accum, ::tensorflow::Input accum_update, ::tensorflow::Input lr, ::tensorflow::Input rho, ::tensorflow::Input epsilon, ::tensorflow::Input grad, const ApplyAdadelta::Attrs & attrs )
العقدة
::tensorflow::Node * node() const
المشغل::tensorflow::الإدخال
operator::tensorflow::Input() const
المشغل::tensorflow::الإخراج
operator::tensorflow::Output() const
وظائف ثابتة العامة
UseLocking
Attrs UseLocking( bool x )
إنّ محتوى هذه الصفحة مرخّص بموجب ترخيص Creative Commons Attribution 4.0 ما لم يُنصّ على خلاف ذلك، ونماذج الرموز مرخّصة بموجب ترخيص Apache 2.0. للاطّلاع على التفاصيل، يُرجى مراجعة سياسات موقع Google Developers. إنّ Java هي علامة تجارية مسجَّلة لشركة Oracle و/أو شركائها التابعين.
تاريخ التعديل الأخير: 2024-12-14 (حسب التوقيت العالمي المتفَّق عليه)
[null,null,["تاريخ التعديل الأخير: 2024-12-14 (حسب التوقيت العالمي المتفَّق عليه)"],[],[]]