AdaGradDA

کلاس عمومی AdaGradDA

بهینه ساز که الگوریتم میانگین دوگانه Adagrad را پیاده سازی می کند.

این بهینه‌ساز از منظم‌سازی ویژگی‌های دیده نشده در یک دسته کوچک با به‌روزرسانی آنها مراقبت می‌کند، زمانی که آنها با یک قانون به‌روزرسانی فرم بسته مشاهده می‌شوند که معادل به‌روزرسانی آنها در هر دسته کوچک است.

AdagradDA معمولاً زمانی استفاده می شود که نیاز به پراکندگی زیاد در مدل آموزش دیده وجود داشته باشد. این بهینه ساز فقط برای مدل های خطی، پراکندگی را تضمین می کند. هنگام استفاده از AdagradDA برای شبکه های عمیق مراقب باشید زیرا برای آموزش دادن به آن نیاز به مقداردهی اولیه دقیق انباشته های گرادیان دارد.

ثابت ها

ثابت های ارثی

org.tensorflow.framework.optimizers.Optimizer
رشته VARIABLE_V2

سازندگان عمومی

AdaGradDA ( گراف نمودار)
یک AdaGradDA Optimizer ایجاد می کند
AdaGradDA ( گراف نمودار ، نرخ یادگیری شناور)
یک AdaGradDA Optimizer ایجاد می کند
AdaGradDA ( گراف نمودار، نرخ یادگیری شناور، مقدار اولیهAccumulator float، float l1Strength، float l2Strength)
یک AdaGradDA Optimizer ایجاد می کند
AdaGradDA ( گراف نمودار، نام رشته، نرخ یادگیری شناور)
یک AdaGradDA Optimizer ایجاد می کند
AdaGradDA ( گراف نمودار، نام رشته، نرخ یادگیری شناور، مقدار اولیهAccumulator float، float l1Strength، float l2Strength)
یک AdaGradDA Optimizer ایجاد می کند

روش های عمومی

رشته
getOptimizerName ()
نام بهینه ساز را دریافت کنید.
رشته

روش های ارثی

org.tensorflow.framework.optimizers.Optimizer
Op
applyGradients (List< GradAndVar <? گسترش TType >> gradsAndVars، نام رشته)
گرادیان ها را برای متغیرها اعمال می کند
<T TType > List < GradAndVar <?>> را گسترش می دهد
computeGradients ( Operand <?> loss)
گرادیان ها را بر اساس یک عملوند از دست دادن محاسبه می کند.
رشته ایستا
createName ( خروجی <? گسترش متغیر TType >، String slotName)
یک نام با ترکیب نام متغیر و نام اسلات ایجاد می کند
رشته انتزاعی
getOptimizerName ()
نام بهینه ساز را دریافت کنید.
<T TType > اختیاری< متغیر <T>> را گسترش می دهد
getSlot ( خروجی <T> var، String slotName)
اسلات مرتبط با متغیر و نام اسلات مشخص شده را دریافت می کند.
عملیات نهایی
getTF ()
نمونه Optimizer's Ops را دریافت می کند
Op
حداقل کردن (از دست دادن عملوند <?>)
با به روز رسانی متغیرها ضرر را به حداقل می رساند
Op
کوچک کردن (از دست دادن عملوند <?>، نام رشته)
با به روز رسانی متغیرها ضرر را به حداقل می رساند
بولی
برابر است (شیء arg0)
کلاس نهایی<?>
getClass ()
بین المللی
هش کد ()
باطل نهایی
اعلام کردن ()
باطل نهایی
اطلاع رسانی به همه ()
رشته
toString ()
باطل نهایی
صبر کنید (long arg0، int arg1)
باطل نهایی
صبر کنید (طولانی arg0)
باطل نهایی
صبر کن ()

ثابت ها

ACCUMULATOR نهایی استاتیک عمومی

مقدار ثابت: "gradient_accumulator"

شناور نهایی استاتیک عمومی INITIAL_ACCUMULATOR_DEFAULT

مقدار ثابت: 0.1

شناور نهایی استاتیک عمومی L1_STRENGTH_DEFAULT

مقدار ثابت: 0.0

شناور نهایی ثابت عمومی L2_STRENGTH_DEFAULT

مقدار ثابت: 0.0

شناور نهایی ثابت عمومی LEARNING_RATE_DEFAULT

مقدار ثابت: 0.001

رشته نهایی ثابت عمومی SQUARED_ACCUMULATOR

مقدار ثابت: "gradient_squared_accumulator"

سازندگان عمومی

عمومی AdaGradDA (گراف نمودار )

یک AdaGradDA Optimizer ایجاد می کند

مولفه های
نمودار نمودار TensorFlow

عمومی AdaGradDA ( گراف نمودار، نرخ یادگیری شناور)

یک AdaGradDA Optimizer ایجاد می کند

مولفه های
نمودار نمودار TensorFlow
نرخ یادگیری میزان یادگیری

عمومی AdaGradDA ( گراف نمودار، نرخ یادگیری شناور، مقدار اولیهAccumulator float، float l1Strength، float l2Strength)

یک AdaGradDA Optimizer ایجاد می کند

مولفه های
نمودار نمودار TensorFlow
نرخ یادگیری میزان یادگیری
FillAccumulatorValue مقدار شروع برای انباشته ها، باید بزرگتر از صفر باشد.
l1 قدرت قدرت تنظیم l1، باید بزرگتر یا مساوی صفر باشد.
l2 قدرت قدرت تنظیم l2، باید بزرگتر یا مساوی صفر باشد.
پرتاب می کند
IllegalArgumentException اگر initialAccumulatorValue بزرگتر از صفر نباشد، یا l1Strength یا l2Strength کمتر از صفر باشد

عمومی AdaGradDA (گراف نمودار ، نام رشته، نرخ یادگیری شناور)

یک AdaGradDA Optimizer ایجاد می کند

مولفه های
نمودار نمودار TensorFlow
نام نام این بهینه ساز (به طور پیش فرض به "adagrad-da")
نرخ یادگیری میزان یادگیری

عمومی AdaGradDA ( گراف نمودار، نام رشته، نرخ یادگیری شناور، مقدار اولیهAccumulator float، float l1Strength، float l2Strength)

یک AdaGradDA Optimizer ایجاد می کند

مولفه های
نمودار نمودار TensorFlow
نام نام این بهینه ساز (به طور پیش فرض به "adagrad-da")
نرخ یادگیری میزان یادگیری
FillAccumulatorValue مقدار شروع برای انباشته ها باید مثبت باشد
l1 قدرت قدرت تنظیم l1، باید بزرگتر یا مساوی صفر باشد.
l2 قدرت قدرت تنظیم l2، باید بزرگتر یا مساوی صفر باشد.
پرتاب می کند
IllegalArgumentException اگر initialAccumulatorValue بزرگتر از صفر نباشد، یا * l1Strength یا l2Strength کمتر از صفر باشد

روش های عمومی

رشته عمومی getOptimizerName ()

نام بهینه ساز را دریافت کنید.

برمی گرداند
  • نام بهینه ساز

رشته عمومی toString ()