محسن ينفذ خوارزمية آدم.
تحسين آدم هو أسلوب نزول متدرج عشوائي يعتمد على التقدير التكيفي للحظات الدرجة الأولى والثانية.
وفقًا لـ Kingma et al., 2014، فإن هذه الطريقة "تتميز بالكفاءة الحسابية، وتتطلب القليل من الذاكرة، ولا تتغير عند إعادة القياس القطري للتدرجات، وهي مناسبة تمامًا للمشكلات الكبيرة من حيث البيانات/المعلمات".
الثوابت
يطفو | BETA_ONE_DEFAULT | |
يطفو | BETA_TWO_DEFAULT | |
يطفو | EPSILON_DEFAULT | |
خيط | اللحظة الأولى | |
يطفو | LEARNING_RATE_DEFAULT | |
خيط | SECOND_MOMENT |
الثوابت الموروثة
المقاولون العامون
الأساليب العامة
ثابت <T يمتد TType > Op | createAdamMinimize (نطاق النطاق ، خسارة المعامل <T>، معدل التعلم العائم، تعويم betaOne، تعويم betaTwo، تعويم إبسيلون، خيارات... خيارات) إنشاء العملية التي تقلل الخسارة |
خيط | getOptimizerName () احصل على اسم المحسن. |
خيط | إلى سلسلة () |
الطرق الموروثة
الثوابت
التعويم النهائي الثابت العام BETA_ONE_DEFAULT
التعويم النهائي الثابت العام BETA_TWO_DEFAULT
التعويم النهائي الثابت العام EPSILON_DEFAULT
السلسلة النهائية الثابتة العامة FIRST_MOMENT
التعويم النهائي الثابت العام LEARNING_RATE_DEFAULT
السلسلة النهائية العامة الثابتة SECOND_MOMENT
المقاولون العامون
آدم العام (الرسم البياني ، معدل التعلم العائم)
يخلق محسن آدم
حدود
رسم بياني | الرسم البياني TensorFlow |
---|---|
معدل التعليم | معدل التعلم |
آدم العام (الرسم البياني ، تعويم LearningRate، تعويم betaOne، تعويم betaTwo، تعويم إبسيلون)
يخلق محسن آدم
حدود
رسم بياني | الرسم البياني TensorFlow |
---|---|
معدل التعليم | معدل التعلم |
com.betaOne | معدل الانحلال الأسي لتقديرات اللحظة الأولى. الافتراضي هو 0.9. |
betaTwo | معدل الانحلال الأسي لتقديرات اللحظة الثانية. الافتراضي هو 0.999. |
إبسيلون | ثابت صغير للاستقرار العددي. هذا الإبسيلون هو "قبعة إبسيلون" في ورقة Kingma وBa (في الصيغة قبل القسم 2.1 مباشرة)، وليس إبسيلون في الخوارزمية 1 من الورقة. الإعدادات الافتراضية إلى 1e-8. |
آدم العام (الرسم البياني ، اسم السلسلة، معدل التعلم العائم)
يخلق محسن آدم
حدود
رسم بياني | الرسم البياني TensorFlow |
---|---|
اسم | اسم Optimizer، الافتراضي هو "Adam" |
معدل التعليم | معدل التعلم |
آدم العام (الرسم البياني ، اسم السلسلة، معدل التعلم العائم، تعويم betaOne، تعويم betaTwo، تعويم إبسيلون)
يخلق محسن آدم
حدود
رسم بياني | الرسم البياني TensorFlow |
---|---|
اسم | اسم Optimizer، الافتراضي هو "Adam" |
معدل التعليم | معدل التعلم |
com.betaOne | معدل الانحلال الأسي لتقديرات اللحظة الأولى. الافتراضي هو 0.9. |
betaTwo | معدل الانحلال الأسي لتقديرات اللحظة الثانية. الافتراضي هو 0.999. |
إبسيلون | ثابت صغير للاستقرار العددي. هذا الإبسيلون هو "قبعة إبسيلون" في ورقة Kingma وBa (في الصيغة قبل القسم 2.1 مباشرة)، وليس إبسيلون في الخوارزمية 1 من الورقة. الإعدادات الافتراضية إلى 1e-8. |
الأساليب العامة
التشغيل الثابت العام createAdamMinimize (نطاق النطاق ، خسارة المعامل <T>، معدل التعلم العائم، تعويم betaOne، تعويم betaTwo، تعويم إبسيلون، خيارات... خيارات)
إنشاء العملية التي تقلل الخسارة
حدود
نِطَاق | نطاق TensorFlow |
---|---|
خسارة | الخسارة لتقليلها |
معدل التعليم | معدل التعلم |
com.betaOne | معدل الانحلال الأسي لتقديرات اللحظة الأولى. |
betaTwo | معدل الانحلال الأسي لتقديرات اللحظة الثانية. |
إبسيلون | ثابت صغير للاستقرار العددي. هذا الإبسيلون هو "قبعة إبسيلون" في ورقة Kingma وBa (في الصيغة قبل القسم 2.1 مباشرة)، وليس إبسيلون في الخوارزمية 1 من الورقة. |
خيارات | سمات المحسن الاختيارية |
عائدات
- العملية التي تقلل من الخسارة
رميات
غير الشرعيين استثناء حجة | إذا كان النطاق لا يمثل رسمًا بيانيًا |
---|
سلسلة getOptimizerName () العامة
احصل على اسم المحسن.
عائدات
- اسم المحسن.