قم بتحميل معلمات التضمين ADAM مع دعم تصحيح الأخطاء.
عملية تقوم بتحميل معلمات التحسين إلى HBM للتضمين. يجب أن يسبقه عملية ConfigureTPUEmbeddingHost التي تقوم بإعداد التكوين الصحيح لجدول التضمين. على سبيل المثال، يتم استخدام هذه العملية لتثبيت المعلمات التي يتم تحميلها من نقطة التفتيش قبل تنفيذ حلقة التدريب.
فئات متداخلة
فصل | LoadTPUEmbeddingADAMParametersGradAccumDebug.Options | السمات الاختيارية لـ LoadTPUEmbeddingADAMParametersGradAccumDebug |
الثوابت
خيط | OP_NAME | اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي |
الأساليب العامة
تحميل ثابتTPUEmbeddingADAMParametersGradAccumDebug.Options | التكوين (تكوين السلسلة) |
static LoadTPUEmbeddingADAMParametersGradAccumDebug | |
تحميل ثابتTPUEmbeddingADAMParametersGradAccumDebug.Options | معرف الجدول (معرف الجدول الطويل) |
تحميل ثابتTPUEmbeddingADAMParametersGradAccumDebug.Options | اسم الجدول (اسم جدول السلسلة) |
الطرق الموروثة
الثوابت
السلسلة النهائية الثابتة العامة OP_NAME
اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي
الأساليب العامة
إنشاء LoadTPUEmbeddingADAMParametersGradAccumDebug الثابت العام (نطاق النطاق ، معلمات المعامل < TFloat32 >، المعامل < TFloat32 > العزم، المعامل < TFloat32 > السرعات، المعامل < TFloat32 > gradientAccumulators، الأرقام الطويلة، شارد طويل، خيارات ... )
طريقة المصنع لإنشاء فئة تلتف حول عملية LoadTPUEmbeddingADAMParametersGradAccumDebug الجديدة.
حدود
نِطَاق | النطاق الحالي |
---|---|
حدود | قيمة المعلمات المستخدمة في خوارزمية تحسين ADAM. |
عزم الدوران | قيمة الزخم المستخدمة في خوارزمية تحسين ADAM. |
السرعات | قيمة السرعات المستخدمة في خوارزمية تحسين ADAM. |
gradientAccumulators | قيمة gradient_accumulators المستخدمة في خوارزمية تحسين ADAM. |
خيارات | يحمل قيم السمات الاختيارية |
عائدات
- مثيل جديد لـ LoadTPUEmbeddingADAMParametersGradAccumDebug