RetrieveTPUEmbeddingADAMParametersGradAccumDebug

کلاس نهایی عمومی RetrieveTPUEmbeddingADAMParametersGradAccumDebug

بازیابی پارامترهای جاسازی ADAM با پشتیبانی از اشکال زدایی.

عملیاتی که پارامترهای بهینه سازی را از جاسازی در حافظه میزبان بازیابی می کند. باید قبل از آن یک عملیات ConfigureTPUEmbeddingHost باشد که پیکربندی صحیح جدول جاسازی را تنظیم می کند. به عنوان مثال، این عملیات برای بازیابی پارامترهای به روز شده قبل از ذخیره یک چک پوینت استفاده می شود.

کلاس های تو در تو

کلاس بازیابیTPUEmbeddingADAMParametersGradAccumDebug.Options ویژگی های اختیاری برای RetrieveTPUEmbeddingADAMParametersGradAccumDebug

ثابت ها

رشته OP_NAME نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود

روش های عمومی

بازیابی استاتیکTPUEmbeddingADAMParametersGradAccumDebug.Options
پیکربندی (پیکربندی رشته)
Static RetrieveTPUEmbeddingADAMParametersGradAccumDebug
ایجاد (حوزه دامنه ، NumShards طولانی، Long shardId، گزینه‌ها... گزینه‌ها)
روش کارخانه برای ایجاد کلاسی که یک عملیات RetrieveTPUEmbeddingADAMParametersGradAccumDebug جدید را بسته بندی می کند.
خروجی < TFloat32 >
gradient accumulators ()
پارامتر gradient_accumulators به ​​روز شده توسط الگوریتم بهینه سازی ADAM.
خروجی < TFloat32 >
لحظه ()
پارامتر لحظه ای به روز شده توسط الگوریتم بهینه سازی ADAM.
خروجی < TFloat32 >
مولفه های ()
پارامترهای پارامتر توسط الگوریتم بهینه سازی ADAM به روز شده است.
بازیابی استاتیکTPUEmbeddingADAMParametersGradAccumDebug.Options
tableId (Long tableId)
بازیابی استاتیکTPUEmbeddingADAMParametersGradAccumDebug.Options
tableName (رشته جدولName)
خروجی < TFloat32 >
سرعت ها ()
سرعت های پارامتر به روز شده توسط الگوریتم بهینه سازی ADAM.

روش های ارثی

ثابت ها

رشته نهایی ثابت عمومی OP_NAME

نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود

مقدار ثابت: "RetrieveTPUEmbeddingADAMParametersGradAccumDebug"

روش های عمومی

بازیابی عمومی ثابت بازیابیTPUEmbeddingADAMParametersGradAccumDebug.Options پیکربندی (پیکربندی رشته)

عمومی static RetrieveTPUEmbeddingADAMParametersGradAccumDebug ایجاد (حوزه دامنه ، NumShards طولانی، ShardId طولانی، گزینه‌ها... گزینه‌ها)

روش کارخانه برای ایجاد کلاسی که یک عملیات RetrieveTPUEmbeddingADAMParametersGradAccumDebug جدید را بسته بندی می کند.

مولفه های
محدوده محدوده فعلی
گزینه ها مقادیر ویژگی های اختیاری را حمل می کند
برمی گرداند
  • یک نمونه جدید از RetrieveTPUEmbeddingADAMParametersGradAccumDebug

خروجی عمومی < TFloat32 > gradientAccumulators ()

پارامتر gradient_accumulators به ​​روز شده توسط الگوریتم بهینه سازی ADAM.

خروجی عمومی < TFloat32 > لحظه ای ()

پارامتر لحظه ای به روز شده توسط الگوریتم بهینه سازی ADAM.

خروجی عمومی < TFloat32 > پارامترها ()

پارامترهای پارامتر توسط الگوریتم بهینه سازی ADAM به روز شده است.

عمومی static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options tableId (Long tableId)

بازیابی استاتیک عمومیTPUEmbeddingADAMParametersGradAccumDebug.Options tableName (رشته جدولName)

خروجی عمومی < TFloat32 > سرعت ها ()

سرعت های پارامتر به روز شده توسط الگوریتم بهینه سازی ADAM.