بازیابی پارامترهای جاسازی ADAM با پشتیبانی از اشکال زدایی.
عملیاتی که پارامترهای بهینه سازی را از جاسازی در حافظه میزبان بازیابی می کند. باید قبل از آن یک عملیات ConfigureTPUEmbeddingHost باشد که پیکربندی صحیح جدول جاسازی را تنظیم می کند. به عنوان مثال، این عملیات برای بازیابی پارامترهای به روز شده قبل از ذخیره یک چک پوینت استفاده می شود.
کلاس های تو در تو
کلاس | بازیابیTPUEmbeddingADAMParametersGradAccumDebug.Options | ویژگی های اختیاری برای RetrieveTPUEmbeddingADAMParametersGradAccumDebug |
ثابت ها
رشته | OP_NAME | نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود |
روش های عمومی
بازیابی استاتیکTPUEmbeddingADAMParametersGradAccumDebug.Options | پیکربندی (پیکربندی رشته) |
Static RetrieveTPUEmbeddingADAMParametersGradAccumDebug | ایجاد (حوزه دامنه ، NumShards طولانی، Long shardId، گزینهها... گزینهها) روش کارخانه برای ایجاد کلاسی که یک عملیات RetrieveTPUEmbeddingADAMParametersGradAccumDebug جدید را بسته بندی می کند. |
خروجی < TFloat32 > | gradient accumulators () پارامتر gradient_accumulators به روز شده توسط الگوریتم بهینه سازی ADAM. |
خروجی < TFloat32 > | لحظه () پارامتر لحظه ای به روز شده توسط الگوریتم بهینه سازی ADAM. |
خروجی < TFloat32 > | مولفه های () پارامترهای پارامتر توسط الگوریتم بهینه سازی ADAM به روز شده است. |
بازیابی استاتیکTPUEmbeddingADAMParametersGradAccumDebug.Options | tableId (Long tableId) |
بازیابی استاتیکTPUEmbeddingADAMParametersGradAccumDebug.Options | tableName (رشته جدولName) |
خروجی < TFloat32 > | سرعت ها () سرعت های پارامتر به روز شده توسط الگوریتم بهینه سازی ADAM. |
روش های ارثی
ثابت ها
رشته نهایی ثابت عمومی OP_NAME
نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود
روش های عمومی
عمومی static RetrieveTPUEmbeddingADAMParametersGradAccumDebug ایجاد (حوزه دامنه ، NumShards طولانی، ShardId طولانی، گزینهها... گزینهها)
روش کارخانه برای ایجاد کلاسی که یک عملیات RetrieveTPUEmbeddingADAMParametersGradAccumDebug جدید را بسته بندی می کند.
مولفه های
محدوده | محدوده فعلی |
---|---|
گزینه ها | مقادیر ویژگی های اختیاری را حمل می کند |
برمی گرداند
- یک نمونه جدید از RetrieveTPUEmbeddingADAMParametersGradAccumDebug
خروجی عمومی < TFloat32 > gradientAccumulators ()
پارامتر gradient_accumulators به روز شده توسط الگوریتم بهینه سازی ADAM.
خروجی عمومی < TFloat32 > پارامترها ()
پارامترهای پارامتر توسط الگوریتم بهینه سازی ADAM به روز شده است.