بازیابی پارامترهای جاسازی Adagrad با پشتیبانی از اشکال زدایی.
عملیاتی که پارامترهای بهینه سازی را از جاسازی در حافظه میزبان بازیابی می کند. باید قبل از آن یک عملیات ConfigureTPUEmbeddingHost باشد که پیکربندی صحیح جدول جاسازی را تنظیم می کند. به عنوان مثال، این عملیات برای بازیابی پارامترهای به روز شده قبل از ذخیره یک چک پوینت استفاده می شود.
کلاس های تو در تو
کلاس | بازیابیTPUEmbeddingAdagradParametersGradAccumDebug.Options | ویژگی های اختیاری برای RetrieveTPUEmbeddingAdagradParametersGradAccumDebug |
روش های عمومی
خروجی <Float> | آکومولاتورها () انباشته کننده های پارامتر به روز شده توسط الگوریتم بهینه سازی Adagrad. |
بازیابی ایستاTPUEmbeddingAdagradParametersGradAccumDebug.Options | پیکربندی (پیکربندی رشته) |
Static RetrieveTPUEmbeddingAdagradParametersGradAccumDebug | ایجاد (حوزه دامنه ، NumShards طولانی، Long shardId، گزینهها... گزینهها) روش کارخانه برای ایجاد کلاسی که یک عملیات RetrieveTPUEmbeddingAdagradParametersGradAccumDebug جدید را بسته بندی می کند. |
خروجی <Float> | gradient accumulators () پارامتر gradient_accumulators به روز شده توسط الگوریتم بهینه سازی Adagrad. |
خروجی <Float> | مولفه های () پارامترهای پارامتر توسط الگوریتم بهینه سازی آداگراد به روز شده است. |
بازیابی ایستاTPUEmbeddingAdagradParametersGradAccumDebug.Options | tableId (Long tableId) |
بازیابی ایستاTPUEmbeddingAdagradParametersGradAccumDebug.Options | tableName (رشته جدولName) |
روش های ارثی
روش های عمومی
آکومولاتورهای خروجی عمومی <Float> ()
انباشته کننده های پارامتر به روز شده توسط الگوریتم بهینه سازی Adagrad.
عمومی static RetrieveTPUEmbeddingAdagradParametersGradAccumDebug ایجاد ( حوزه دامنه ، NumShards طولانی، Long shardId، گزینهها... گزینهها)
روش کارخانه برای ایجاد کلاسی که یک عملیات RetrieveTPUEmbeddingAdagradParametersGradAccumDebug جدید را بسته بندی می کند.
مولفه های
محدوده | محدوده فعلی |
---|---|
گزینه ها | مقادیر ویژگی های اختیاری را حمل می کند |
برمی گرداند
- یک نمونه جدید از RetrieveTPUEmbeddingAdagradParametersGradAccumDebug
خروجی عمومی <Float> gradientAccumulators ()
پارامتر gradient_accumulators به روز شده توسط الگوریتم بهینه سازی Adagrad.
پارامترهای خروجی عمومی <Float> ()
پارامترهای پارامتر توسط الگوریتم بهینه سازی آداگراد به روز شده است.