Truy xuất các tham số nhúng Adagrad gần nhất.
Một op lấy các tham số tối ưu hóa từ việc nhúng vào bộ nhớ máy chủ. Trước đó phải có op configureTPUEmbeddingHost để thiết lập cấu hình bảng nhúng chính xác. Ví dụ: op này được sử dụng để truy xuất các tham số đã cập nhật trước khi lưu điểm kiểm tra.
Các lớp lồng nhau
lớp học | Truy xuấtTPUEembeddingProximalAdagradParameters.Options | Các thuộc tính tùy chọn cho RetrieveTPUEmbeddingProximalAdagradParameters |
Hằng số
Sợi dây | OP_NAME | Tên của op này, được biết đến bởi công cụ lõi TensorFlow |
Phương pháp công khai
Đầu ra < TFloat32 > | ắc quy () Bộ tích lũy tham số được cập nhật bằng thuật toán tối ưu hóa Adagrad gần nhất. |
RetrieveTPUEmbeddingProximalAdagradParameters.Options tĩnh | config (Cấu hình chuỗi) |
RetrieveTPUEembeddingProximalAdagradParameters tĩnh | tạo ( Phạm vi phạm vi, numShards dài, shardId dài, Tùy chọn... tùy chọn) Phương thức ban đầu để tạo một lớp bao gồm một thao tác RetrieveTPUEmbeddingProximalAdagradParameters mới. |
Đầu ra < TFloat32 > | thông số () Các tham số tham số được cập nhật bằng thuật toán tối ưu hóa Adagrad gần nhất. |
RetrieveTPUEmbeddingProximalAdagradParameters.Options tĩnh | tableId (Id bảng dài) |
RetrieveTPUEmbeddingProximalAdagradParameters.Options tĩnh | tên bảng (Tên bảng chuỗi) |
Phương pháp kế thừa
Hằng số
Chuỗi cuối cùng tĩnh công khai OP_NAME
Tên của op này, được biết đến bởi công cụ lõi TensorFlow
Phương pháp công khai
Đầu ra công khai < TFloat32 > bộ tích lũy ()
Bộ tích lũy tham số được cập nhật bằng thuật toán tối ưu hóa Adagrad gần nhất.
công khai RetrieveTPUEmbeddingProximalAdagradParameters tạo (Phạm vi phạm vi , numShards dài, shardId dài, Tùy chọn... tùy chọn)
Phương thức ban đầu để tạo một lớp bao gồm một thao tác RetrieveTPUEmbeddingProximalAdagradParameters mới.
Thông số
phạm vi | phạm vi hiện tại |
---|---|
tùy chọn | mang các giá trị thuộc tính tùy chọn |
Trả lại
- một phiên bản mới của RetrieveTPUEmbeddingProximalAdagradParameters
Đầu ra công khai < TFloat32 > tham số ()
Các tham số tham số được cập nhật bằng thuật toán tối ưu hóa Adagrad gần nhất.