Tải các tham số nhúng ADAM có hỗ trợ gỡ lỗi.
Một op tải các tham số tối ưu hóa vào HBM để nhúng. Trước đó phải có op configureTPUEmbeddingHost để thiết lập cấu hình bảng nhúng chính xác. Ví dụ: op này được sử dụng để cài đặt các tham số được tải từ điểm kiểm tra trước khi vòng lặp huấn luyện được thực thi.
Các lớp lồng nhau
lớp học | LoadTPUEembeddingADAMParametersGradAccumDebug.Options | Các thuộc tính tùy chọn cho LoadTPUEmbeddingADAMParametersGradAccumDebug |
Hằng số
Sợi dây | OP_NAME | Tên của op này, được biết đến bởi công cụ lõi TensorFlow |
Phương pháp công khai
LoadTPUEembeddingADAMParametersGradAccumDebug.Options | config (Cấu hình chuỗi) |
Tải tĩnhTPUEembeddingADAMParametersGradAccumDebug | tạo ( Phạm vi phạm vi, Tham số toán hạng < TFloat32 >, Toán hạng < TFloat32 > khoảnh khắc, Toán hạng < TFloat32 > vận tốc, Toán hạng < TFloat32 > gradientAccumulators, Long numShards, Long shardId, Tùy chọn... tùy chọn) Phương thức ban đầu để tạo một lớp bao gồm một hoạt động LoadTPUEmbeddingADAMParametersGradAccumDebug mới. |
LoadTPUEembeddingADAMParametersGradAccumDebug.Options | tableId (Id bảng dài) |
LoadTPUEembeddingADAMParametersGradAccumDebug.Options | tên bảng (Tên bảng chuỗi) |
Phương pháp kế thừa
Hằng số
Chuỗi cuối cùng tĩnh công khai OP_NAME
Tên của op này, được biết đến bởi công cụ lõi TensorFlow
Phương pháp công khai
công khai LoadTPUEmbeddingADAMParametersGradAccumDebug tạo ( Phạm vi phạm vi , Toán hạng < TFloat32 > tham số, Toán hạng < TFloat32 > khoảnh khắc, Toán hạng < TFloat32 > vận tốc, Toán hạng < TFloat32 > gradientAccumulators, Số phân đoạn dài, Phân đoạn dài, Tùy chọn... tùy chọn)
Phương thức ban đầu để tạo một lớp bao gồm một hoạt động LoadTPUEmbeddingADAMParametersGradAccumDebug mới.
Thông số
phạm vi | phạm vi hiện tại |
---|---|
thông số | Giá trị của các tham số được sử dụng trong thuật toán tối ưu hóa ADAM. |
khoảnh khắc | Giá trị mô men được sử dụng trong thuật toán tối ưu hóa ADAM. |
vận tốc | Giá trị vận tốc được sử dụng trong thuật toán tối ưu hóa ADAM. |
gradientTích lũy | Giá trị của gradient_accumulators được sử dụng trong thuật toán tối ưu hóa ADAM. |
tùy chọn | mang các giá trị thuộc tính tùy chọn |
Trả lại
- một phiên bản mới của LoadTPUEmbeddingADAMParametersGradAccumDebug