lớp cuối cùng công khai ResourceSparseApplyAdagradDa
Cập nhật các mục trong '*var' và '*accum' theo sơ đồ adagrad gần nhất.
Các lớp lồng nhau
| lớp học | ResourceSparseApplyAdagradDa.Options | Thuộc tính tùy chọn cho ResourceSparseApplyAdagradDa | |
Hằng số
| Sợi dây | OP_NAME | Tên của op này, được biết đến bởi công cụ lõi TensorFlow | 
Phương pháp công khai
| tĩnh <T mở rộng TType > ResourceSparseApplyAdagradDa |  tạo ( Phạm vi phạm vi, Toán hạng <?> var, Toán hạng <?> gradientAccumulator, Toán hạng <?> gradientSquaredAccumulator, Toán hạng <T> grad, Toán hạng <? mở rộng TNumber > chỉ số, Toán hạng <T> lr, Toán hạng <T> l1, Toán hạng <T> l2, Toán hạng < TInt64 > GlobalStep, Tùy chọn... tùy chọn)  Phương thức gốc để tạo một lớp bao bọc một hoạt động ResourceSparseApplyAdagradDa mới. | 
| tĩnh ResourceSparseApplyAdagradDa.Options |  useLocking (Boolean useLocking)  | 
Phương pháp kế thừa
Hằng số
Chuỗi cuối cùng tĩnh công khai OP_NAME
Tên của op này, được biết đến bởi công cụ lõi TensorFlow
 Giá trị không đổi: "ResourceSparseApplyAdagradDA" 
Phương pháp công khai
public static ResourceSparseApplyAdagradDa tạo ( Phạm vi phạm vi , Toán hạng <?> var, Toán hạng <?> gradientAccumulator, Toán hạng <?> gradientSquaredAccumulator, Toán hạng <T> grad, Toán hạng <? mở rộng TNumber > chỉ số, Toán hạng <T> lr, Toán hạng <T> l1, Toán hạng <T> l2, Toán hạng < TInt64 > GlobalStep, Tùy chọn... tùy chọn)
Phương thức gốc để tạo một lớp bao bọc một hoạt động ResourceSparseApplyAdagradDa mới.
Thông số
| phạm vi | phạm vi hiện tại | 
|---|---|
| var | Phải từ một Biến(). | 
| gradientTích lũy | Phải từ một Biến(). | 
| gradientBình phươngTích lũy | Phải từ một Biến(). | 
| tốt nghiệp | Độ dốc. | 
| chỉ số | Một vectơ chỉ số theo chiều thứ nhất của var và accum. | 
| lr | Tỷ lệ học. Phải là một vô hướng. | 
| l1 | Chính quy hóa L1. Phải là một vô hướng. | 
| l2 | Chính quy hóa L2. Phải là một vô hướng. | 
| toàn cầuStep | Số bước đào tạo Phải là một vô hướng. | 
| tùy chọn | mang các giá trị thuộc tính tùy chọn | 
Trả lại
- một phiên bản mới của ResourceSparseApplyAdagradDa
public static ResourceSparseApplyAdagradDa.Options useLocking (Boolean useLocking)
Thông số
| sử dụngKhóa | Nếu Đúng, việc cập nhật các tensor var và accum sẽ được bảo vệ bằng khóa; mặt khác, hành vi không được xác định, nhưng có thể ít gây tranh cãi hơn. | 
|---|