Cập nhật các mục có liên quan trong '*var' và '*accum' theo sơ đồ adagrad.
Đó là đối với các hàng mà chúng tôi có grad, chúng tôi cập nhật var và accum như sau: accum += grad * grad var -= lr * grad * (1 / sqrt(accum))
Các lớp lồng nhau
| lớp học | ResourceSparseApplyAdagradV2.Options | Thuộc tính tùy chọn cho ResourceSparseApplyAdagradV2 | |
Hằng số
| Sợi dây | OP_NAME | Tên của op này, được biết đến bởi công cụ lõi TensorFlow |
Phương pháp công khai
| tĩnh <T mở rộng TType > ResourceSparseApplyAdagradV2 | |
| tĩnh ResourceSparseApplyAdagradV2.Options | updateSlots (Boolean updateSlots) |
| tĩnh ResourceSparseApplyAdagradV2.Options | useLocking (Boolean useLocking) |
Phương pháp kế thừa
Hằng số
Chuỗi cuối cùng tĩnh công khai OP_NAME
Tên của op này, được biết đến bởi công cụ lõi TensorFlow
Phương pháp công khai
public static ResourceSparseApplyAdagradV2 tạo ( Phạm vi phạm vi, Toán hạng <?> var, Toán hạng <?> accum, Toán hạng <T> lr, Toán hạng <T> epsilon, Toán hạng <T> grad, Toán hạng <? mở rộng TNumber > chỉ số, Tùy chọn... tùy chọn)
Phương thức gốc để tạo một lớp bao bọc một hoạt động ResourceSparseApplyAdagradV2 mới.
Thông số
| phạm vi | phạm vi hiện tại |
|---|---|
| var | Phải từ một Biến(). |
| tích lũy | Phải từ một Biến(). |
| lr | Tỷ lệ học. Phải là một vô hướng. |
| epsilon | Yếu tố không đổi. Phải là một vô hướng. |
| tốt nghiệp | Độ dốc. |
| chỉ số | Một vectơ chỉ số theo chiều thứ nhất của var và accum. |
| tùy chọn | mang các giá trị thuộc tính tùy chọn |
Trả lại
- một phiên bản mới của ResourceSparseApplyAdagradV2
public static ResourceSparseApplyAdagradV2.Options useLocking (Boolean useLocking)
Thông số
| sử dụngKhóa | Nếu `True`, việc cập nhật các tensor var và accum sẽ được bảo vệ bằng khóa; mặt khác, hành vi không được xác định, nhưng có thể ít gây tranh cãi hơn. |
|---|