ResourceSparseApplyAdagradV2

lớp cuối cùng công khai ResourceSparseApplyAdagradV2

Cập nhật các mục có liên quan trong '*var' và '*accum' theo sơ đồ adagrad.

Đó là đối với các hàng mà chúng tôi có grad, chúng tôi cập nhật var và accum như sau: accum += grad * grad var -= lr * grad * (1 / sqrt(accum))

Các lớp lồng nhau

lớp học ResourceSparseApplyAdagradV2.Options Thuộc tính tùy chọn cho ResourceSparseApplyAdagradV2

Hằng số

Sợi dây OP_NAME Tên của op này, được biết đến bởi công cụ lõi TensorFlow

Phương pháp công khai

tĩnh <T mở rộng TType > ResourceSparseApplyAdagradV2
tạo ( Phạm vi phạm vi, Toán hạng <?> var, Toán hạng <?> accum, Toán hạng <T> lr, Toán hạng <T> epsilon, Toán hạng <T> grad, Toán hạng <? mở rộng TNumber > chỉ mục, Tùy chọn... tùy chọn)
Phương thức gốc để tạo một lớp bao bọc một hoạt động ResourceSparseApplyAdagradV2 mới.
tĩnh ResourceSparseApplyAdagradV2.Options
updateSlots (Boolean updateSlots)
tĩnh ResourceSparseApplyAdagradV2.Options
useLocking (Boolean useLocking)

Phương pháp kế thừa

Hằng số

Chuỗi cuối cùng tĩnh công khai OP_NAME

Tên của op này, được biết đến bởi công cụ lõi TensorFlow

Giá trị không đổi: "ResourceSparseApplyAdagradV2"

Phương pháp công khai

public static ResourceSparseApplyAdagradV2 tạo ( Phạm vi phạm vi, Toán hạng <?> var, Toán hạng <?> accum, Toán hạng <T> lr, Toán hạng <T> epsilon, Toán hạng <T> grad, Toán hạng <? mở rộng TNumber > chỉ số, Tùy chọn... tùy chọn)

Phương thức gốc để tạo một lớp bao bọc một hoạt động ResourceSparseApplyAdagradV2 mới.

Thông số
phạm vi phạm vi hiện tại
var Phải từ một Biến().
tích lũy Phải từ một Biến().
lr Tỷ lệ học. Phải là một vô hướng.
epsilon Yếu tố không đổi. Phải là một vô hướng.
tốt nghiệp Độ dốc.
chỉ số Một vectơ chỉ số theo chiều thứ nhất của var và accum.
tùy chọn mang các giá trị thuộc tính tùy chọn
Trả lại
  • một phiên bản mới của ResourceSparseApplyAdagradV2

tĩnh công khai ResourceSparseApplyAdagradV2.Options updateSlots (Boolean updateSlots)

public static ResourceSparseApplyAdagradV2.Options useLocking (Boolean useLocking)

Thông số
sử dụngKhóa Nếu `True`, việc cập nhật các tensor var và accum sẽ được bảo vệ bằng khóa; mặt khác, hành vi không được xác định, nhưng có thể ít gây tranh cãi hơn.