lớp cuối cùng công khai ResourceApplyProximalGradientDescent
Cập nhật '*var' dưới dạng thuật toán FOBOS với tốc độ học tập cố định.
prox_v = var - alpha delta var = sign(prox_v)/(1+alpha l2) max{|prox_v|-alpha l1,0}
Các lớp lồng nhau
lớp học | ResourceApplyProximalGradientDescent.Options | Các thuộc tính tùy chọn cho ResourceApplyProximalGradientDescent |
Hằng số
Sợi dây | OP_NAME | Tên của op này, được biết đến bởi công cụ lõi TensorFlow |
Phương pháp công cộng
tĩnh <T mở rộng TType > ResourceApplyProximalGradientDescent | |
tĩnh ResourceApplyProximalGradientDescent.Options | useLocking (Boolean useLocking) |
Phương pháp kế thừa
Hằng số
Chuỗi cuối cùng tĩnh công khai OP_NAME
Tên của op này, được biết đến bởi công cụ lõi TensorFlow
Giá trị không đổi: "ResourceApplyProximalGradientDescent"
Phương pháp công cộng
public static ResourceApplyProximalGradientDescent tạo ( Phạm vi phạm vi, Toán hạng <?> var, Toán hạng <T> alpha, Toán hạng <T> l1, Toán hạng <T> l2, Toán hạng <T> delta, Tùy chọn... tùy chọn)
Phương thức gốc để tạo một lớp bao bọc một thao tác ResourceApplyProximalGradientDescent mới.
Thông số
phạm vi | phạm vi hiện tại |
---|---|
var | Phải từ một Biến(). |
alpha | Yếu tố nhân rộng. Phải là một vô hướng. |
l1 | Chính quy hóa L1. Phải là một vô hướng. |
l2 | Chính quy hóa L2. Phải là một vô hướng. |
đồng bằng | Sự thay đổi. |
tùy chọn | mang các giá trị thuộc tính tùy chọn |
Trả lại
- một phiên bản mới của ResourceApplyProximalGradientDescent
public static ResourceApplyProximalGradientDescent.Options useLocking (Boolean useLocking)
Thông số
sử dụngKhóa | Nếu Đúng, phép trừ sẽ được bảo vệ bằng khóa; mặt khác, hành vi không được xác định, nhưng có thể ít gây tranh cãi hơn. |
---|