Cập nhật '*var' dưới dạng thuật toán FOBOS với tốc độ học tập cố định.
prox_v = var - alpha delta var = sign(prox_v)/(1+alpha l2) max{|prox_v|-alpha l1,0}
Các lớp lồng nhau
lớp học | Áp dụngProximalGradientDescent.Options | Các thuộc tính tùy chọn cho ApplyProximalGradientDescent |
Hằng số
Sợi dây | OP_NAME | Tên của op này, được biết đến bởi công cụ lõi TensorFlow |
Phương pháp công cộng
Đầu ra <T> | asOutput () Trả về tay cầm tượng trưng của tensor. |
tĩnh <T mở rộng TType > ApplyProximalGradientDescent <T> | |
Đầu ra <T> | ngoài () Tương tự như "var". |
tĩnh ApplyProximalGradientDescent.Options | useLocking (Boolean useLocking) |
Phương pháp kế thừa
Hằng số
Chuỗi cuối cùng tĩnh công khai OP_NAME
Tên của op này, được biết đến bởi công cụ lõi TensorFlow
Phương pháp công cộng
Đầu ra công khai <T> asOutput ()
Trả về tay cầm tượng trưng của tensor.
Đầu vào của các hoạt động TensorFlow là đầu ra của một hoạt động TensorFlow khác. Phương pháp này được sử dụng để thu được một thẻ điều khiển mang tính biểu tượng đại diện cho việc tính toán đầu vào.
public static ApplyProximalGradientDescent <T> tạo ( Phạm vi phạm vi, Toán hạng <T> var, Toán hạng <T> alpha, Toán hạng <T> l1, Toán hạng <T> l2, Toán hạng <T> delta, Tùy chọn... tùy chọn)
Phương thức gốc để tạo một lớp bao bọc một thao tác ApplyProximalGradientDescent mới.
Thông số
phạm vi | phạm vi hiện tại |
---|---|
var | Phải từ một Biến(). |
alpha | Yếu tố nhân rộng. Phải là một vô hướng. |
l1 | Chính quy hóa L1. Phải là một vô hướng. |
l2 | Chính quy hóa L2. Phải là một vô hướng. |
đồng bằng | Sự thay đổi. |
tùy chọn | mang các giá trị thuộc tính tùy chọn |
Trả lại
- một phiên bản mới của ApplyProximalGradientDescent
tĩnh công khai ApplyProximalGradientDescent.Options useLocking (Boolean useLocking)
Thông số
sử dụngKhóa | Nếu Đúng, phép trừ sẽ được bảo vệ bằng khóa; mặt khác, hành vi không được xác định, nhưng có thể ít gây tranh cãi hơn. |
---|