Cập nhật thưa thớt '*var' dưới dạng thuật toán FOBOS với tốc độ học tập cố định.
Đó là đối với các hàng mà chúng tôi có grad, chúng tôi cập nhật var như sau: prox_v = var - alpha grad var = sign(prox_v)/(1+alpha l2) max{|prox_v|-alpha l1,0}
Các lớp lồng nhau
| lớp học | ResourceSparseApplyProximalGradientDescent.Options | Các thuộc tính tùy chọn cho ResourceSparseApplyProximalGradientDescent | |
Hằng số
| Sợi dây | OP_NAME | Tên của op này, được biết đến bởi công cụ lõi TensorFlow |
Phương pháp công khai
| tĩnh <T mở rộng TType > ResourceSparseApplyProximalGradientDescent | |
| tĩnh ResourceSparseApplyProximalGradientDescent.Options | useLocking (Boolean useLocking) |
Phương pháp kế thừa
Hằng số
Chuỗi cuối cùng tĩnh công khai OP_NAME
Tên của op này, được biết đến bởi công cụ lõi TensorFlow
Phương pháp công khai
public static ResourceSparseApplyProximalGradientDescent tạo ( Phạm vi phạm vi, Toán hạng <?> var, Toán hạng <T> alpha, Toán hạng <T> l1, Toán hạng <T> l2, Toán hạng <T> grad, Toán hạng <? mở rộng TNumber > chỉ số, Tùy chọn... tùy chọn)
Phương thức gốc để tạo một lớp bao bọc một thao tác ResourceSparseApplyProximalGradientDescent mới.
Thông số
| phạm vi | phạm vi hiện tại |
|---|---|
| var | Phải từ một Biến(). |
| alpha | Yếu tố nhân rộng. Phải là một vô hướng. |
| l1 | Chính quy hóa L1. Phải là một vô hướng. |
| l2 | Chính quy hóa L2. Phải là một vô hướng. |
| tốt nghiệp | Độ dốc. |
| chỉ số | Một vectơ chỉ số theo chiều thứ nhất của var và accum. |
| tùy chọn | mang các giá trị thuộc tính tùy chọn |
Trả lại
- một phiên bản mới của ResourceSparseApplyProximalGradientDescent
tĩnh công khai ResourceSparseApplyProximalGradientDescent.Options useLocking (Boolean useLocking)
Thông số
| sử dụngKhóa | Nếu Đúng, phép trừ sẽ được bảo vệ bằng khóa; mặt khác, hành vi không được xác định, nhưng có thể ít gây tranh cãi hơn. |
|---|
Cập nhật thưa thớt '*var' dưới dạng thuật toán FOBOS với tốc độ học tập cố định.
Đó là đối với các hàng mà chúng tôi có grad, chúng tôi cập nhật var như sau: prox_v = var - alpha grad var = sign(prox_v)/(1+alpha l2) max{|prox_v|-alpha l1,0}
Các lớp lồng nhau
| lớp học | ResourceSparseApplyProximalGradientDescent.Options | Các thuộc tính tùy chọn cho ResourceSparseApplyProximalGradientDescent | |
Hằng số
| Sợi dây | OP_NAME | Tên của op này, được biết đến bởi công cụ lõi TensorFlow |
Phương pháp công khai
| tĩnh <T mở rộng TType > ResourceSparseApplyProximalGradientDescent | |
| tĩnh ResourceSparseApplyProximalGradientDescent.Options | useLocking (Boolean useLocking) |
Phương pháp kế thừa
Hằng số
Chuỗi cuối cùng tĩnh công khai OP_NAME
Tên của op này, được biết đến bởi công cụ lõi TensorFlow
Phương pháp công khai
public static ResourceSparseApplyProximalGradientDescent tạo ( Phạm vi phạm vi, Toán hạng <?> var, Toán hạng <T> alpha, Toán hạng <T> l1, Toán hạng <T> l2, Toán hạng <T> grad, Toán hạng <? mở rộng TNumber > chỉ số, Tùy chọn... tùy chọn)
Phương thức gốc để tạo một lớp bao bọc một thao tác ResourceSparseApplyProximalGradientDescent mới.
Thông số
| phạm vi | phạm vi hiện tại |
|---|---|
| var | Phải từ một Biến(). |
| alpha | Yếu tố nhân rộng. Phải là một vô hướng. |
| l1 | Chính quy hóa L1. Phải là một vô hướng. |
| l2 | Chính quy hóa L2. Phải là một vô hướng. |
| tốt nghiệp | Độ dốc. |
| chỉ số | Một vectơ chỉ số theo chiều thứ nhất của var và accum. |
| tùy chọn | mang các giá trị thuộc tính tùy chọn |
Trả lại
- một phiên bản mới của ResourceSparseApplyProximalGradientDescent
tĩnh công khai ResourceSparseApplyProximalGradientDescent.Options useLocking (Boolean useLocking)
Thông số
| sử dụngKhóa | Nếu Đúng, phép trừ sẽ được bảo vệ bằng khóa; mặt khác, hành vi không được xác định, nhưng có thể ít gây tranh cãi hơn. |
|---|