FOBOS 알고리즘에 따라 '*var' 및 '*accum'의 희소 업데이트 항목입니다.
이는 grad가 있는 행에 대해 다음과 같이 var 및 accum을 업데이트합니다. $$accum += grad grad$$$$prox_v = var$$$$prox_v -= lr grad (1 / sqrt(accum))$$$$var = sign(prox_v)/(1+lrl2) max{|prox_v|-lrl1,0}$$
중첩 클래스
수업 | SparseApplyProximalAdagrad.Options | SparseApplyProximalAdagrad 의 선택적 속성 |
상수
끈 | OP_NAME | TensorFlow 코어 엔진에서 알려진 이 작업의 이름 |
공개 방법
출력 <T> | 출력 () 텐서의 기호 핸들을 반환합니다. |
static <T는 TType을 확장합니다. > SparseApplyProximalAdagrad <T> | |
출력 <T> | 밖으로 () "var"와 동일합니다. |
정적 SparseApplyProximalAdagrad.Options | useLocking (부울 useLocking) |
상속된 메서드
상수
공개 정적 최종 문자열 OP_NAME
TensorFlow 코어 엔진에서 알려진 이 작업의 이름
공개 방법
공개 출력 <T> asOutput ()
텐서의 기호 핸들을 반환합니다.
TensorFlow 작업에 대한 입력은 다른 TensorFlow 작업의 출력입니다. 이 메서드는 입력 계산을 나타내는 기호 핸들을 얻는 데 사용됩니다.
public static SparseApplyProximalAdagrad <T> create ( Scope 범위, Operand <T> var, Operand <T> accum, Operand <T> lr, Operand <T> l1, Operand <T> l2, Operand <T> grad, Operand <? TNumber > 인덱스, 옵션... 옵션 확장)
새로운 SparseApplyProximalAdagrad 작업을 래핑하는 클래스를 생성하는 팩토리 메서드입니다.
매개변수
범위 | 현재 범위 |
---|---|
var | Variable()에서 가져와야 합니다. |
축적 | Variable()에서 가져와야 합니다. |
난 | 학습률. 스칼라여야 합니다. |
l1 | L1 정규화. 스칼라여야 합니다. |
l2 | L2 정규화. 스칼라여야 합니다. |
졸업생 | 그라데이션입니다. |
지수 | var 및 accum의 첫 번째 차원에 대한 인덱스 벡터입니다. |
옵션 | 선택적 속성 값을 전달합니다. |
보고
- SparseApplyProximalAdagrad의 새 인스턴스
공개 정적 SparseApplyProximalAdagrad.Options useLocking (부울 useLocking)
매개변수
사용잠금 | True인 경우 var 및 accum 텐서 업데이트는 잠금으로 보호됩니다. 그렇지 않으면 동작이 정의되지 않지만 경합이 덜 나타날 수 있습니다. |
---|
FOBOS 알고리즘에 따라 '*var' 및 '*accum'의 희소 업데이트 항목입니다.
이는 grad가 있는 행에 대해 다음과 같이 var 및 accum을 업데이트합니다. $$accum += grad grad$$$$prox_v = var$$$$prox_v -= lr grad (1 / sqrt(accum))$$$$var = sign(prox_v)/(1+lrl2) max{|prox_v|-lrl1,0}$$
중첩 클래스
수업 | SparseApplyProximalAdagrad.Options | SparseApplyProximalAdagrad 의 선택적 속성 |
상수
끈 | OP_NAME | TensorFlow 코어 엔진에서 알려진 이 작업의 이름 |
공개 방법
출력 <T> | 출력 () 텐서의 기호 핸들을 반환합니다. |
static <T는 TType을 확장합니다. > SparseApplyProximalAdagrad <T> | |
출력 <T> | 밖으로 () "var"와 동일합니다. |
정적 SparseApplyProximalAdagrad.Options | useLocking (부울 useLocking) |
상속된 메서드
상수
공개 정적 최종 문자열 OP_NAME
TensorFlow 핵심 엔진에서 알려진 이 작업의 이름
공개 방법
공개 출력 <T> asOutput ()
텐서의 기호 핸들을 반환합니다.
TensorFlow 작업에 대한 입력은 다른 TensorFlow 작업의 출력입니다. 이 메서드는 입력 계산을 나타내는 기호 핸들을 얻는 데 사용됩니다.
public static SparseApplyProximalAdagrad <T> create ( Scope 범위, Operand <T> var, Operand <T> accum, Operand <T> lr, Operand <T> l1, Operand <T> l2, Operand <T> grad, Operand <? TNumber > 인덱스, 옵션... 옵션 확장)
새로운 SparseApplyProximalAdagrad 작업을 래핑하는 클래스를 생성하는 팩토리 메서드입니다.
매개변수
범위 | 현재 범위 |
---|---|
var | Variable()에서 가져와야 합니다. |
축적 | Variable()에서 가져와야 합니다. |
난 | 학습률. 스칼라여야 합니다. |
l1 | L1 정규화. 스칼라여야 합니다. |
l2 | L2 정규화. 스칼라여야 합니다. |
졸업생 | 그라데이션입니다. |
지수 | var 및 accum의 첫 번째 차원에 대한 인덱스 벡터입니다. |
옵션 | 선택적 속성 값을 전달합니다. |
보고
- SparseApplyProximalAdagrad의 새 인스턴스
공개 정적 SparseApplyProximalAdagrad.Options useLocking (부울 useLocking)
매개변수
사용잠금 | True인 경우 var 및 accum 텐서 업데이트는 잠금으로 보호됩니다. 그렇지 않으면 동작이 정의되지 않지만 경합이 덜 나타날 수 있습니다. |
---|