SparseApplyProximalAdagrad

공개 최종 클래스 SparseApplyProximalAdagrad

FOBOS 알고리즘에 따라 '*var' 및 '*accum'의 희소 업데이트 항목입니다.

이는 grad가 있는 행에 대해 다음과 같이 var 및 accum을 업데이트합니다. $$accum += grad grad$$$$prox_v = var$$$$prox_v -= lr grad (1 / sqrt(accum))$$$$var = sign(prox_v)/(1+lrl2) max{|prox_v|-lrl1,0}$$

중첩 클래스

수업 SparseApplyProximalAdagrad.Options SparseApplyProximalAdagrad 의 선택적 속성

상수

OP_NAME TensorFlow 코어 엔진에서 알려진 이 작업의 이름

공개 방법

출력 <T>
출력 ()
텐서의 기호 핸들을 반환합니다.
static <T는 TType을 확장합니다. > SparseApplyProximalAdagrad <T>
create ( 범위 범위, 피연산자 <T> var, 피연산자 <T> accum, 피연산자 <T> lr, 피연산자 <T> l1, 피연산자 <T> l2, 피연산자 <T> grad, 피연산자 <? 확장 TNumber > 인덱스, 옵션 ... 옵션)
새로운 SparseApplyProximalAdagrad 작업을 래핑하는 클래스를 생성하는 팩토리 메서드입니다.
출력 <T>
밖으로 ()
"var"와 동일합니다.
정적 SparseApplyProximalAdagrad.Options
useLocking (부울 useLocking)

상속된 메서드

상수

공개 정적 최종 문자열 OP_NAME

TensorFlow 코어 엔진에서 알려진 이 작업의 이름

상수 값: "SparseApplyProximalAdagrad"

공개 방법

공개 출력 <T> asOutput ()

텐서의 기호 핸들을 반환합니다.

TensorFlow 작업에 대한 입력은 다른 TensorFlow 작업의 출력입니다. 이 메서드는 입력 계산을 나타내는 기호 핸들을 얻는 데 사용됩니다.

public static SparseApplyProximalAdagrad <T> create ( Scope 범위, Operand <T> var, Operand <T> accum, Operand <T> lr, Operand <T> l1, Operand <T> l2, Operand <T> grad, Operand <? TNumber > 인덱스, 옵션... 옵션 확장)

새로운 SparseApplyProximalAdagrad 작업을 래핑하는 클래스를 생성하는 팩토리 메서드입니다.

매개변수
범위 현재 범위
var Variable()에서 가져와야 합니다.
축적 Variable()에서 가져와야 합니다.
학습률. 스칼라여야 합니다.
l1 L1 정규화. 스칼라여야 합니다.
l2 L2 정규화. 스칼라여야 합니다.
졸업생 그라데이션입니다.
지수 var 및 accum의 첫 번째 차원에 대한 인덱스 벡터입니다.
옵션 선택적 속성 값을 전달합니다.
보고
  • SparseApplyProximalAdagrad의 새 인스턴스

공개 출력 <T> 출력 ()

"var"와 동일합니다.

공개 정적 SparseApplyProximalAdagrad.Options useLocking (부울 useLocking)

매개변수
사용잠금 True인 경우 var 및 accum 텐서 업데이트는 잠금으로 보호됩니다. 그렇지 않으면 동작이 정의되지 않지만 경합이 덜 나타날 수 있습니다.
,
공개 최종 클래스 SparseApplyProximalAdagrad

FOBOS 알고리즘에 따라 '*var' 및 '*accum'의 희소 업데이트 항목입니다.

이는 grad가 있는 행에 대해 다음과 같이 var 및 accum을 업데이트합니다. $$accum += grad grad$$$$prox_v = var$$$$prox_v -= lr grad (1 / sqrt(accum))$$$$var = sign(prox_v)/(1+lrl2) max{|prox_v|-lrl1,0}$$

중첩 클래스

수업 SparseApplyProximalAdagrad.Options SparseApplyProximalAdagrad 의 선택적 속성

상수

OP_NAME TensorFlow 코어 엔진에서 알려진 이 작업의 이름

공개 방법

출력 <T>
출력 ()
텐서의 기호 핸들을 반환합니다.
static <T는 TType을 확장합니다. > SparseApplyProximalAdagrad <T>
create ( 범위 범위, 피연산자 <T> var, 피연산자 <T> accum, 피연산자 <T> lr, 피연산자 <T> l1, 피연산자 <T> l2, 피연산자 <T> grad, 피연산자 <? 확장 TNumber > 인덱스, 옵션 ... 옵션)
새로운 SparseApplyProximalAdagrad 작업을 래핑하는 클래스를 생성하는 팩토리 메서드입니다.
출력 <T>
밖으로 ()
"var"와 동일합니다.
정적 SparseApplyProximalAdagrad.Options
useLocking (부울 useLocking)

상속된 메서드

상수

공개 정적 최종 문자열 OP_NAME

TensorFlow 핵심 엔진에서 알려진 이 작업의 이름

상수 값: "SparseApplyProximalAdagrad"

공개 방법

공개 출력 <T> asOutput ()

텐서의 기호 핸들을 반환합니다.

TensorFlow 작업에 대한 입력은 다른 TensorFlow 작업의 출력입니다. 이 메서드는 입력 계산을 나타내는 기호 핸들을 얻는 데 사용됩니다.

public static SparseApplyProximalAdagrad <T> create ( Scope 범위, Operand <T> var, Operand <T> accum, Operand <T> lr, Operand <T> l1, Operand <T> l2, Operand <T> grad, Operand <? TNumber > 인덱스, 옵션... 옵션 확장)

새로운 SparseApplyProximalAdagrad 작업을 래핑하는 클래스를 생성하는 팩토리 메서드입니다.

매개변수
범위 현재 범위
var Variable()에서 가져와야 합니다.
축적 Variable()에서 가져와야 합니다.
학습률. 스칼라여야 합니다.
l1 L1 정규화. 스칼라여야 합니다.
l2 L2 정규화. 스칼라여야 합니다.
졸업생 그라데이션입니다.
지수 var 및 accum의 첫 번째 차원에 대한 인덱스 벡터입니다.
옵션 선택적 속성 값을 전달합니다.
보고
  • SparseApplyProximalAdagrad의 새 인스턴스

공개 출력 <T> 출력 ()

"var"와 동일합니다.

공개 정적 SparseApplyProximalAdagrad.Options useLocking (부울 useLocking)

매개변수
사용잠금 True인 경우 var 및 accum 텐서 업데이트는 잠금으로 보호됩니다. 그렇지 않으면 동작이 정의되지 않지만 경합이 덜 나타날 수 있습니다.