SparseApplyAdagradV2

공개 최종 클래스 SparseApplyAdagradV2

adagrad 체계에 따라 '*var' 및 '*accum'의 관련 항목을 업데이트합니다.

이는 grad가 있는 행에 대해 다음과 같이 var 및 accum을 업데이트합니다.

$$accum += grad * grad$$
$$var -= lr * grad * (1 / sqrt(accum))$$

중첩 클래스

수업 SparseApplyAdagradV2.Options SparseApplyAdagradV2 의 선택적 속성

공개 방법

출력 <T>
출력 ()
텐서의 기호 핸들을 반환합니다.
static <T, U 확장 번호> SparseApplyAdagradV2 <T>
생성 ( 범위 범위, 피연산자 <T> var, 피연산자 <T> accum, 피연산자 <T> lr, 피연산자 <T> 엡실론, 피연산자 <T> grad, 피연산자 <U> 인덱스, 옵션... 옵션)
새로운 SparseApplyAdagradV2 작업을 래핑하는 클래스를 생성하는 팩토리 메서드입니다.
출력 <T>
밖으로 ()
"var"와 동일합니다.
정적 SparseApplyAdagradV2.Options
updateSlots (부울 updateSlots)
정적 SparseApplyAdagradV2.Options
useLocking (부울 useLocking)

상속된 메서드

공개 방법

공개 출력 <T> asOutput ()

텐서의 기호 핸들을 반환합니다.

TensorFlow 작업에 대한 입력은 다른 TensorFlow 작업의 출력입니다. 이 메서드는 입력 계산을 나타내는 기호 핸들을 얻는 데 사용됩니다.

public static SparseApplyAdagradV2 <T> create ( 범위 범위, 피연산자 <T> var, 피연산자 <T> accum, 피연산자 <T> lr, 피연산자 <T> 엡실론, 피연산자 <T> grad, 피연산자 <U> 인덱스, 옵션.. . 옵션)

새로운 SparseApplyAdagradV2 작업을 래핑하는 클래스를 생성하는 팩토리 메서드입니다.

매개변수
범위 현재 범위
var Variable()에서 가져와야 합니다.
축적 Variable()에서 가져와야 합니다.
학습률. 스칼라여야 합니다.
엡실론 상수 요소. 스칼라여야 합니다.
졸업생 그라데이션입니다.
지수 var 및 accum의 첫 번째 차원에 대한 인덱스 벡터입니다.
옵션 선택적 속성 값을 전달합니다.
보고
  • SparseApplyAdagradV2의 새 인스턴스

공개 출력 <T> 출력 ()

"var"와 동일합니다.

공개 정적 SparseApplyAdagradV2.Options updateSlots (부울 updateSlots)

공개 정적 SparseApplyAdagradV2.Options useLocking (부울 useLocking)

매개변수
사용잠금 'True'인 경우 var 및 accum 텐서 업데이트는 잠금으로 보호됩니다. 그렇지 않으면 동작이 정의되지 않지만 경합이 덜 나타날 수 있습니다.