ResourceSparseApplyAdagradDa

공개 최종 클래스 ResourceSparseApplyAdagradDa

근위부 adagrad 체계에 따라 '*var' 및 '*accum'의 항목을 업데이트합니다.

중첩 클래스

수업 ResourceSparseApplyAdagradDa.Options ResourceSparseApplyAdagradDa 의 선택적 속성

상수

OP_NAME TensorFlow 핵심 엔진에서 알려진 이 작업의 이름

공개 방법

static <T는 TType을 확장합니다. > ResourceSparseApplyAdagradDa
create ( Scope 범위, Operand <?> var, Operand <?> 그래디언트Accumulator, Operand <?> 그래디언트SquaredAccumulator, Operand <T> grad, Operand <? 확장 TNumber > 인덱스, Operand <T> lr, Operand <T> l1, Operand <T> l2, 피연산자 < TInt64 > globalStep, 옵션... 옵션)
새로운 ResourceSparseApplyAdagradDa 작업을 래핑하는 클래스를 생성하는 팩토리 메서드입니다.
정적 ResourceSparseApplyAdagradDa.Options
useLocking (부울 useLocking)

상속된 메서드

상수

공개 정적 최종 문자열 OP_NAME

TensorFlow 핵심 엔진에서 알려진 이 작업의 이름

상수 값: "ResourceSparseApplyAdagradDA"

공개 방법

public static ResourceSparseApplyAdagradDa create ( Scope 범위, 피연산자 <?> var, 피연산자 <?> 그래디언트Accumulator, 피연산자 <?> 그래디언트SquaredAccumulator, 피연산자 <T> grad, 피연산자 <? 확장 TNumber > 인덱스, 피연산자 <T> lr, 피연산자 <T> l1, 피연산자 <T> l2, 피연산자 < TInt64 > globalStep, 옵션... 옵션)

새로운 ResourceSparseApplyAdagradDa 작업을 래핑하는 클래스를 생성하는 팩토리 메서드입니다.

매개변수
범위 현재 범위
var Variable()에서 가져와야 합니다.
그래디언트누산기 Variable()에서 가져와야 합니다.
그래디언트제곱누산기 Variable()에서 가져와야 합니다.
졸업생 그라데이션입니다.
지수 var 및 accum의 첫 번째 차원에 대한 인덱스 벡터입니다.
학습률. 스칼라여야 합니다.
l1 L1 정규화. 스칼라여야 합니다.
l2 L2 정규화. 스칼라여야 합니다.
글로벌스텝 훈련 단계 번호. 스칼라여야 합니다.
옵션 선택적 속성 값을 전달합니다.
보고
  • ResourceSparseApplyAdagradDa의 새 인스턴스

공개 정적 ResourceSparseApplyAdagradDa.Options useLocking (부울 useLocking)

매개변수
사용잠금 True인 경우 var 및 accum 텐서 업데이트는 잠금으로 보호됩니다. 그렇지 않으면 동작이 정의되지 않지만 경합이 덜 나타날 수 있습니다.