공개 최종 수업 ApplyAdaMax
AdaMax 알고리즘에 따라 '*var'를 업데이트합니다.
m_t <- beta1 * m_{t-1} + (1 - beta1) * g v_t <- max(beta2 * v_{t-1}, abs(g)) 변수 <- 변수 - learning_rate / (1 - beta1^ t) * m_t / (v_t + 엡실론)
중첩 클래스
| 수업 | ApplyAdaMax.옵션 | ApplyAdaMax 의 선택적 속성 | |
상수
| 끈 | OP_NAME | TensorFlow 코어 엔진에서 알려진 이 작업의 이름 |
공개 방법
| 출력 <T> | 출력 () 텐서의 기호 핸들을 반환합니다. |
| static <T는 TType을 확장합니다. > ApplyAdaMax <T> | |
| 출력 <T> | 밖으로 () "var"와 동일합니다. |
| 정적 ApplyAdaMax.Options | useLocking (부울 useLocking) |
상속된 메서드
상수
공개 정적 최종 문자열 OP_NAME
TensorFlow 코어 엔진에서 알려진 이 작업의 이름
상수 값: "ApplyAdaMax"
공개 방법
공개 출력 <T> asOutput ()
텐서의 기호 핸들을 반환합니다.
TensorFlow 작업에 대한 입력은 다른 TensorFlow 작업의 출력입니다. 이 메서드는 입력 계산을 나타내는 기호 핸들을 얻는 데 사용됩니다.
public static ApplyAdaMax <T> create ( Scope 범위, Operand <T> var, Operand <T> m, Operand <T> v, Operand <T> beta1Power, Operand <T> lr, Operand <T> beta1, Operand <T > beta2, 피연산자 <T> 엡실론, 피연산자 <T> grad, 옵션... 옵션)
새로운 ApplyAdaMax 작업을 래핑하는 클래스를 생성하는 팩토리 메서드입니다.
매개변수
| 범위 | 현재 범위 |
|---|---|
| var | Variable()에서 가져와야 합니다. |
| 중 | Variable()에서 가져와야 합니다. |
| V | Variable()에서 가져와야 합니다. |
| 베타1힘 | 스칼라여야 합니다. |
| 난 | 배율 인수. 스칼라여야 합니다. |
| 베타1 | 모멘텀 요인. 스칼라여야 합니다. |
| 베타2 | 모멘텀 요인. 스칼라여야 합니다. |
| 엡실론 | 능선 용어. 스칼라여야 합니다. |
| 졸업생 | 그라데이션입니다. |
| 옵션 | 선택적 속성 값을 전달합니다. |
보고
- ApplyAdaMax의 새로운 인스턴스
공개 정적 ApplyAdaMax.Options useLocking (부울 useLocking)
매개변수
| 사용잠금 | 'True'인 경우 var, m 및 v 텐서 업데이트는 잠금으로 보호됩니다. 그렇지 않으면 동작이 정의되지 않지만 경합이 덜 나타날 수 있습니다. |
|---|