Nadam

공개 수업 나담

NAdam 알고리즘을 구현한 Nadam Optimizer입니다.

Adam이 본질적으로 추진력을 가진 RMSprop인 것처럼 Nadam은 Nesterov 추진력을 가진 Adam입니다.

또한보십시오

상수

뜨다 BETA_ONE_DEFAULT
뜨다 BETA_TWO_DEFAULT
뜨다 EPSILON_DEFAULT
FIRST_MOMENT
뜨다 LEARNING_RATE_DEFAULT
기세
SECOND_MOMENT

상속된 상수

공공 생성자

나담 ( 그래프 그래프 )
나담 옵티마이저 생성
나담 ( 그래프 그래프, float learningRate)
나담 옵티마이저 생성
나담 ( 그래프 그래프, float learningRate, float betaOne, float betaTwo, float epsilon)
나담 옵티마이저 생성
나담 ( 그래프 그래프, 문자열 이름, float 학습률)
나담 옵티마이저 생성
나담 ( 그래프 그래프, 문자열 이름, float learningRate, float betaOne, float betaTwo, float epsilon)
나담 옵티마이저 생성

공개 방법

getOptimizerName ()
최적화 프로그램의 이름을 가져옵니다.

상속된 메서드

상수

공개 정적 최종 부동 소수점 BETA_ONE_DEFAULT

상수값: 0.9

공개 정적 최종 부동 소수점 BETA_TWO_DEFAULT

상수값: 0.999

공개 정적 최종 부동 EPSILON_DEFAULT

상수값: 1.0E-8

공개 정적 최종 문자열 FIRST_MOMENT

상수값: "m"

공개 정적 최종 부동 소수점 LEARNING_RATE_DEFAULT

상수값: 0.001

공개 정적 최종 문자열 MOMENTUM

상수 값: "운동량"

공개 정적 최종 문자열 SECOND_MOMENT

상수 값: "v"

공공 생성자

공개 나담 ( 그래프 그래프 )

나담 옵티마이저 생성

매개변수
그래프 TensorFlow 그래프

공개 나담 ( 그래프 그래프, float learningRate)

나담 옵티마이저 생성

매개변수
그래프 TensorFlow 그래프
학습률 학습률, 기본값은 0.001

공개 나담 ( 그래프 그래프 , float learningRate, float betaOne, float betaTwo, float epsilon)

나담 옵티마이저 생성

매개변수
그래프 TensorFlow 그래프
학습률 학습률, 기본값은 0.001
베타원 첫 번째 순간 추정치에 대한 지수적 감쇠율입니다. 기본값은 0.9입니다.
베타2 지수 가중 무한대 노름에 대한 지수 감쇠율입니다. 기본값은 0.999입니다.
엡실론 수치적 안정성을 위한 작은 상수입니다. 기본값은 1e-8입니다.

public Nadam ( 그래프 그래프, 문자열 이름, float learningRate)

나담 옵티마이저 생성

매개변수
그래프 TensorFlow 그래프
이름 이 옵티마이저의 이름, 기본값은 "Nadam"입니다.
학습률 학습률, 기본값은 0.001

공개 나담 ( 그래프 그래프, 문자열 이름, float learningRate, float betaOne, float betaTwo, float epsilon)

나담 옵티마이저 생성

매개변수
그래프 TensorFlow 그래프
이름 이 옵티마이저의 이름, 기본값은 "Nadam"입니다.
학습률 학습률, 기본값은 0.001
베타원 첫 번째 순간 추정치에 대한 지수적 감쇠율입니다. 기본값은 0.9입니다.
베타2 지수 가중 무한대 노름에 대한 지수 감쇠율입니다. 기본값은 0.999입니다.
엡실론 수치적 안정성을 위한 작은 상수입니다. 기본값은 1e-8입니다.

공개 방법

공개 문자열 getOptimizerName ()

최적화 프로그램의 이름을 가져옵니다.

보고
  • 최적화 프로그램 이름입니다.