AdaGrad

공개 수업 AdaGrad

Adagrad 알고리즘을 구현하는 최적화 프로그램입니다.

Adagrad는 훈련 중에 매개변수가 업데이트되는 빈도에 따라 조정되는 매개변수별 학습률을 갖춘 최적화 도구입니다. 매개변수가 더 많은 업데이트를 받을수록 업데이트 크기는 작아집니다.

상수

어큐뮬레이터
뜨다 INITIAL_ACCUMULATOR_DEFAULT
뜨다 LEARNING_RATE_DEFAULT

상속된 상수

공공 생성자

AdaGrad ( 그래프 그래프)
AdaGrad 옵티마이저 생성
AdaGrad ( 그래프 그래프, float learningRate)
AdaGrad 옵티마이저 생성
AdaGrad ( 그래프 그래프, 부동 학습률, 부동 초기 AccumulatorValue)
AdaGrad 옵티마이저 생성
AdaGrad ( 그래프 그래프, 문자열 이름, float learningRate)
AdaGrad 옵티마이저 생성
AdaGrad ( 그래프 그래프, 문자열 이름, 부동 학습률, 부동 초기 AccumulatorValue)
AdaGrad 옵티마이저 생성

공개 방법

getOptimizerName ()
최적화 프로그램의 이름을 가져옵니다.

상속된 메서드

상수

공개 정적 최종 문자열 누산기

상수 값: "누산기"

공개 정적 최종 부동 INITIAL_ACCUMULATOR_DEFAULT

상수값: 0.01

공개 정적 최종 부동 소수점 LEARNING_RATE_DEFAULT

상수값: 0.001

공공 생성자

공개 AdaGrad ( 그래프 그래프)

AdaGrad 옵티마이저 생성

매개변수
그래프 TensorFlow 그래프

공개 AdaGrad ( 그래프 그래프, float learningRate)

AdaGrad 옵티마이저 생성

매개변수
그래프 TensorFlow 그래프
학습률 학습률

공개 AdaGrad ( 그래프 그래프, 부동 학습률, 부동 초기 AccumulatorValue)

AdaGrad 옵티마이저 생성

매개변수
그래프 TensorFlow 그래프
학습률 학습률
초기누산기값 누산기의 시작 값은 음수가 아니어야 합니다.
던지기
IllegalArgumentException initialAccumulatorValue가 음수인 경우

public AdaGrad ( 그래프 그래프, 문자열 이름, float learningRate)

AdaGrad 옵티마이저 생성

매개변수
그래프 TensorFlow 그래프
이름 이 옵티마이저의 이름(기본값은 'Adagrad')
학습률 학습률

공개 AdaGrad ( 그래프 그래프, 문자열 이름, 부동 학습률, 부동 초기 AccumulatorValue)

AdaGrad 옵티마이저 생성

매개변수
그래프 TensorFlow 그래프
이름 이 옵티마이저의 이름(기본값은 'Adagrad')
학습률 학습률
초기누산기값 누산기의 시작 값은 음수가 아니어야 합니다.
던지기
IllegalArgumentException initialAccumulatorValue가 음수인 경우

공개 방법

공개 문자열 getOptimizerName ()

최적화 프로그램의 이름을 가져옵니다.

보고
  • 최적화 프로그램 이름입니다.

공개 문자열 toString ()