공개 수업 AdaGrad
Adagrad 알고리즘을 구현하는 최적화 프로그램입니다.
Adagrad는 훈련 중에 매개변수가 업데이트되는 빈도에 따라 조정되는 매개변수별 학습률을 갖춘 최적화 도구입니다. 매개변수가 더 많은 업데이트를 받을수록 업데이트 크기는 작아집니다.
상수
끈 | 어큐뮬레이터 | |
뜨다 | INITIAL_ACCUMULATOR_DEFAULT | |
뜨다 | LEARNING_RATE_DEFAULT |
상속된 상수
공공 생성자
공개 방법
끈 | getOptimizerName () 최적화 프로그램의 이름을 가져옵니다. |
끈 | toString () |
상속된 메서드
상수
공개 정적 최종 문자열 누산기
상수 값: "누산기"
공개 정적 최종 부동 INITIAL_ACCUMULATOR_DEFAULT
상수값: 0.01
공개 정적 최종 부동 소수점 LEARNING_RATE_DEFAULT
상수값: 0.001
공공 생성자
공개 AdaGrad ( 그래프 그래프, 부동 학습률, 부동 초기 AccumulatorValue)
AdaGrad 옵티마이저 생성
매개변수
그래프 | TensorFlow 그래프 |
---|---|
학습률 | 학습률 |
초기누산기값 | 누산기의 시작 값은 음수가 아니어야 합니다. |
던지기
IllegalArgumentException | initialAccumulatorValue가 음수인 경우 |
---|
public AdaGrad ( 그래프 그래프, 문자열 이름, float learningRate)
AdaGrad 옵티마이저 생성
매개변수
그래프 | TensorFlow 그래프 |
---|---|
이름 | 이 옵티마이저의 이름(기본값은 'Adagrad') |
학습률 | 학습률 |
공개 AdaGrad ( 그래프 그래프, 문자열 이름, 부동 학습률, 부동 초기 AccumulatorValue)
AdaGrad 옵티마이저 생성
매개변수
그래프 | TensorFlow 그래프 |
---|---|
이름 | 이 옵티마이저의 이름(기본값은 'Adagrad') |
학습률 | 학습률 |
초기누산기값 | 누산기의 시작 값은 음수가 아니어야 합니다. |
던지기
IllegalArgumentException | initialAccumulatorValue가 음수인 경우 |
---|
공개 방법
공개 문자열 getOptimizerName ()
최적화 프로그램의 이름을 가져옵니다.
보고
- 최적화 프로그램 이름입니다.