공개 클래스 AdaGradDA
Adagrad Dual-Averaging 알고리즘을 구현하는 최적화 프로그램입니다.
이 최적화 프로그램은 모든 미니 배치에서 해당 기능을 업데이트하는 것과 동일한 폐쇄형 업데이트 규칙을 사용하여 표시될 때 미니 배치에서 보이지 않는 기능을 업데이트하여 정규화를 처리합니다.
AdagradDA는 일반적으로 훈련된 모델에 큰 희소성이 필요할 때 사용됩니다. 이 최적화 프로그램은 선형 모델의 희소성만 보장합니다. 딥 네트워크에 AdagradDA를 사용할 때는 훈련을 위해 그라디언트 누산기를 신중하게 초기화해야 하므로 주의하세요.
상수
끈 | 어큐뮬레이터 | |
뜨다 | INITIAL_ACCUMULATOR_DEFAULT | |
뜨다 | L1_STRENGTH_DEFAULT | |
뜨다 | L2_STRENGTH_DEFAULT | |
뜨다 | LEARNING_RATE_DEFAULT | |
끈 | SQUARED_ACCUMULATOR |
상속된 상수
공공 생성자
공개 방법
끈 | getOptimizerName () 최적화 프로그램의 이름을 가져옵니다. |
끈 | toString () |
상속된 메서드
상수
공개 정적 최종 문자열 누산기
상수 값: "gradient_accumulator"
공개 정적 최종 부동 INITIAL_ACCUMULATOR_DEFAULT
상수값: 0.1
공개 정적 최종 부동 소수점 L1_STRENGTH_DEFAULT
상수값: 0.0
공개 정적 최종 부동 소수점 L2_STRENGTH_DEFAULT
상수값: 0.0
공개 정적 최종 부동 소수점 LEARNING_RATE_DEFAULT
상수값: 0.001
공개 정적 최종 문자열 SQUARED_ACCUMULATOR
상수 값: "gradient_squared_accumulator"
공공 생성자
공개 AdaGradDA ( 그래프 그래프, 부동 학습률, 부동 초기 AccumulatorValue, 부동 l1Strength, 부동 l2Strength)
AdaGradDA 최적화 도구 생성
매개변수
그래프 | TensorFlow 그래프 |
---|---|
학습률 | 학습률 |
초기누산기값 | 누산기의 시작 값은 0보다 커야 합니다. |
l1강도 | l1 정규화 강도는 0보다 크거나 같아야 합니다. |
l2강도 | l2 정규화 강도는 0보다 크거나 같아야 합니다. |
던지기
IllegalArgumentException | initialAccumulatorValue가 0보다 크지 않거나 l1Strength 또는 l2Strength가 0보다 작은 경우 |
---|
public AdaGradDA ( 그래프 그래프, 문자열 이름, float learningRate)
AdaGradDA 최적화 도구 생성
매개변수
그래프 | TensorFlow 그래프 |
---|---|
이름 | 이 Optimizer의 이름(기본값은 'adagrad-da') |
학습률 | 학습률 |
공개 AdaGradDA ( 그래프 그래프, 문자열 이름, 부동 학습률, 부동 초기 AccumulatorValue, 부동 l1Strength, 부동 l2Strength)
AdaGradDA 최적화 도구 생성
매개변수
그래프 | TensorFlow 그래프 |
---|---|
이름 | 이 Optimizer의 이름(기본값은 'adagrad-da') |
학습률 | 학습률 |
초기누산기값 | 누산기의 시작 값은 양수여야 합니다. |
l1강도 | l1 정규화 강도는 0보다 크거나 같아야 합니다. |
l2강도 | l2 정규화 강도는 0보다 크거나 같아야 합니다. |
던지기
IllegalArgumentException | initialAccumulatorValue가 0보다 크지 않거나 * l1Strength 또는 l2Strength가 0보다 작은 경우 |
---|
공개 방법
공개 문자열 getOptimizerName ()
최적화 프로그램의 이름을 가져옵니다.
보고
- 최적화 프로그램 이름입니다.