AdaGradDA

공개 클래스 AdaGradDA

Adagrad Dual-Averaging 알고리즘을 구현하는 최적화 프로그램입니다.

이 최적화 프로그램은 모든 미니 배치에서 해당 기능을 업데이트하는 것과 동일한 폐쇄형 업데이트 규칙을 사용하여 표시될 때 미니 배치에서 보이지 않는 기능을 업데이트하여 정규화를 처리합니다.

AdagradDA는 일반적으로 훈련된 모델에 큰 희소성이 필요할 때 사용됩니다. 이 최적화 프로그램은 선형 모델의 희소성만 보장합니다. 딥 네트워크에 AdagradDA를 사용할 때는 훈련을 위해 그라디언트 누산기를 신중하게 초기화해야 하므로 주의하세요.

상수

어큐뮬레이터
뜨다 INITIAL_ACCUMULATOR_DEFAULT
뜨다 L1_STRENGTH_DEFAULT
뜨다 L2_STRENGTH_DEFAULT
뜨다 LEARNING_RATE_DEFAULT
SQUARED_ACCUMULATOR

상속된 상수

공공 생성자

AdaGradDA ( 그래프 그래프)
AdaGradDA 최적화 도구 생성
AdaGradDA ( 그래프 그래프, 부동 학습률)
AdaGradDA 최적화 도구 생성
AdaGradDA ( 그래프 그래프, float learningRate, floatinitialAccumulatorValue, float l1Strength, float l2Strength)
AdaGradDA 최적화 도구 생성
AdaGradDA ( 그래프 그래프, 문자열 이름, float learningRate)
AdaGradDA 최적화 도구 생성
AdaGradDA ( 그래프 그래프, 문자열 이름, float learningRate, floatinitialAccumulatorValue, float l1Strength, float l2Strength)
AdaGradDA 최적화 도구 생성

공개 방법

getOptimizerName ()
최적화 프로그램의 이름을 가져옵니다.

상속된 메서드

상수

공개 정적 최종 문자열 누산기

상수 값: "gradient_accumulator"

공개 정적 최종 부동 INITIAL_ACCUMULATOR_DEFAULT

상수값: 0.1

공개 정적 최종 부동 소수점 L1_STRENGTH_DEFAULT

상수값: 0.0

공개 정적 최종 부동 소수점 L2_STRENGTH_DEFAULT

상수값: 0.0

공개 정적 최종 부동 소수점 LEARNING_RATE_DEFAULT

상수값: 0.001

공개 정적 최종 문자열 SQUARED_ACCUMULATOR

상수 값: "gradient_squared_accumulator"

공공 생성자

공개 AdaGradDA ( 그래프 그래프)

AdaGradDA 최적화 도구 생성

매개변수
그래프 TensorFlow 그래프

공개 AdaGradDA ( 그래프 그래프, 부동 학습률)

AdaGradDA 최적화 도구 생성

매개변수
그래프 TensorFlow 그래프
학습률 학습률

공개 AdaGradDA ( 그래프 그래프, 부동 학습률, 부동 초기 AccumulatorValue, 부동 l1Strength, 부동 l2Strength)

AdaGradDA 최적화 도구 생성

매개변수
그래프 TensorFlow 그래프
학습률 학습률
초기누산기값 누산기의 시작 값은 0보다 커야 합니다.
l1강도 l1 정규화 강도는 0보다 크거나 같아야 합니다.
l2강도 l2 정규화 강도는 0보다 크거나 같아야 합니다.
던지기
IllegalArgumentException initialAccumulatorValue가 0보다 크지 않거나 l1Strength 또는 l2Strength가 0보다 작은 경우

public AdaGradDA ( 그래프 그래프, 문자열 이름, float learningRate)

AdaGradDA 최적화 도구 생성

매개변수
그래프 TensorFlow 그래프
이름 이 Optimizer의 이름(기본값은 'adagrad-da')
학습률 학습률

공개 AdaGradDA ( 그래프 그래프, 문자열 이름, 부동 학습률, 부동 초기 AccumulatorValue, 부동 l1Strength, 부동 l2Strength)

AdaGradDA 최적화 도구 생성

매개변수
그래프 TensorFlow 그래프
이름 이 Optimizer의 이름(기본값은 'adagrad-da')
학습률 학습률
초기누산기값 누산기의 시작 값은 양수여야 합니다.
l1강도 l1 정규화 강도는 0보다 크거나 같아야 합니다.
l2강도 l2 정규화 강도는 0보다 크거나 같아야 합니다.
던지기
IllegalArgumentException initialAccumulatorValue가 0보다 크지 않거나 * l1Strength 또는 l2Strength가 0보다 작은 경우

공개 방법

공개 문자열 getOptimizerName ()

최적화 프로그램의 이름을 가져옵니다.

보고
  • 최적화 프로그램 이름입니다.

공개 문자열 toString ()