Ftrl

공개 클래스 Ftrl

FTRL 알고리즘을 구현하는 최적화 프로그램입니다.

이 버전은 온라인 L2(아래 문서에 제공된 L2 페널티)와 축소형 L2(손실 함수에 L2 페널티를 추가함)를 모두 지원합니다.

상수

어큐뮬레이터
뜨다 INITIAL_ACCUMULATOR_VALUE_DEFAULT
뜨다 L1STRENGTH_DEFAULT
뜨다 L2STRENGTH_DEFAULT
뜨다 L2_SHRINKAGE_REGULARIZATION_STRENGTH_DEFAULT
뜨다 LEARNING_RATE_DEFAULT
뜨다 LEARNING_RATE_POWER_DEFAULT
LINEAR_ACCUMULATOR

상속된 상수

공공 생성자

Ftrl ( 그래프 그래프)
Ftrl 최적화 프로그램을 생성합니다.
Ftrl ( 그래프 그래프, 문자열 이름)
Ftrl 최적화 프로그램을 생성합니다.
Ftrl ( 그래프 그래프, float learningRate)
Ftrl 최적화 프로그램을 생성합니다.
Ftrl ( 그래프 그래프, 문자열 이름, float 학습률)
Ftrl 최적화 프로그램을 생성합니다.
Ftrl ( 그래프 그래프, float learningRate, float learningRatePower, floatinitialAccumulatorValue, float l1Strength, float l2Strength, float l2ShrinkageRegularizationStrength)
Ftrl 최적화 프로그램을 생성합니다.
Ftrl ( 그래프 그래프, 문자열 이름, float learningRate, float learningRatePower, floatiniAccumulatorValue, float l1Strength, float l2Strength, float l2ShrinkageRegularizationStrength)
Ftrl 최적화 프로그램을 생성합니다.

공개 방법

getOptimizerName ()
최적화 프로그램의 이름을 가져옵니다.

상속된 메서드

상수

공개 정적 최종 문자열 누산기

상수 값: "gradient_accumulator"

공개 정적 최종 부동 INITIAL_ACCUMULATOR_VALUE_DEFAULT

상수값: 0.1

공개 정적 최종 부동 소수점 L1STRENGTH_DEFAULT

상수값: 0.0

공개 정적 최종 부동 소수점 L2STRENGTH_DEFAULT

상수값: 0.0

공개 정적 최종 부동 소수점 L2_SHRINKAGE_REGULARIZATION_STRENGTH_DEFAULT

상수값: 0.0

공개 정적 최종 부동 소수점 LEARNING_RATE_DEFAULT

상수값: 0.001

공개 정적 최종 부동 소수점 LEARNING_RATE_POWER_DEFAULT

상수값: -0.5

공개 정적 최종 문자열 LINEAR_ACCUMULATOR

상수 값: "linear_accumulator"

공공 생성자

공개 Ftrl ( 그래프 그래프)

Ftrl 최적화 프로그램을 생성합니다.

매개변수
그래프 TensorFlow 그래프

public Ftrl ( 그래프 그래프, 문자열 이름)

Ftrl 최적화 프로그램을 생성합니다.

매개변수
그래프 TensorFlow 그래프
이름 이 옵티마이저의 이름

public Ftrl ( 그래프 그래프, float learningRate)

Ftrl 최적화 프로그램을 생성합니다.

매개변수
그래프 TensorFlow 그래프
학습률 학습률

public Ftrl ( 그래프 그래프, 문자열 이름, float learningRate)

Ftrl 최적화 프로그램을 생성합니다.

매개변수
그래프 TensorFlow 그래프
이름 이 옵티마이저의 이름
학습률 학습률

공개 Ftrl ( 그래프 그래프, 부동 학습률, 부동 학습률, 부동 초기AccumulatorValue, 부동 l1Strength, 부동 l2Strength, 부동 l2ShrinkageRegularizationStrength)

Ftrl 최적화 프로그램을 생성합니다.

매개변수
그래프 TensorFlow 그래프
학습률 학습률
학습률전력 훈련 중 학습률이 감소하는 방식을 제어합니다. 고정된 학습률에는 0을 사용하세요.
초기누산기값 누산기의 시작 값입니다. 0 또는 양수 값만 허용됩니다.
l1강도 L1 정규화 강도는 0보다 크거나 같아야 합니다.
l2강도 L2 정규화 강도는 0보다 크거나 같아야 합니다.
l2수축정규화강도 이는 위의 L2가 안정화 패널티인 반면 L2 수축은 크기 패널티라는 점에서 위의 L2와 다릅니다. 0보다 크거나 같아야 합니다.
던지기
IllegalArgumentException initialAccumulatorValue, l1RegularizationStrength, l2RegularizationStrength 또는 l2ShrinkageRegularizationStrength가 0.0보다 작거나 learningRatePower가 0.0보다 큰 경우.

public Ftrl ( 그래프 그래프, 문자열 이름, float learningRate, float learningRatePower, floatiniAccumulatorValue, float l1Strength, float l2Strength, float l2ShrinkageRegularizationStrength)

Ftrl 최적화 프로그램을 생성합니다.

매개변수
그래프 TensorFlow 그래프
이름 이 옵티마이저의 이름
학습률 학습률
학습률전력 훈련 중 학습률이 감소하는 방식을 제어합니다. 고정된 학습률에는 0을 사용하세요.
초기누산기값 누산기의 시작 값입니다. 0 또는 양수 값만 허용됩니다.
l1강도 L1 정규화 강도는 0보다 크거나 같아야 합니다.
l2강도 L2 정규화 강도는 0보다 크거나 같아야 합니다.
l2수축정규화강도 이는 위의 L2가 안정화 패널티인 반면 L2 수축은 크기 패널티라는 점에서 위의 L2와 다릅니다. 0보다 크거나 같아야 합니다.
던지기
IllegalArgumentException initialAccumulatorValue, l1RegularizationStrength, l2RegularizationStrength 또는 l2ShrinkageRegularizationStrength가 0.0보다 작거나 learningRatePower가 0.0보다 큰 경우.

공개 방법

공개 문자열 getOptimizerName ()

최적화 프로그램의 이름을 가져옵니다.

보고
  • 최적화 프로그램 이름입니다.