AdaGradDA

classe pubblica AdaGradDA

Ottimizzatore che implementa l'algoritmo Adagrad Dual-Averaging.

Questo ottimizzatore si occupa della regolarizzazione delle funzionalità invisibili in un mini batch aggiornandole quando vengono visualizzate con una regola di aggiornamento del modulo chiuso che equivale ad averle aggiornate su ogni mini-batch.

AdagradDA viene in genere utilizzato quando è necessaria una grande scarsità nel modello addestrato. Questo ottimizzatore garantisce la scarsità solo per i modelli lineari. Fai attenzione quando usi AdagradDA per reti profonde poiché richiederà un'accurata inizializzazione degli accumulatori di gradiente per l'addestramento.

Costanti

Corda ACCUMULATORE
galleggiante INITIAL_ACCUMULATOR_DEFAULT
galleggiante L1_STRENGTH_DEFAULT
galleggiante L2_STRENGTH_DEFAULT
galleggiante LEARNING_RATE_DEFAULT
Corda QUADRATO_ACCUMULO

Costanti ereditate

Costruttori pubblici

AdaGradDA (grafico grafico )
Crea un ottimizzatore AdaGradDA
AdaGradDA (grafico grafico , tasso di apprendimento float)
Crea un ottimizzatore AdaGradDA
AdaGradDA (grafico grafico , float learningRate, float partialAccumulatorValue, float l1Strength, float l2Strength)
Crea un ottimizzatore AdaGradDA
AdaGradDA (grafico grafico , nome stringa, tasso di apprendimento float)
Crea un ottimizzatore AdaGradDA
AdaGradDA (grafico grafico , nome stringa, float learningRate, float partialAccumulatorValue, float l1Strength, float l2Strength)
Crea un ottimizzatore AdaGradDA

Metodi pubblici

Corda
getOptimizerName ()
Ottieni il nome dell'ottimizzatore.
Corda

Metodi ereditati

Costanti

ACCUMULATORE di stringa finale statico pubblico

Valore costante: "gradient_accumulator"

float finale statico pubblico INITIAL_ACCUMULATOR_DEFAULT

Valore costante: 0,1

float finale statico pubblico L1_STRENGTH_DEFAULT

Valore costante: 0,0

float finale statico pubblico L2_STRENGTH_DEFAULT

Valore costante: 0,0

float finale statico pubblico LEARNING_RATE_DEFAULT

Valore costante: 0,001

Stringa finale statica pubblica SQUARED_ACCUMULATOR

Valore costante: "gradient_squared_accumulator"

Costruttori pubblici

public AdaGradDA (grafico grafico )

Crea un ottimizzatore AdaGradDA

Parametri
grafico il grafico TensorFlow

AdaGradDA pubblico (grafico grafico , tasso di apprendimento float)

Crea un ottimizzatore AdaGradDA

Parametri
grafico il grafico TensorFlow
tasso di apprendimento il tasso di apprendimento

public AdaGradDA (grafico grafico , float learningRate, float externalAccumulatorValue, float l1Strength, float l2Strength)

Crea un ottimizzatore AdaGradDA

Parametri
grafico il grafico TensorFlow
tasso di apprendimento il tasso di apprendimento
valoreAccumulatoreiniziale Il valore iniziale per gli accumulatori deve essere maggiore di zero.
l1Forza forza di regolarizzazione l1, deve essere maggiore o uguale a zero.
l2Forza Forza di regolarizzazione l2, deve essere maggiore o uguale a zero.
Lancia
IllegalArgumentException se partialAccumulatorValue non è maggiore di zero oppure l1Strength o l2Strength è inferiore a zero

public AdaGradDA (grafico grafico , nome stringa, float learningRate)

Crea un ottimizzatore AdaGradDA

Parametri
grafico il grafico TensorFlow
nome il nome di questo ottimizzatore (il valore predefinito è "adagrad-da")
tasso di apprendimento il tasso di apprendimento

public AdaGradDA (grafico grafico , nome stringa, float learningRate, float partialAccumulatorValue, float l1Strength, float l2Strength)

Crea un ottimizzatore AdaGradDA

Parametri
grafico il grafico TensorFlow
nome il nome di questo ottimizzatore (il valore predefinito è "adagrad-da")
tasso di apprendimento il tasso di apprendimento
valoreAccumulatoreiniziale Il valore iniziale per gli accumulatori deve essere positivo
l1Forza forza di regolarizzazione l1, deve essere maggiore o uguale a zero.
l2Forza Forza di regolarizzazione l2, deve essere maggiore o uguale a zero.
Lancia
IllegalArgumentException se partialAccumulatorValue non è maggiore di zero, oppure * l1Strength o l2Strength è inferiore a zero

Metodi pubblici

public String getOptimizerName ()

Ottieni il nome dell'ottimizzatore.

ritorna
  • Il nome dell'ottimizzatore.

stringa pubblica toString ()