Otimizador que implementa o algoritmo Adagrad Dual-Averaging.
Este otimizador cuida da regularização de recursos não vistos em um minilote, atualizando-os quando são vistos com uma regra de atualização de formulário fechado que equivale a atualizá-los em cada minilote.
AdagradDA normalmente é usado quando há necessidade de grande dispersão no modelo treinado. Este otimizador garante esparsidade apenas para modelos lineares. Tenha cuidado ao usar o AdagradDA para redes profundas, pois isso exigirá uma inicialização cuidadosa dos acumuladores de gradiente para seu treinamento.
Constantes
Corda | ACUMULADOR | |
flutuador | INITIAL_ACCUMULATOR_DEFAULT | |
flutuador | L1_STRENGTH_DEFAULT | |
flutuador | L2_STRENGTH_DEFAULT | |
flutuador | LEARNING_RATE_DEFAULT | |
Corda | QUADRADO_ACCUMULATOR |
Constantes herdadas
Corda | VARIÁVEL_V2 |
Construtores Públicos
Métodos Públicos
Corda | getOptimizerName () Obtenha o nome do otimizador. |
Corda |
Métodos herdados
Op. | applyGradients (List< GradAndVar <? estende TType >> gradsAndVars, String nome) Aplica gradientes a variáveis |
<T estende TType > Lista< GradAndVar <?>> | |
String estática | createName ( Saída <? estende TType > variável, String slotName) Cria um nome combinando um nome de variável e um nome de slot |
cadeia abstrata | getOptimizerName () Obtenha o nome do otimizador. |
<T estende TType > Opcional< Variável <T>> | |
operações finais | obterTF () Obtém a instância de operações do Optimizer |
Op. | |
Op. |
boleano | é igual (objeto arg0) |
aula final<?> | getClass () |
interno | código hash () |
vazio final | notificar () |
vazio final | notificar todos () |
Corda | para sequenciar () |
vazio final | espere (long arg0, int arg1) |
vazio final | espere (arg0 longo) |
vazio final | espere () |
Constantes
público estático final String ACCUMULATOR
flutuador final estático público INITIAL_ACCUMULATOR_DEFAULT
flutuador final estático público L1_STRENGTH_DEFAULT
flutuador final estático público L2_STRENGTH_DEFAULT
flutuador final estático público LEARNING_RATE_DEFAULT
String final estática pública SQUARED_ACCUMULATOR
Construtores Públicos
público AdaGradDA (gráfico gráfico )
Cria um otimizador AdaGradDA
Parâmetros
gráfico | o gráfico do TensorFlow |
---|
public AdaGradDA (gráfico gráfico , float learningRate)
Cria um otimizador AdaGradDA
Parâmetros
gráfico | o gráfico do TensorFlow |
---|---|
taxa de Aprendizagem | a taxa de aprendizagem |
public AdaGradDA (gráfico gráfico , float learningRate, float inicialAccumulatorValue, float l1Strength, float l2Strength)
Cria um otimizador AdaGradDA
Parâmetros
gráfico | o gráfico do TensorFlow |
---|---|
taxa de Aprendizagem | a taxa de aprendizagem |
valoracumuladorinicial | Valor inicial para os acumuladores, deve ser maior que zero. |
l1Força | força de regularização l1, deve ser maior ou igual a zero. |
l2Força | força de regularização l2, deve ser maior ou igual a zero. |
Lança
Exceção de argumento ilegal | se inicialAccumulatorValue não for maior que zero ou l1Strength ou l2Strength for menor que zero |
---|
public AdaGradDA (gráfico gráfico , nome String, float learningRate)
Cria um otimizador AdaGradDA
Parâmetros
gráfico | o gráfico do TensorFlow |
---|---|
nome | o nome deste otimizador (o padrão é 'adagrad-da') |
taxa de Aprendizagem | a taxa de aprendizagem |
public AdaGradDA (gráfico gráfico , nome da string, float learningRate, float inicialAccumulatorValue, float l1Strength, float l2Strength)
Cria um otimizador AdaGradDA
Parâmetros
gráfico | o gráfico do TensorFlow |
---|---|
nome | o nome deste otimizador (o padrão é 'adagrad-da') |
taxa de Aprendizagem | a taxa de aprendizagem |
valoracumuladorinicial | Valor inicial para os acumuladores, deve ser positivo |
l1Força | força de regularização l1, deve ser maior ou igual a zero. |
l2Força | força de regularização l2, deve ser maior ou igual a zero. |
Lança
Exceção de argumento ilegal | se inicialAccumulatorValue não for maior que zero ou * l1Strength ou l2Strength for menor que zero |
---|
Métodos Públicos
String pública getOptimizerName ()
Obtenha o nome do otimizador.
Devoluções
- O nome do otimizador.