AdaGradDA

classe pública AdaGradDA

Otimizador que implementa o algoritmo Adagrad Dual-Averaging.

Este otimizador cuida da regularização de recursos não vistos em um minilote, atualizando-os quando são vistos com uma regra de atualização de formulário fechado que equivale a atualizá-los em cada minilote.

AdagradDA normalmente é usado quando há necessidade de grande dispersão no modelo treinado. Este otimizador garante esparsidade apenas para modelos lineares. Tenha cuidado ao usar o AdagradDA para redes profundas, pois isso exigirá uma inicialização cuidadosa dos acumuladores de gradiente para seu treinamento.

Constantes

Constantes herdadas

org.tensorflow.framework.optimizers.Optimizer
Corda VARIÁVEL_V2

Construtores Públicos

AdaGradDA (gráfico gráfico )
Cria um otimizador AdaGradDA
AdaGradDA (gráfico gráfico , float learningRate)
Cria um otimizador AdaGradDA
AdaGradDA (gráfico gráfico , float learningRate, float inicialAccumulatorValue, float l1Strength, float l2Strength)
Cria um otimizador AdaGradDA
AdaGradDA ( gráfico , nome da string, float learningRate)
Cria um otimizador AdaGradDA
AdaGradDA (gráfico gráfico , nome da string, float learningRate, float inicialAccumulatorValue, float l1Strength, float l2Strength)
Cria um otimizador AdaGradDA

Métodos Públicos

Corda
getOptimizerName ()
Obtenha o nome do otimizador.
Corda

Métodos herdados

org.tensorflow.framework.optimizers.Optimizer
Op.
applyGradients (List< GradAndVar <? estende TType >> gradsAndVars, String nome)
Aplica gradientes a variáveis
<T estende TType > Lista< GradAndVar <?>>
computaGradients ( operando <?> perda)
Calcula os gradientes com base em um operando de perda.
String estática
createName ( Saída <? estende TType > variável, String slotName)
Cria um nome combinando um nome de variável e um nome de slot
cadeia abstrata
getOptimizerName ()
Obtenha o nome do otimizador.
<T estende TType > Opcional< Variável <T>>
getSlot ( Saída <T> var, String slotName)
Obtém o slot associado à variável e ao nome do slot especificados.
operações finais
obterTF ()
Obtém a instância de operações do Optimizer
Op.
minimizar ( operando <?> perda)
Minimiza a perda atualizando as variáveis
Op.
minimizar ( operando <?> perda, nome da string)
Minimiza a perda atualizando as variáveis
boleano
é igual (objeto arg0)
aula final<?>
getClass ()
interno
código hash ()
vazio final
notificar ()
vazio final
notificar todos ()
Corda
para sequenciar ()
vazio final
espere (long arg0, int arg1)
vazio final
espere (arg0 longo)
vazio final
espere ()

Constantes

público estático final String ACCUMULATOR

Valor constante: "gradient_accumulator"

flutuador final estático público INITIAL_ACCUMULATOR_DEFAULT

Valor Constante: 0,1

flutuador final estático público L1_STRENGTH_DEFAULT

Valor constante: 0,0

flutuador final estático público L2_STRENGTH_DEFAULT

Valor constante: 0,0

flutuador final estático público LEARNING_RATE_DEFAULT

Valor Constante: 0,001

String final estática pública SQUARED_ACCUMULATOR

Valor constante: "gradient_squared_accumulator"

Construtores Públicos

público AdaGradDA (gráfico gráfico )

Cria um otimizador AdaGradDA

Parâmetros
gráfico o gráfico do TensorFlow

public AdaGradDA (gráfico gráfico , float learningRate)

Cria um otimizador AdaGradDA

Parâmetros
gráfico o gráfico do TensorFlow
taxa de Aprendizagem a taxa de aprendizagem

public AdaGradDA (gráfico gráfico , float learningRate, float inicialAccumulatorValue, float l1Strength, float l2Strength)

Cria um otimizador AdaGradDA

Parâmetros
gráfico o gráfico do TensorFlow
taxa de Aprendizagem a taxa de aprendizagem
valoracumuladorinicial Valor inicial para os acumuladores, deve ser maior que zero.
l1Força força de regularização l1, deve ser maior ou igual a zero.
l2Força força de regularização l2, deve ser maior ou igual a zero.
Lança
Exceção de argumento ilegal se inicialAccumulatorValue não for maior que zero ou l1Strength ou l2Strength for menor que zero

public AdaGradDA (gráfico gráfico , nome String, float learningRate)

Cria um otimizador AdaGradDA

Parâmetros
gráfico o gráfico do TensorFlow
nome o nome deste otimizador (o padrão é 'adagrad-da')
taxa de Aprendizagem a taxa de aprendizagem

public AdaGradDA (gráfico gráfico , nome da string, float learningRate, float inicialAccumulatorValue, float l1Strength, float l2Strength)

Cria um otimizador AdaGradDA

Parâmetros
gráfico o gráfico do TensorFlow
nome o nome deste otimizador (o padrão é 'adagrad-da')
taxa de Aprendizagem a taxa de aprendizagem
valoracumuladorinicial Valor inicial para os acumuladores, deve ser positivo
l1Força força de regularização l1, deve ser maior ou igual a zero.
l2Força força de regularização l2, deve ser maior ou igual a zero.
Lança
Exceção de argumento ilegal se inicialAccumulatorValue não for maior que zero ou * l1Strength ou l2Strength for menor que zero

Métodos Públicos

String pública getOptimizerName ()

Obtenha o nome do otimizador.

Devoluções
  • O nome do otimizador.

String pública paraString ()