AdaGrad

aula pública AdaGrad

Otimizador que implementa o algoritmo Adagrad.

Adagrad é um otimizador com taxas de aprendizagem específicas de parâmetros, que são adaptadas em relação à frequência com que um parâmetro é atualizado durante o treinamento. Quanto mais atualizações um parâmetro recebe, menores serão as atualizações.

Constantes

Constantes herdadas

org.tensorflow.framework.optimizers.Optimizer
Corda VARIÁVEL_V2

Construtores Públicos

AdaGrad (gráfico gráfico )
Cria um otimizador AdaGrad
AdaGrad (gráfico gráfico , float learningRate)
Cria um otimizador AdaGrad
AdaGrad (gráfico gráfico , float learningRate, float inicialAccumulatorValue)
Cria um otimizador AdaGrad
AdaGrad ( gráfico , nome da string, float learningRate)
Cria um otimizador AdaGrad
AdaGrad ( gráfico , nome da string, float learningRate, float inicialAccumulatorValue)
Cria um otimizador AdaGrad

Métodos Públicos

Corda
getOptimizerName ()
Obtenha o nome do otimizador.
Corda

Métodos herdados

org.tensorflow.framework.optimizers.Optimizer
Op.
applyGradients (List< GradAndVar <? estende TType >> gradsAndVars, String nome)
Aplica gradientes a variáveis
<T estende TType > Lista< GradAndVar <?>>
computaGradients ( operando <?> perda)
Calcula os gradientes com base em um operando de perda.
String estática
createName ( Saída <? estende TType > variável, String slotName)
Cria um nome combinando um nome de variável e um nome de slot
cadeia abstrata
getOptimizerName ()
Obtenha o nome do otimizador.
<T estende TType > Opcional< Variável <T>>
getSlot ( Saída <T> var, String slotName)
Obtém o slot associado à variável e ao nome do slot especificados.
operações finais
obterTF ()
Obtém a instância de operações do Optimizer
Op.
minimizar ( operando <?> perda)
Minimiza a perda atualizando as variáveis
Op.
minimizar ( operando <?> perda, nome da string)
Minimiza a perda atualizando as variáveis
boleano
é igual (objeto arg0)
aula final<?>
getClass ()
interno
código hash ()
vazio final
notificar ()
vazio final
notificar todos ()
Corda
para sequenciar ()
vazio final
espere (long arg0, int arg1)
vazio final
espere (arg0 longo)
vazio final
espere ()

Constantes

público estático final String ACCUMULATOR

Valor constante: "acumulador"

flutuador final estático público INITIAL_ACCUMULATOR_DEFAULT

Valor Constante: 0,01

flutuador final estático público LEARNING_RATE_DEFAULT

Valor Constante: 0,001

Construtores Públicos

público AdaGrad (gráfico gráfico )

Cria um otimizador AdaGrad

Parâmetros
gráfico o gráfico do TensorFlow

public AdaGrad (gráfico gráfico , float learningRate)

Cria um otimizador AdaGrad

Parâmetros
gráfico o gráfico do TensorFlow
taxa de Aprendizagem a taxa de aprendizagem

public AdaGrad (gráfico gráfico , float learningRate, float inicialAccumulatorValue)

Cria um otimizador AdaGrad

Parâmetros
gráfico o gráfico do TensorFlow
taxa de Aprendizagem a taxa de aprendizagem
valoracumuladorinicial O valor inicial para os acumuladores deve ser não negativo.
Lança
Exceção de argumento ilegal se inicialAccumulatorValue for negativo

public AdaGrad (gráfico gráfico , nome da string, float learningRate)

Cria um otimizador AdaGrad

Parâmetros
gráfico o gráfico do TensorFlow
nome o nome deste otimizador (o padrão é 'Adagrad')
taxa de Aprendizagem a taxa de aprendizagem

public AdaGrad (gráfico gráfico , nome da string, float learningRate, float inicialAccumulatorValue)

Cria um otimizador AdaGrad

Parâmetros
gráfico o gráfico do TensorFlow
nome o nome deste otimizador (o padrão é 'Adagrad')
taxa de Aprendizagem a taxa de aprendizagem
valoracumuladorinicial O valor inicial para os acumuladores deve ser não negativo.
Lança
Exceção de argumento ilegal se inicialAccumulatorValue for negativo

Métodos Públicos

String pública getOptimizerName ()

Obtenha o nome do otimizador.

Devoluções
  • O nome do otimizador.

String pública paraString ()