AdaGradDA

clase pública AdaGradDA

Optimizador que implementa el algoritmo Adagrad Dual-Averaging.

Este optimizador se encarga de regularizar las funciones invisibles en un mini lote actualizándolas cuando se ven con una regla de actualización de formulario cerrado que equivale a haberlas actualizado en cada mini lote.

AdagradDA se utiliza normalmente cuando se necesita una gran escasez en el modelo entrenado. Este optimizador solo garantiza escasez para modelos lineales. Tenga cuidado al utilizar AdagradDA para redes profundas, ya que requerirá una inicialización cuidadosa de los acumuladores de gradiente para que se entrene.

Constantes

Constantes heredadas

org.tensorflow.framework.optimizers.Optimizer
Cadena VARIABLE_V2

Constructores Públicos

AdaGradDA (gráfico gráfico )
Crea un optimizador AdaGradDA
AdaGradDA (gráfico gráfico , tasa de aprendizaje flotante)
Crea un optimizador AdaGradDA
AdaGradDA (gráfico gráfico , tasa de aprendizaje flotante, valor acumulador inicial flotante, fuerza l1 flotante, fuerza l2 flotante)
Crea un optimizador AdaGradDA
AdaGradDA (gráfico gráfico , nombre de cadena, tasa de aprendizaje flotante)
Crea un optimizador AdaGradDA
AdaGradDA (gráfico gráfico , nombre de cadena, tasa de aprendizaje flotante, valor acumulador inicial flotante, fuerza l1 flotante, fuerza l2 flotante)
Crea un optimizador AdaGradDA

Métodos públicos

Cadena
getOptimizerName ()
Obtenga el nombre del optimizador.
Cadena

Métodos heredados

org.tensorflow.framework.optimizers.Optimizer
Op.
applyGradients (Lista< GradAndVar <? extiende TType >> gradsAndVars, nombre de cadena)
Aplica gradientes a las variables.
<T extiende TType > Lista< GradAndVar <?>>
ComputeGradients (pérdida de operando <?>)
Calcula los gradientes basándose en un operando de pérdida.
cadena estática
createName ( Salida <? extiende TType > variable, String slotName)
Crea un nombre combinando un nombre de variable y un nombre de ranura
cadena abstracta
getOptimizerName ()
Obtenga el nombre del optimizador.
<T extiende TType > Opcional< Variable <T>>
getSlot ( Salida <T> var, String slotName)
Obtiene la ranura asociada con la variable especificada y el nombre de la ranura.
operaciones finales
obtenerTF ()
Obtiene la instancia de operaciones del optimizador.
Op.
minimizar ( operando <?> pérdida)
Minimiza la pérdida actualizando las variables.
Op.
minimizar ( operando <?> pérdida, nombre de cadena)
Minimiza la pérdida actualizando las variables.
booleano
es igual (Objeto arg0)
Clase final<?>
obtenerclase ()
En t
código hash ()
vacío final
notificar ()
vacío final
notificar a todos ()
Cadena
Encadenar ()
vacío final
esperar (arg0 largo, int arg1)
vacío final
espera (largo arg0)
vacío final
esperar ()

Constantes

ACUMULADOR de cadena final estático público

Valor constante: "gradient_accumulator"

flotación final estática pública INITIAL_ACCUMULATOR_DEFAULT

Valor constante: 0,1

flotador final estático público L1_STRENGTH_DEFAULT

Valor constante: 0,0

flotador final estático público L2_STRENGTH_DEFAULT

Valor constante: 0,0

flotación final estática pública LEARNING_RATE_DEFAULT

Valor constante: 0,001

Cadena final estática pública SQUARED_ACCUMULATOR

Valor constante: "gradient_squared_accumulator"

Constructores Públicos

público AdaGradDA (gráfico gráfico )

Crea un optimizador AdaGradDA

Parámetros
grafico el gráfico de TensorFlow

público AdaGradDA (gráfico gráfico , tasa de aprendizaje flotante)

Crea un optimizador AdaGradDA

Parámetros
grafico el gráfico de TensorFlow
tasa de aprendizaje la tasa de aprendizaje

public AdaGradDA (gráfico gráfico , tasa de aprendizaje flotante, valor acumulador inicial flotante, fuerza l1 flotante, fuerza l2 flotante)

Crea un optimizador AdaGradDA

Parámetros
grafico el gráfico de TensorFlow
tasa de aprendizaje la tasa de aprendizaje
valoracumuladorinicial El valor inicial de los acumuladores debe ser mayor que cero.
l1Fuerza l1 fuerza de regularización, debe ser mayor o igual a cero.
l2Fuerza Fuerza de regularización l2, debe ser mayor o igual a cero.
Lanza
Argumento de excepción ilegal si inicialAccumulatorValue no es mayor que cero, o l1Strength o l2Strength es menor que cero

public AdaGradDA (gráfico gráfico , nombre de cadena, tasa de aprendizaje flotante)

Crea un optimizador AdaGradDA

Parámetros
grafico el gráfico de TensorFlow
nombre el nombre de este Optimizador (el valor predeterminado es 'adagrad-da')
tasa de aprendizaje la tasa de aprendizaje

public AdaGradDA (gráfico gráfico , nombre de cadena, tasa de aprendizaje flotante, valor acumulador inicial flotante, fuerza l1 flotante, fuerza l2 flotante)

Crea un optimizador AdaGradDA

Parámetros
grafico el gráfico de TensorFlow
nombre el nombre de este Optimizador (el valor predeterminado es 'adagrad-da')
tasa de aprendizaje la tasa de aprendizaje
valoracumuladorinicial El valor inicial de los acumuladores debe ser positivo.
l1Fuerza l1 fuerza de regularización, debe ser mayor o igual a cero.
l2Fuerza Fuerza de regularización l2, debe ser mayor o igual a cero.
Lanza
Argumento de excepción ilegal si inicialAccumulatorValue no es mayor que cero, o * l1Strength o l2Strength es menor que cero

Métodos públicos

cadena pública getOptimizerName ()

Obtenga el nombre del optimizador.

Devoluciones
  • El nombre del optimizador.

cadena pública a cadena ()