Ftrl

Ftrl de clase pública

Optimizador que implementa el algoritmo FTRL.

Esta versión admite tanto L2 en línea (la penalización L2 que se proporciona en el documento siguiente) como L2 de tipo contracción (que es la adición de una penalización L2 a la función de pérdida).

Constantes

Constantes heredadas

org.tensorflow.framework.optimizers.Optimizer
Cadena VARIABLE_V2

Constructores Públicos

Ftrl (gráfico gráfico )
Crea un optimizador Ftrl
Ftrl (gráfico gráfico , nombre de cadena)
Crea un optimizador Ftrl
Ftrl (gráfico gráfico , tasa de aprendizaje flotante)
Crea un optimizador Ftrl
Ftrl (gráfico gráfico , nombre de cadena, tasa de aprendizaje flotante)
Crea un optimizador Ftrl
Ftrl ( gráfico gráfico , tasa de aprendizaje flotante, tasa de aprendizaje flotante, potencia de tasa de aprendizaje flotante, valor acumulador inicial flotante, fuerza l1 flotante, fuerza l2 flotante, fuerza l2 encogimientoregularización flotante)
Crea un optimizador Ftrl
Ftrl ( gráfico gráfico , nombre de cadena, tasa de aprendizaje flotante, tasa de aprendizaje flotante, potencia de tasa de aprendizaje flotante, valor inicial de acumulador flotante, fuerza l1 flotante, fuerza l2 flotante, fuerza l2 flotante de reducción)
Crea un optimizador Ftrl

Métodos públicos

Cadena
getOptimizerName ()
Obtenga el nombre del optimizador.

Métodos heredados

org.tensorflow.framework.optimizers.Optimizer
Op.
applyGradients (Lista< GradAndVar <? extiende TType >> gradsAndVars, nombre de cadena)
Aplica gradientes a las variables.
<T extiende TType > Lista< GradAndVar <?>>
ComputeGradients (pérdida de operando <?>)
Calcula los gradientes basándose en un operando de pérdida.
cadena estática
createName ( Salida <? extiende TType > variable, String slotName)
Crea un nombre combinando un nombre de variable y un nombre de ranura
cadena abstracta
getOptimizerName ()
Obtenga el nombre del optimizador.
<T extiende TType > Opcional< Variable <T>>
getSlot ( Salida <T> var, String slotName)
Obtiene la ranura asociada con la variable especificada y el nombre de la ranura.
operaciones finales
obtenerTF ()
Obtiene la instancia de operaciones del optimizador.
Op.
minimizar ( operando <?> pérdida)
Minimiza la pérdida actualizando las variables.
Op.
minimizar ( operando <?> pérdida, nombre de cadena)
Minimiza la pérdida actualizando las variables.
booleano
es igual (Objeto arg0)
Clase final<?>
obtenerclase ()
En t
código hash ()
vacío final
notificar ()
vacío final
notificar a todos ()
Cadena
Encadenar ()
vacío final
esperar (arg0 largo, int arg1)
vacío final
espera (largo arg0)
vacío final
esperar ()

Constantes

ACUMULADOR de cadena final estático público

Valor constante: "gradient_accumulator"

flotación final estática pública INITIAL_ACCUMULATOR_VALUE_DEFAULT

Valor constante: 0,1

flotador final estático público L1STRENGTH_DEFAULT

Valor constante: 0,0

flotador final estático público L2STRENGTH_DEFAULT

Valor constante: 0,0

flotador final estático público L2_SHRINKAGE_REGULARIZATION_STRENGTH_DEFAULT

Valor constante: 0,0

flotación final estática pública LEARNING_RATE_DEFAULT

Valor constante: 0,001

flotación final estática pública LEARNING_RATE_POWER_DEFAULT

Valor constante: -0,5

Cadena final estática pública LINEAR_ACCUMULATOR

Valor constante: "acumulador_lineal"

Constructores Públicos

Ftrl público (gráfico gráfico )

Crea un optimizador Ftrl

Parámetros
grafico el gráfico de TensorFlow

public Ftrl (gráfico gráfico , nombre de cadena)

Crea un optimizador Ftrl

Parámetros
grafico el gráfico de TensorFlow
nombre el nombre de este optimizador

public Ftrl (gráfico gráfico , tasa de aprendizaje flotante)

Crea un optimizador Ftrl

Parámetros
grafico el gráfico de TensorFlow
tasa de aprendizaje la tasa de aprendizaje

public Ftrl (gráfico gráfico , nombre de cadena, tasa de aprendizaje flotante)

Crea un optimizador Ftrl

Parámetros
grafico el gráfico de TensorFlow
nombre el nombre de este optimizador
tasa de aprendizaje la tasa de aprendizaje

public Ftrl ( gráfico gráfico, tasa de aprendizaje flotante, tasa de aprendizaje flotante, potencia de tasa de aprendizaje flotante, valor inicial de acumulador flotante, fuerza l1 flotante, fuerza l2 flotante, fuerza l2 flotante de reducción)

Crea un optimizador Ftrl

Parámetros
grafico el gráfico de TensorFlow
tasa de aprendizaje la tasa de aprendizaje
aprendizajeRatePower Controla cómo disminuye la tasa de aprendizaje durante el entrenamiento. Utilice cero para una tasa de aprendizaje fija.
valoracumuladorinicial El valor inicial para los acumuladores. Sólo se permiten valores cero o positivos.
l1Fuerza la fuerza de regularización L1 debe ser mayor o igual a cero.
l2Fuerza la fuerza de regularización L2 debe ser mayor o igual a cero.
l2ContracciónRegularizaciónResistencia Esto difiere del L2 anterior en que el L2 anterior es una penalización de estabilización, mientras que esta contracción de L2 es una penalización de magnitud. debe ser mayor o igual a cero.
Lanza
Argumento de excepción ilegal si el valor inicialAccumulatorValue, l1RegularizationStrength, l2RegularizationStrength o l2ShrinkageRegularizationStrength son menores que 0,0, o learningRatePower es mayor que 0,0.

public Ftrl (gráfico gráfico , nombre de cadena, tasa de aprendizaje flotante, tasa de aprendizaje flotante, potencia de tasa de aprendizaje flotante, valor inicial de acumulador flotante, fuerza l1 flotante, fuerza l2 flotante, fuerza l2 flotante de reducción)

Crea un optimizador Ftrl

Parámetros
grafico el gráfico de TensorFlow
nombre el nombre de este optimizador
tasa de aprendizaje la tasa de aprendizaje
aprendizajeRatePower Controla cómo disminuye la tasa de aprendizaje durante el entrenamiento. Utilice cero para una tasa de aprendizaje fija.
valoracumuladorinicial El valor inicial para los acumuladores. Sólo se permiten valores cero o positivos.
l1Fuerza la fuerza de regularización L1 debe ser mayor o igual a cero.
l2Fuerza la fuerza de regularización L2 debe ser mayor o igual a cero.
l2ContracciónRegularizaciónResistencia Esto difiere del L2 anterior en que el L2 anterior es una penalización de estabilización, mientras que esta contracción de L2 es una penalización de magnitud. debe ser mayor o igual a cero.
Lanza
Argumento de excepción ilegal si el valor inicialAccumulatorValue, l1RegularizationStrength, l2RegularizationStrength o l2ShrinkageRegularizationStrength son menores que 0,0, o learningRatePower es mayor que 0,0.

Métodos públicos

cadena pública getOptimizerName ()

Obtenga el nombre del optimizador.

Devoluciones
  • El nombre del optimizador.