Optimizador que implementa el algoritmo FTRL.
Esta versión admite tanto L2 en línea (la penalización L2 que se proporciona en el documento siguiente) como L2 de tipo contracción (que es la adición de una penalización L2 a la función de pérdida).
Ver también
Constantes
Cadena | ACUMULADOR | |
flotar | INITIAL_ACCUMULATOR_VALUE_DEFAULT | |
flotar | L1STRENGTH_DEFAULT | |
flotar | L2STRENGTH_DEFAULT | |
flotar | L2_SHRINKAGE_REGULARIZATION_STRENGTH_DEFAULT | |
flotar | APRENDIZAJE_RATE_DEFAULT | |
flotar | APRENDIZAJE_RATE_POWER_DEFAULT | |
Cadena | ACUMULADOR_LINEAL |
Constantes heredadas
Cadena | VARIABLE_V2 |
Constructores Públicos
Ftrl ( gráfico gráfico , tasa de aprendizaje flotante, tasa de aprendizaje flotante, potencia de tasa de aprendizaje flotante, valor acumulador inicial flotante, fuerza l1 flotante, fuerza l2 flotante, fuerza l2 encogimientoregularización flotante) Crea un optimizador Ftrl | |
Ftrl ( gráfico gráfico , nombre de cadena, tasa de aprendizaje flotante, tasa de aprendizaje flotante, potencia de tasa de aprendizaje flotante, valor inicial de acumulador flotante, fuerza l1 flotante, fuerza l2 flotante, fuerza l2 flotante de reducción) Crea un optimizador Ftrl |
Métodos públicos
Cadena | getOptimizerName () Obtenga el nombre del optimizador. |
Métodos heredados
Op. | applyGradients (Lista< GradAndVar <? extiende TType >> gradsAndVars, nombre de cadena) Aplica gradientes a las variables. |
<T extiende TType > Lista< GradAndVar <?>> | ComputeGradients (pérdida de operando <?>) Calcula los gradientes basándose en un operando de pérdida. |
cadena estática | createName ( Salida <? extiende TType > variable, String slotName) Crea un nombre combinando un nombre de variable y un nombre de ranura |
cadena abstracta | getOptimizerName () Obtenga el nombre del optimizador. |
<T extiende TType > Opcional< Variable <T>> | |
operaciones finales | obtenerTF () Obtiene la instancia de operaciones del optimizador. |
Op. | |
Op. |
booleano | es igual (Objeto arg0) |
Clase final<?> | obtenerclase () |
En t | código hash () |
vacío final | notificar () |
vacío final | notificar a todos () |
Cadena | Encadenar () |
vacío final | esperar (arg0 largo, int arg1) |
vacío final | espera (largo arg0) |
vacío final | esperar () |
Constantes
ACUMULADOR de cadena final estático público
flotación final estática pública INITIAL_ACCUMULATOR_VALUE_DEFAULT
flotador final estático público L1STRENGTH_DEFAULT
flotador final estático público L2STRENGTH_DEFAULT
flotador final estático público L2_SHRINKAGE_REGULARIZATION_STRENGTH_DEFAULT
flotación final estática pública LEARNING_RATE_DEFAULT
flotación final estática pública LEARNING_RATE_POWER_DEFAULT
Cadena final estática pública LINEAR_ACCUMULATOR
Constructores Públicos
Ftrl público (gráfico gráfico )
Crea un optimizador Ftrl
Parámetros
grafico | el gráfico de TensorFlow |
---|
public Ftrl (gráfico gráfico , nombre de cadena)
Crea un optimizador Ftrl
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
nombre | el nombre de este optimizador |
public Ftrl (gráfico gráfico , tasa de aprendizaje flotante)
Crea un optimizador Ftrl
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
tasa de aprendizaje | la tasa de aprendizaje |
public Ftrl (gráfico gráfico , nombre de cadena, tasa de aprendizaje flotante)
Crea un optimizador Ftrl
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
nombre | el nombre de este optimizador |
tasa de aprendizaje | la tasa de aprendizaje |
public Ftrl ( gráfico gráfico, tasa de aprendizaje flotante, tasa de aprendizaje flotante, potencia de tasa de aprendizaje flotante, valor inicial de acumulador flotante, fuerza l1 flotante, fuerza l2 flotante, fuerza l2 flotante de reducción)
Crea un optimizador Ftrl
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
tasa de aprendizaje | la tasa de aprendizaje |
aprendizajeRatePower | Controla cómo disminuye la tasa de aprendizaje durante el entrenamiento. Utilice cero para una tasa de aprendizaje fija. |
valoracumuladorinicial | El valor inicial para los acumuladores. Sólo se permiten valores cero o positivos. |
l1Fuerza | la fuerza de regularización L1 debe ser mayor o igual a cero. |
l2Fuerza | la fuerza de regularización L2 debe ser mayor o igual a cero. |
l2ContracciónRegularizaciónResistencia | Esto difiere del L2 anterior en que el L2 anterior es una penalización de estabilización, mientras que esta contracción de L2 es una penalización de magnitud. debe ser mayor o igual a cero. |
Lanza
Argumento de excepción ilegal | si el valor inicialAccumulatorValue, l1RegularizationStrength, l2RegularizationStrength o l2ShrinkageRegularizationStrength son menores que 0,0, o learningRatePower es mayor que 0,0. |
---|
public Ftrl (gráfico gráfico , nombre de cadena, tasa de aprendizaje flotante, tasa de aprendizaje flotante, potencia de tasa de aprendizaje flotante, valor inicial de acumulador flotante, fuerza l1 flotante, fuerza l2 flotante, fuerza l2 flotante de reducción)
Crea un optimizador Ftrl
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
nombre | el nombre de este optimizador |
tasa de aprendizaje | la tasa de aprendizaje |
aprendizajeRatePower | Controla cómo disminuye la tasa de aprendizaje durante el entrenamiento. Utilice cero para una tasa de aprendizaje fija. |
valoracumuladorinicial | El valor inicial para los acumuladores. Sólo se permiten valores cero o positivos. |
l1Fuerza | la fuerza de regularización L1 debe ser mayor o igual a cero. |
l2Fuerza | la fuerza de regularización L2 debe ser mayor o igual a cero. |
l2ContracciónRegularizaciónResistencia | Esto difiere del L2 anterior en que el L2 anterior es una penalización de estabilización, mientras que esta contracción de L2 es una penalización de magnitud. debe ser mayor o igual a cero. |
Lanza
Argumento de excepción ilegal | si el valor inicialAccumulatorValue, l1RegularizationStrength, l2RegularizationStrength o l2ShrinkageRegularizationStrength son menores que 0,0, o learningRatePower es mayor que 0,0. |
---|
Métodos públicos
cadena pública getOptimizerName ()
Obtenga el nombre del optimizador.
Devoluciones
- El nombre del optimizador.