Optimiseur qui implémente l'algorithme FTRL.
Cette version prend en charge à la fois le L2 en ligne (la pénalité L2 donnée dans l'article ci-dessous) et le L2 de type retrait (qui est l'ajout d'une pénalité L2 à la fonction de perte).
Voir également
Constantes
Chaîne | ACCUMULATEUR | |
flotter | INITIAL_ACCUMULATOR_VALUE_DEFAULT | |
flotter | L1STRENGTH_DEFAULT | |
flotter | L2STRENGTH_DEFAULT | |
flotter | L2_SHRINKAGE_REGULARIZATION_STRENGTH_DEFAULT | |
flotter | LEARNING_RATE_DEFAULT | |
flotter | LEARNING_RATE_POWER_DEFAULT | |
Chaîne | LINEAR_ACCUMULATEUR |
Constantes héritées
Constructeurs Publics
Méthodes publiques
Chaîne | getOptimizerName () Obtenez le nom de l'optimiseur. |
Méthodes héritées
Constantes
chaîne finale statique publique ACCUMULATEUR
public statique final float INITIAL_ACCUMULATOR_VALUE_DEFAULT
public statique final float L1STRENGTH_DEFAULT
public statique final float L2STRENGTH_DEFAULT
public statique final float L2_SHRINKAGE_REGULARIZATION_STRENGTH_DEFAULT
public statique final float LEARNING_RATE_DEFAULT
public statique final float LEARNING_RATE_POWER_DEFAULT
chaîne finale statique publique LINEAR_ACCUMULATOR
Constructeurs Publics
public Ftrl ( Graphique , Nom de la chaîne)
Crée un optimiseur Ftrl
Paramètres
graphique | le graphique TensorFlow |
---|---|
nom | le nom de cet optimiseur |
public Ftrl ( Graphique , taux d'apprentissage flottant)
Crée un optimiseur Ftrl
Paramètres
graphique | le graphique TensorFlow |
---|---|
taux d'apprentissage | le taux d'apprentissage |
public Ftrl ( Graphique , nom de la chaîne, taux d'apprentissage flottant)
Crée un optimiseur Ftrl
Paramètres
graphique | le graphique TensorFlow |
---|---|
nom | le nom de cet optimiseur |
taux d'apprentissage | le taux d'apprentissage |
public Ftrl ( Graphique , float learningRate, float learningRatePower, float initialAccumulatorValue, float l1Strength, float l2Strength, float l2ShrinkageRegularizationStrength)
Crée un optimiseur Ftrl
Paramètres
graphique | le graphique TensorFlow |
---|---|
taux d'apprentissage | le taux d'apprentissage |
apprentissageTauxPuissance | Contrôle la façon dont le taux d’apprentissage diminue pendant l’entraînement. Utilisez zéro pour un taux d’apprentissage fixe. |
valeur initiale de l'accumulateur | La valeur de départ pour les accumulateurs. Seules les valeurs nulles ou positives sont autorisées. |
l1Force | la force de régularisation L1 doit être supérieure ou égale à zéro. |
l2Force | la force de régularisation L2 doit être supérieure ou égale à zéro. |
l2RétrécissementRégularisationForce | Cela diffère de L2 ci-dessus dans le sens où L2 ci-dessus est une pénalité de stabilisation, alors que ce retrait L2 est une pénalité d'amplitude. doit être supérieur ou égal à zéro. |
Jetés
Exception d'argument illégal | si initialAccumulatorValue, l1RegularizationStrength, l2RegularizationStrength ou l2ShrinkageRegularizationStrength sont inférieurs à 0,0 ou si learningRatePower est supérieur à 0,0. |
---|
public Ftrl ( Graphique , nom de la chaîne, float learningRate, float learningRatePower, float initialAccumulatorValue, float l1Strength, float l2Strength, float l2ShrinkageRegularizationStrength)
Crée un optimiseur Ftrl
Paramètres
graphique | le graphique TensorFlow |
---|---|
nom | le nom de cet optimiseur |
taux d'apprentissage | le taux d'apprentissage |
apprentissageTauxPuissance | Contrôle la façon dont le taux d’apprentissage diminue pendant l’entraînement. Utilisez zéro pour un taux d’apprentissage fixe. |
valeur initiale de l'accumulateur | La valeur de départ pour les accumulateurs. Seules les valeurs nulles ou positives sont autorisées. |
l1Force | la force de régularisation L1 doit être supérieure ou égale à zéro. |
l2Force | la force de régularisation L2 doit être supérieure ou égale à zéro. |
l2RétrécissementRégularisationForce | Cela diffère de L2 ci-dessus dans le sens où L2 ci-dessus est une pénalité de stabilisation, alors que ce retrait L2 est une pénalité d'amplitude. doit être supérieur ou égal à zéro. |
Jetés
Exception d'argument illégal | si initialAccumulatorValue, l1RegularizationStrength, l2RegularizationStrength ou l2ShrinkageRegularizationStrength sont inférieurs à 0,0 ou si learningRatePower est supérieur à 0,0. |
---|
Méthodes publiques
chaîne publique getOptimizerName ()
Obtenez le nom de l'optimiseur.
Retour
- Le nom de l'optimiseur.