Optimiseur qui implémente l'algorithme FTRL.
Cette version prend en charge à la fois le L2 en ligne (la pénalité L2 donnée dans l'article ci-dessous) et le L2 de type retrait (qui est l'ajout d'une pénalité L2 à la fonction de perte).
Voir également
Constantes
Chaîne | ACCUMULATEUR | |
flotter | INITIAL_ACCUMULATOR_VALUE_DEFAULT | |
flotter | L1STRENGTH_DEFAULT | |
flotter | L2STRENGTH_DEFAULT | |
flotter | L2_SHRINKAGE_REGULARIZATION_STRENGTH_DEFAULT | |
flotter | LEARNING_RATE_DEFAULT | |
flotter | LEARNING_RATE_POWER_DEFAULT | |
Chaîne | LINEAR_ACCUMULATEUR |
Constantes héritées
Chaîne | VARIABLE_V2 |
Constructeurs Publics
Méthodes publiques
Chaîne | getOptimizerName () Obtenez le nom de l'optimiseur. |
Méthodes héritées
Opération | applyGradients (List< GradAndVar <? extends TType >> gradsAndVars, nom de la chaîne) Applique des dégradés aux variables |
<T étend TType > List< GradAndVar <?>> | calculateGradients (perte de l'opérande <?>) Calcule les gradients en fonction d'un opérande de perte. |
Chaîne statique | createName ( Sortie <? extends TType > variable, String slotName) Crée un nom en combinant un nom de variable et un nom d'emplacement |
chaîne abstraite | getOptimizerName () Obtenez le nom de l'optimiseur. |
<T étend TType > Facultatif< Variable <T>> | |
Opérations finales | obtenirTF () Obtient l'instance Ops de l'Optimizer |
Opération | |
Opération | minimiser (perte de l'opérande <?>, nom de la chaîne) Minimise la perte en mettant à jour les variables |
booléen | est égal à (Objet arg0) |
Classe finale<?> | obtenirClasse () |
int | Code de hachage () |
vide final | notifier () |
vide final | notifierTous () |
Chaîne | àChaîne () |
vide final | attendre (long arg0, int arg1) |
vide final | attendez (long arg0) |
vide final | attendez () |
Constantes
chaîne finale statique publique ACCUMULATEUR
public statique final float INITIAL_ACCUMULATOR_VALUE_DEFAULT
public statique final float L1STRENGTH_DEFAULT
public statique final float L2STRENGTH_DEFAULT
public statique final float L2_SHRINKAGE_REGULARIZATION_STRENGTH_DEFAULT
public statique final float LEARNING_RATE_DEFAULT
public statique final float LEARNING_RATE_POWER_DEFAULT
chaîne finale statique publique LINEAR_ACCUMULATOR
Constructeurs Publics
public Ftrl ( Graphique , Nom de la chaîne)
Crée un optimiseur Ftrl
Paramètres
graphique | le graphique TensorFlow |
---|---|
nom | le nom de cet optimiseur |
public Ftrl ( Graphique , taux d'apprentissage flottant)
Crée un optimiseur Ftrl
Paramètres
graphique | le graphique TensorFlow |
---|---|
taux d'apprentissage | le taux d'apprentissage |
public Ftrl ( Graphique , nom de la chaîne, taux d'apprentissage flottant)
Crée un optimiseur Ftrl
Paramètres
graphique | le graphique TensorFlow |
---|---|
nom | le nom de cet optimiseur |
taux d'apprentissage | le taux d'apprentissage |
public Ftrl ( Graphique , float learningRate, float learningRatePower, float initialAccumulatorValue, float l1Strength, float l2Strength, float l2ShrinkageRegularizationStrength)
Crée un optimiseur Ftrl
Paramètres
graphique | le graphique TensorFlow |
---|---|
taux d'apprentissage | le taux d'apprentissage |
apprentissageTauxPuissance | Contrôle la façon dont le taux d’apprentissage diminue pendant l’entraînement. Utilisez zéro pour un taux d’apprentissage fixe. |
valeur initiale de l'accumulateur | La valeur de départ pour les accumulateurs. Seules les valeurs nulles ou positives sont autorisées. |
l1Force | la force de régularisation L1 doit être supérieure ou égale à zéro. |
l2Force | la force de régularisation L2 doit être supérieure ou égale à zéro. |
l2RétrécissementRégularisationForce | Cela diffère de L2 ci-dessus dans le sens où L2 ci-dessus est une pénalité de stabilisation, alors que ce retrait L2 est une pénalité d'amplitude. doit être supérieur ou égal à zéro. |
Jetés
Exception d'argument illégal | si initialAccumulatorValue, l1RegularizationStrength, l2RegularizationStrength ou l2ShrinkageRegularizationStrength sont inférieurs à 0,0 ou si learningRatePower est supérieur à 0,0. |
---|
public Ftrl ( Graphique , nom de la chaîne, float learningRate, float learningRatePower, float initialAccumulatorValue, float l1Strength, float l2Strength, float l2ShrinkageRegularizationStrength)
Crée un optimiseur Ftrl
Paramètres
graphique | le graphique TensorFlow |
---|---|
nom | le nom de cet optimiseur |
taux d'apprentissage | le taux d'apprentissage |
apprentissageTauxPuissance | Contrôle la façon dont le taux d’apprentissage diminue pendant l’entraînement. Utilisez zéro pour un taux d’apprentissage fixe. |
valeur initiale de l'accumulateur | La valeur de départ pour les accumulateurs. Seules les valeurs nulles ou positives sont autorisées. |
l1Force | la force de régularisation L1 doit être supérieure ou égale à zéro. |
l2Force | la force de régularisation L2 doit être supérieure ou égale à zéro. |
l2RétrécissementRégularisationForce | Cela diffère de L2 ci-dessus dans le sens où L2 ci-dessus est une pénalité de stabilisation, alors que ce retrait L2 est une pénalité d'amplitude. doit être supérieur ou égal à zéro. |
Jetés
Exception d'argument illégal | si initialAccumulatorValue, l1RegularizationStrength, l2RegularizationStrength ou l2ShrinkageRegularizationStrength sont inférieurs à 0,0 ou si learningRatePower est supérieur à 0,0. |
---|
Méthodes publiques
chaîne publique getOptimizerName ()
Obtenez le nom de l'optimiseur.
Retour
- Le nom de l'optimiseur.