AdaGrad

classe publique AdaGrad

Optimiseur qui implémente l'algorithme d'Adagrad.

Adagrad est un optimiseur avec des taux d'apprentissage spécifiques aux paramètres, qui sont adaptés en fonction de la fréquence à laquelle un paramètre est mis à jour pendant la formation. Plus un paramètre reçoit de mises à jour, plus les mises à jour sont petites.

Constantes

Chaîne ACCUMULATEUR
flotter INITIAL_ACCUMULATOR_DEFAULT
flotter LEARNING_RATE_DEFAULT

Constantes héritées

Constructeurs Publics

AdaGrad ( graphique graphique )
Crée un optimiseur AdaGrad
AdaGrad ( Graphique , taux d'apprentissage flottant)
Crée un optimiseur AdaGrad
AdaGrad ( Graphique , float learningRate, float initialAccumulatorValue)
Crée un optimiseur AdaGrad
AdaGrad ( Graphique , nom de la chaîne, taux d'apprentissage flottant)
Crée un optimiseur AdaGrad
AdaGrad ( Graphique , nom de la chaîne, float learningRate, float initialAccumulatorValue)
Crée un optimiseur AdaGrad

Méthodes publiques

Chaîne
getOptimizerName ()
Obtenez le nom de l'optimiseur.
Chaîne

Méthodes héritées

Constantes

chaîne finale statique publique ACCUMULATEUR

Valeur constante : "accumulateur"

public statique final float INITIAL_ACCUMULATOR_DEFAULT

Valeur constante : 0,01

public statique final float LEARNING_RATE_DEFAULT

Valeur constante : 0,001

Constructeurs Publics

public AdaGrad ( Graphique )

Crée un optimiseur AdaGrad

Paramètres
graphique le graphique TensorFlow

public AdaGrad ( Graphique , taux d'apprentissage flottant)

Crée un optimiseur AdaGrad

Paramètres
graphique le graphique TensorFlow
taux d'apprentissage le taux d'apprentissage

public AdaGrad ( Graphique , float learningRate, float initialAccumulatorValue)

Crée un optimiseur AdaGrad

Paramètres
graphique le graphique TensorFlow
taux d'apprentissage le taux d'apprentissage
valeur initiale de l'accumulateur La valeur de départ des accumulateurs doit être non négative.
Jetés
Exception d'argument illégal si initialAccumulatorValue est négatif

public AdaGrad ( Graphique , nom de la chaîne, taux d'apprentissage flottant)

Crée un optimiseur AdaGrad

Paramètres
graphique le graphique TensorFlow
nom le nom de cet optimiseur (par défaut "Adagrad")
taux d'apprentissage le taux d'apprentissage

public AdaGrad ( Graphique , nom de la chaîne, float learningRate, float initialAccumulatorValue)

Crée un optimiseur AdaGrad

Paramètres
graphique le graphique TensorFlow
nom le nom de cet optimiseur (par défaut "Adagrad")
taux d'apprentissage le taux d'apprentissage
valeur initiale de l'accumulateur La valeur de départ des accumulateurs doit être non négative.
Jetés
Exception d'argument illégal si initialAccumulatorValue est négatif

Méthodes publiques

chaîne publique getOptimizerName ()

Obtenez le nom de l'optimiseur.

Retour
  • Le nom de l'optimiseur.

chaîne publique versString ()