Adamax

classe publique Adamax

Optimiseur qui implémente l'algorithme Adamax.

C'est une variante d'Adam basée sur la norme de l'infini. Les paramètres par défaut suivent ceux fournis dans le document. Adamax est parfois supérieur à Adam, notamment dans les modèles avec intégrations.

Voir également

Constantes

flotter BETA_ONE_DEFAULT
flotter BETA_TWO_DEFAULT
flotter EPSILON_DEFAULT
Chaîne FIRST_MOMENT
flotter LEARNING_RATE_DEFAULT
Chaîne SECOND_MOMENT

Constantes héritées

Constructeurs Publics

Adamax ( Graphique graphique)
Crée un optimiseur qui implémente l'algorithme Adamax.
Adamax ( Graphique , Nom de la chaîne)
Crée un optimiseur qui implémente l'algorithme Adamax.
Adamax ( Graphique , taux d'apprentissage flottant)
Crée un optimiseur qui implémente l'algorithme Adamax.
Adamax ( Graphique , nom de la chaîne, taux d'apprentissage flottant)
Crée un optimiseur qui implémente l'algorithme Adamax.
Adamax ( Graphique , float learningRate, float betaOne, float betaTwo, float epsilon)
Crée un optimiseur qui implémente l'algorithme Adamax.
Adamax ( Graphique , nom de la chaîne, float learningRate, float betaOne, float betaTwo, float epsilon)
Crée un optimiseur qui implémente l'algorithme Adamax.

Méthodes publiques

Chaîne
getOptimizerName ()
Obtenez le nom de l'optimiseur.

Méthodes héritées

Constantes

public statique final float BETA_ONE_DEFAULT

Valeur constante : 0,9

public statique final float BETA_TWO_DEFAULT

Valeur constante : 0,999

public statique final float EPSILON_DEFAULT

Valeur constante : 1,0E-7

Chaîne finale statique publique FIRST_MOMENT

Valeur constante : "m"

public statique final float LEARNING_RATE_DEFAULT

Valeur constante : 0,001

chaîne finale statique publique SECOND_MOMENT

Valeur constante : "v"

Constructeurs Publics

public Adamax ( Graphique )

Crée un optimiseur qui implémente l'algorithme Adamax.

Paramètres
graphique le graphique TensorFlow

public Adamax ( Graphique , Nom de la chaîne)

Crée un optimiseur qui implémente l'algorithme Adamax.

Paramètres
graphique le graphique TensorFlow
nom nom des opérations créées lors de l'application de dégradés. La valeur par défaut est "Adamax".

public Adamax ( Graphique , taux d'apprentissage flottant)

Crée un optimiseur qui implémente l'algorithme Adamax.

Paramètres
graphique le graphique TensorFlow
taux d'apprentissage Le taux d'apprentissage.

public Adamax ( Graphique , nom de la chaîne, taux d'apprentissage flottant)

Crée un optimiseur qui implémente l'algorithme Adamax.

Paramètres
graphique le graphique TensorFlow
nom nom des opérations créées lors de l'application de dégradés. La valeur par défaut est "Adamax".
taux d'apprentissage Le taux d'apprentissage.

public Adamax ( Graphique , float learningRate, float betaOne, float betaTwo, float epsilon)

Crée un optimiseur qui implémente l'algorithme Adamax.

Paramètres
graphique le graphique TensorFlow
taux d'apprentissage Le taux d'apprentissage.
bêtaOne Le taux de décroissance exponentielle pour les estimations du 1er instant.
bêtadeux Le taux de décroissance exponentielle pour la norme infinie pondérée exponentiellement.
épsilon Une petite constante pour la stabilité numérique.

public Adamax ( Graph graph, String name, float learningRate, float betaOne, float betaTwo, float epsilon)

Crée un optimiseur qui implémente l'algorithme Adamax.

Paramètres
graphique le graphique TensorFlow
nom nom des opérations créées lors de l'application de dégradés. La valeur par défaut est "Adamax".
taux d'apprentissage Le taux d'apprentissage.
bêtaOne Le taux de décroissance exponentielle pour les estimations du 1er instant.
bêtadeux Le taux de décroissance exponentielle pour la norme infinie pondérée exponentiellement.
épsilon Une petite constante pour la stabilité numérique.

Méthodes publiques

chaîne publique getOptimizerName ()

Obtenez le nom de l'optimiseur.

Retour
  • Le nom de l'optimiseur.