Optimiseur qui implémente l'algorithme Adamax.
C'est une variante d'Adam basée sur la norme de l'infini. Les paramètres par défaut suivent ceux fournis dans le document. Adamax est parfois supérieur à Adam, notamment dans les modèles avec intégrations.
Voir également
Constantes
| flotter | BETA_ONE_DEFAULT | |
| flotter | BETA_TWO_DEFAULT | |
| flotter | EPSILON_DEFAULT | |
| Chaîne | FIRST_MOMENT | |
| flotter | LEARNING_RATE_DEFAULT | |
| Chaîne | SECOND_MOMENT |
Constantes héritées
Constructeurs Publics
Méthodes publiques
| Chaîne | getOptimizerName () Obtenez le nom de l'optimiseur. |
Méthodes héritées
Constantes
public statique final float BETA_ONE_DEFAULT
public statique final float BETA_TWO_DEFAULT
public statique final float EPSILON_DEFAULT
Chaîne finale statique publique FIRST_MOMENT
public statique final float LEARNING_RATE_DEFAULT
chaîne finale statique publique SECOND_MOMENT
Constructeurs Publics
public Adamax ( Graphique )
Crée un optimiseur qui implémente l'algorithme Adamax.
Paramètres
| graphique | le graphique TensorFlow |
|---|
public Adamax ( Graphique , Nom de la chaîne)
Crée un optimiseur qui implémente l'algorithme Adamax.
Paramètres
| graphique | le graphique TensorFlow |
|---|---|
| nom | nom des opérations créées lors de l'application de dégradés. La valeur par défaut est "Adamax". |
public Adamax ( Graphique , taux d'apprentissage flottant)
Crée un optimiseur qui implémente l'algorithme Adamax.
Paramètres
| graphique | le graphique TensorFlow |
|---|---|
| taux d'apprentissage | Le taux d'apprentissage. |
public Adamax ( Graphique , nom de la chaîne, taux d'apprentissage flottant)
Crée un optimiseur qui implémente l'algorithme Adamax.
Paramètres
| graphique | le graphique TensorFlow |
|---|---|
| nom | nom des opérations créées lors de l'application de dégradés. La valeur par défaut est "Adamax". |
| taux d'apprentissage | Le taux d'apprentissage. |
public Adamax ( Graphique , float learningRate, float betaOne, float betaTwo, float epsilon)
Crée un optimiseur qui implémente l'algorithme Adamax.
Paramètres
| graphique | le graphique TensorFlow |
|---|---|
| taux d'apprentissage | Le taux d'apprentissage. |
| bêtaOne | Le taux de décroissance exponentielle pour les estimations du 1er instant. |
| bêtadeux | Le taux de décroissance exponentielle pour la norme infinie pondérée exponentiellement. |
| épsilon | Une petite constante pour la stabilité numérique. |
public Adamax ( Graph graph, String name, float learningRate, float betaOne, float betaTwo, float epsilon)
Crée un optimiseur qui implémente l'algorithme Adamax.
Paramètres
| graphique | le graphique TensorFlow |
|---|---|
| nom | nom des opérations créées lors de l'application de dégradés. La valeur par défaut est "Adamax". |
| taux d'apprentissage | Le taux d'apprentissage. |
| bêtaOne | Le taux de décroissance exponentielle pour les estimations du 1er instant. |
| bêtadeux | Le taux de décroissance exponentielle pour la norme infinie pondérée exponentiellement. |
| épsilon | Une petite constante pour la stabilité numérique. |
Méthodes publiques
chaîne publique getOptimizerName ()
Obtenez le nom de l'optimiseur.
Retour
- Le nom de l'optimiseur.