Des classes
AdaDelta | Optimiseur qui implémente l'algorithme Adadelta. |
AdaGrad | Optimiseur qui implémente l'algorithme d'Adagrad. |
AdaGradDA | Optimiseur qui implémente l'algorithme Adagrad Dual-Averaging. |
Adam | Optimiseur qui implémente l'algorithme d'Adam. |
Adamax | Optimiseur qui implémente l'algorithme Adamax. |
Ftrl | Optimiseur qui implémente l'algorithme FTRL. |
Descente graduelle | Optimiseur de base de descente de gradient stochastique. |
Élan | Descente de gradient stochastique plus élan, soit nesterov, soit traditionnel. |
Nadam | Nadam Optimizer qui implémente l'algorithme NAdam. |
Optimiseur | Classe de base pour les optimiseurs de dégradé. |
Optimizer.GradAndVar <T étend TType > | Une classe qui contient une paire de dégradés et de variables. |
Optimiseur.Options | Attributs facultatifs pour Optimizer |
RMSProp | Optimiseur qui implémente l'algorithme RMSProp. |
Énumérations
Optimiseurs | Énumérateur utilisé pour créer un nouvel optimiseur avec les paramètres par défaut. |